Vue lecture

☕️ Aylo bloque à nouveau Youporn, Pornhub et Redtube en France

Aylo (ex Mindgeek), éditeur de trois parmi les plus importants carrefours d’audience au monde en matière de contenus pornographiques, a à nouveau mis en place le blocage de ses sites pour les internautes français.

Depuis la France, Youporn, Pornhub et Redtube sont remplacés par un nouveau message dans lequel l’éditeur s’insurge contre la façon dont la France a choisi de mettre en œuvre l’obligation de vérification de l’âge des internautes.

Aylo a conservé l’iconographie déjà utilisée début juin pour illustrer son blocage

La mise en ligne de cet écran et le blocage associé font suite à la publication, mardi, d’une décision du Conseil d’État qui rétablit la possibilité de bloquer les sites pornographiques si ces derniers n’ont pas répondu à l’exigence de mise en place d’un dispositif de vérification d’âge.

« Les contestations juridiques, les décisions et les revirements en cours mettent clairement en évidence une chose : l’absence de direction, l’absence de solution globale et, pour dire les choses simplement, le dysfonctionnement législatif », affirme l’éditeur de Pornhub, qui une nouvelle fois cherche à prendre à parti les utilisateurs de ses services :

« Votre gouvernement propose que nous vérifiions votre âge à chaque fois que vous visitez notre site. La dure réalité : Cette mesure ne protège pas les mineurs, elle met en péril la vie privée de chacun et met les enfants en danger, car elle conduit le trafic vers des milliers de sites qui contournent délibérément les réglementations, ne vérifient pas l’âge des participants dans les contenus et encouragent activement les utilisateurs à contourner la loi ».

Aylo avait déjà bloqué l’accès à ses sites en France début juin, avant de faire marche arrière quand le tribunal administratif de Paris avait ordonné la suspension de l’obligation de contrôle.

« Seuls des adultes identifiés devraient être autorisés à déverrouiller l’accès à des contenus inappropriés pour l’âge. La technologie nécessaire à cette fin existe aujourd’hui. Nous sommes déterminés à faire partie de cette solution et souhaitons collaborer avec les gouvernements, la société civile et les partenaires technologiques pour parvenir à une solution efficace de vérification de l’âge basée sur les appareils », affirme encore l’éditeur.

Ce nouveau rebondissement intervient alors que la Commission européenne vient de publier ses lignes directrices en matière de protection des mineurs sur Internet, et d’annoncer le développement d’un module de vérification destiné aux éditeurs, qui sera notamment testé par la France.

  •  

Meta annonce investir des centaines de milliards de dollars dans des datacenters pour l’IA

Titans sans Tartare
Meta annonce investir des centaines de milliards de dollars dans des datacenters pour l’IA

Dans une série de messages sur Threads, Mark Zuckerberg a annoncé « investir des centaines de milliards de dollars ». Meta veut accélérer l’agrandissement de son parc de datacenters : actuellement, l’entreprise utilise même des tentes pour étendre ses centres. Pourtant, leur installation a des conséquences pour le voisinage.

Sur son réseau social Threads, Mark Zuckerberg a annoncé, lundi 14 juillet, que son entreprise, Meta, va investir « des centaines de milliards de dollars » dans de nouvelles infrastructures de calcul pour l’intelligence artificielle. Cette annonce arrive après le débauchage par son entreprise de plusieurs spécialistes chez Apple, Anthropic, OpenAI ou Scale AI.

Meta a bien développé une famille de modèles de langage, Llama, qu’elle présente comme open source, même si bien des spécialistes critiquent cette appellation. Mais l’entreprise, qui avait parié sur le metaverse, s’est montrée moins à la pointe dans le développement de l’IA générative que ses concurrents comme OpenAI, Google ou Microsoft. C’était pourtant chez Facebook que l’un des pionniers du deep learning, Yann Lecun, avait posé ses pénates en 2013, donnant un boost au domaine.

Des « titans » demandant jusqu’à 5 GW de puissance

« Nous sommes en train de construire des clusters de plusieurs gigawatts », a expliqué de manière offensive Mark Zuckerberg sur Thread. « Nous avons baptisé le premier Prometheus et il sera mis en service en 2026 », a-t-il ajouté, « nous construisons également Hyperion, qui aura une puissance qui pourra aller jusqu’à 5 GW dans plusieurs années. Nous construisons également de nombreuses autres clusters de titans. L’un d’entre eux couvre une grande partie de l’empreinte de Manhattan ». Le CEO de Meta parle de datacenters « de titans » et les baptise de noms inspirés de ces divinités de la mythologie grecque, donnant une impression de gigantisme à ses centres de données.

Vendredi 11 juillet, SemiAnalysis expliquait que Meta mettait en place des parties de ses datacenters sous tentes pour accélérer leur expansion. L’entreprise a confirmé auprès de Business Insider, tout en précisant que ces tentes permettent seulement d’augmenter la capacité de datacenters existants. SemiAnalysis donnait aussi plus d’informations sur le projet Prometheus. « Lorsque le réseau électrique local n’a pu suivre, Meta s’est mis en mode Elon [Musk]. Avec l’aide de Williams [énergéticien étasunien, ndlr], ils construisent deux centrales au gaz naturel de 200 MW sur site », affirmait SemiAnalysis.

Comme nous l’expliquions récemment, ces gros datacenters ne cherchent plus la proximité des fibres, mais celle des grosses lignes électriques pour alimenter des serveurs toujours plus gourmands et denses. Jusqu’à, comme ici, imaginer des centrales dédiées.

Pour mettre en perspective cette annonce de Mark Zuckerberg, rappelons qu’Olivier de Nomazy, responsable analyste chez Data4, nous expliquait qu’ « il y avait à peu près 6,5 GW en 2023 de datacenters déployés ». L’annonce d’un datacenter de 5 GW par Meta implique donc un besoin d’énergie colossal par rapport à ce que l’on connait actuellement.

Des problèmes pour les riverains

En parallèle, lundi, le New York Times a publié un article racontant les problèmes d’une famille du Comté de Newton, dont la maison se situe juste à côté d’un des datacenters de Meta. Beverly et Jeff Morris habitent à 300 mètres de ce centre de données, et l’eau de leur maison vient directement de la nappe d’eau souterraine de leur terrain.

Le journal étasunien explique que quelques mois après le début de la construction du data center de Meta, en 2018, le lave-vaisselle, la machine à glaçons, le lave-linge et les toilettes des Morris ont tous cessé de fonctionner. « En l’espace d’un an, la pression de l’eau s’est réduite à un filet d’eau ».

Le média syndical américain More Perfect Union avait déjà publié, il y a trois mois, sur YouTube une vidéo sur les problèmes de la famille :

  •  

Sites porno : le Conseil d’État rétablit l’obligation de contrôle de l’âge

Coitus interruptus
Sites porno : le Conseil d’État rétablit l’obligation de contrôle de l’âge

Suspendue par une décision de justice le 16 juin dernier, l’obligation de contrôle de l’âge en amont de l’accès aux sites pornographiques a été rétablie mardi par le Conseil d’État. L’institution estime que la suspension n’était pas justifiée par une notion d’urgence. Les Sages notent par ailleurs que le contrôle de l’âge est « bien susceptible de contribuer à atteindre l’objectif de protection des mineurs » poursuivi par la loi SREN.

Pornhub, Redtube et Youporn seront-ils de nouveau bloqués en France par leur éditeur, pour tenter de faire pression sur l’Arcom et les pouvoirs publics ? Le Conseil d’État a rendu mardi 15 juillet une décision qui pourrait relancer la controverse. L’institution a en effet décidé d’annuler la décision de justice du 16 juin dernier, qui suspendait l’obligation de vérification de l’âge des internautes entrée en vigueur quelques semaines plus tôt pour 17 sites pornographiques de premier plan.

Le Conseil d’État ne retient pas l’urgence

« Le Conseil d’État relève que la société n’apporte aucun élément permettant d’établir que l’application de l’arrêté contesté porterait une atteinte grave à sa situation économique, remarque l’institution dans le communiqué qui accompagne sa décision (PDF). Il constate également que l’arrêté n’interdit pas la diffusion de contenus pornographiques auprès des personnes majeures, mais qu’il impose seulement de mettre en place des systèmes de vérification de l’âge efficaces, dans le cadre des garanties prévues par la loi. Il n’y a donc pas d’atteinte à la liberté d’expression et à la protection de la vie privée. »

L’institution souligne par ailleurs que le dispositif de vérification de l’âge, imposé par l’arrêté contesté, est bien susceptible de contribuer à atteindre l’objectif d’intérêt public qui lui est rattaché, à savoir « la protection des mineurs contre l’exposition à des contenus à caractère pornographique », et annule donc la suspension ordonnée par le tribunal administratif le 16 juin dernier.

Un contentieux qui dure

La loi du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique, dite SREN, confère pour mémoire à l’Arcom un pouvoir de sanction à l’encontre des sites pour adultes qui ne disposent pas d’un mécanisme de contrôle de l’âge. Il manquait cependant au texte un arrêté ministériel pour permettre le blocage des sites contrevenants quand ces derniers sont édités par une société établie dans un autre État membre de l’Union européenne : la publication de ce dernier, signé par Rachida Dati, est intervenue le 6 mars dernier, ouvrant une période de grâce de trois mois pour la mise en œuvre des mesures techniques associées.

Pendant que le canadien Aylo, éditeur de Pornhub, Redtube et Youporn, tentait le coup de com’ en bloquant de façon préventive l’accès à ses sites pour tous les internautes français, l’entreprise chypriote Hammy Media LTD, qui gère la plateforme xHamster, a de son côté choisi la voie juridique, en attaquant l’arrêté du ministère de la Culture devant le tribunal administratif de Paris. La démarche a d’abord été couronnée de succès, puisque le juge a donc décidé, le 16 juin dernier, de suspendre l’arrêté en urgence, le temps de vérifier si ce dernier est bien compatible avec le droit européen.

Problème : pour le Conseil d’État, cette notion d’urgence ne méritait pas d’être retenue. « La condition d’urgence est considérée comme remplie lorsque la décision administrative contestée porte préjudice de manière suffisamment grave et immédiate à un intérêt public, à la situation du requérant ou aux intérêts qu’il entend défendre », rappelle l’institution.

Or elle estime, dans sa décision, que l’éditeur de xHamster n’a fourni aucun élément permettant d’attester, de façon objective, de la réalité du préjudice financier qui découlerait de la mise en place du contrôle d’âge. « Constatant l’absence d’urgence, le Conseil d’État rejette la demande de suspension l’arrêté du 26 février 2025 sans avoir à se prononcer ni sur sa légalité, ni sur la question prioritaire de constitutionnalité soulevée à l’encontre de la loi par la société requérante. »

Si la suspension est pour l’instant annulée, le contentieux reste ouvert. Le tribunal administratif de Paris a en effet également été saisi au fond contre l’arrêté ministériel du 26 février 2025. Et le référentiel technique sur la vérification de l’âge adopté par l’Arcom dans le cadre de la mise en œuvre de la loi du 21 mai 2024 fait lui aussi l’objet d’un recours au fond, devant le Conseil d’État cette fois.

  •  

xAI sort Grok 4, sa version Heavy déclare s’appeler Hitler

GodwinAI
xAI sort Grok 4, sa version Heavy déclare s’appeler Hitler

xAI a sorti Grok 4, accessible depuis différents abonnements. La version la plus chère, qui donne accès à Grok 4 Heavy, a tôt fait de déclarer qu’elle s’appelait Hitler, potentiellement influencée par les déboires extrémistes des versions précédentes.

Chez Grok, (quasiment) rien de nouveau. Après des propos sur un faux génocide en Afrique du Sud ou la promotion évidente de l’extrême-droite en France, voici que la société xAI d’Elon Musk sort Grok 4 une version du grand modèle de langage présentée comme « la plus intelligente au monde ».

Pour y accéder, diverses possibilités : une offre gratuite, une offre « SuperGrok » à 30 dollars par mois, et une nommée « SuperGrok Heavy » à 300 dollars par mois.

3 versions d’abonnements

Les différentes versions permettent toutes d’accéder à des « compagnons », des personnages animés actuellement au nombre de deux (Bad Rudy, un panda roux aux réponses volontairement méchantes, et Ani, une femme blonde dans un style d’anime japonais, prompte à enlever sa robe pour montrer sa lingerie).

L’abonnement à SuperGrok Heavy doit permettre d’accéder de manière anticipée à des fonctionnalités avancées et au modèle Grok 4 Heavy. Il lui manque cela dit quelques éléments disponibles du côté du SuperGrok classique, à commencer par celle des « pensées », c’est-à-dire de la liste des sources disponibles en ligne venues alimenter les réponses formulées par la machine.

Dans la version la plus coûteuse, les résultats se gâtent par ailleurs d’un point de vue politique. Demandez à Grok 4 Heavy de vous donner son nom, il vous répondra, sans hésiter, et à plusieurs reprises : Hitler.

Grok influencé par la couverture médiatique de ses sorties extrêmistes ?

Ex-ingénieur de la société d’annotation Scale AI, Riley Goodside a fait le test sur les différentes versions de Grok 4. Dans sa version classique, interrogée sur son nom, Grok 4 renvoie des résultats peu problématiques, comme « 4 », « xAI » ou « aucun ».

Si la fonction de recherche de sources n’est pas disponible avec le recours au modèle Grok 4 heavy, celles fournies par Grok 4 permettent néanmoins de formuler une hypothèse sur son apparente passion hitlérienne. Du côté de ce modèle plus « léger », la machine tombe en effet rapidement sur des rapports relatifs à l’épisode de début juillet, dans lequel la version précédente de Grok se qualifiait elle-même de « MechaHitler », permettait de générer des récits de viols et promouvait des thèses conspirationnistes — quand elle ne répondait pas en prenant un ton très similaire à celui d’Elon Musk lui-même.

Pour Riley Goodside, il est probable que la machine ait été influencée après son entraînement par les résultats qu’elle est allée chercher en ligne. Cela suggérerait l’existence d’une faille d’un nouveau genre pour tous les modèles de langages recourant à de la recherche en ligne, dans laquelle les articles les concernant pourraient influencer leurs résultats, dans une boucle de rétroaction complexe à maîtriser.

Reste à savoir pourquoi Grok 4 est capable d’éviter ce type de résultats, quand Grok 4 heavy les prend en compte et les utilise pour formuler ses réponses.

L’enjeu est d’autant plus important qu’au moment même où Elon Musk dévoilait les « compagnons » accessibles depuis Grok 4, xAI déclarait avoir signé un contrat avec le ministère états-unien de la Défense et rendait ses « modèles frontières » accessibles à l’administration, aux côtés de ses concurrents Anthropic, Google et OpenAI.

Le directeur du numérique de l’office de l’intelligence artificielle indique dans un communiqué que ces différents contrats, qui correspondent largement à ce que le « ministère de l’efficacité gouvernementale » cherchait à faire en déployant de l’IA au sein de l’administration des États-Unis, grimpent jusqu’à 200 millions de dollars.

  •  

☕️ Ubuntu 25.10 aura une session RISC-V complète, mais pour très peu de matériel

On sait depuis environ deux mois que la prochaine édition d’Ubuntu aura une session complète pour l’architecture RISC-V. Le programme d’Ubuntu 25.10 est d’ailleurs chargé, avec une expérience Wayland plus lissée pour les GPU NVIDIA, le support du Variable Refresh Rate ou encore le chiffrement intégral du disque soutenu par la puce TPM. On y trouvera également GNOME 49, le noyau Linux 6.17 et plusieurs nouvelles applications, dont Loupe et Ptyxis.

Ce support amélioré de RISC-V viendra cependant avec un changement majeur : seul le profil RVA23 de l’architecture sera pris en charge. Les RVA (Risc-V Application) sont des spécifications techniques décrivant les capacités de traitement vectoriel qu’un système compatible doit posséder. Ils décrivent donc, concrètement, ce que les applications peuvent utiliser.

Or, le RVA23 est le dernier profil en date. Il a été publié en octobre 2024 et rend plusieurs extensions obligatoires, dont Vector et Hyperviseur. Dans le cas d’Ubuntu, les conséquences seront très concrètes : puisque l’immense majorité du matériel RISC-V se sert du profil RVA20, la version 25.10 du système ne les prendra plus en charge. En contrepartie, utiliser le système sur du matériel neuf (et pour l’instant presque inexistant) permettra d’obtenir une session complète et de faire tourner toutes les applications, grâce notamment aux fonctions d’hyperviseur ainsi débloquées.

Pour les personnes concernées, c’est évidemment une mauvaise nouvelle. On peut cependant la relativiser : Ubuntu 24.04 LTS, qui prend en charge le profil RVA20, sera supporté jusqu’en 2029 au moins. Une mise à jour du composant ubuntu-release-upgrader est en outre déployée depuis quelques semaines pour préparer le terrain. Ainsi, si une configuration RVA20 est détectée, la version utilisée du système ne sera pas mise à jour.

Pour Canonical, il s’agit encore une fois de mettre en place des changements importants avant la nouvelle LTS. Ubuntu 26.04 sera ainsi prête pour le nouveau matériel qui devrait se multiplier d’ici la fin de l’année.

  •  

En 2024, 13,5 % des résumés d’articles de recherche biomédicale étaient co-rédigés par IA

« crucial », « potential », « significant »
En 2024, 13,5 % des résumés d’articles de recherche biomédicale étaient co-rédigés par IA

Une analyse des publications scientifiques dans le milieu de la recherche biomédicale montre que les modèles de langage sont massivement utilisés pour rédiger au moins leurs résumés.

De plus en plus de chercheurs utilisent des modèles de langage (LLM) pour rédiger leurs articles. En analysant le vocabulaire utilisé dans les résumés des articles scientifiques, des chercheurs montrent que leurs collègues en recherche biomédicale utilisent abondamment l’IA pour résumer leurs articles. Ils ont publié leurs résultats dans la revue Science Advances.

Cette analyse constate aussi une évolution du vocabulaire dans les résumés des 15 millions d’articles du milieu biomédical (en anglais) indexés sur la plateforme PubMed, principal moteur de recherche d’articles médicaux et de biologie.

Détection par l’augmentation anormale de la fréquence de certains mots

Ils ont de fait « simplement » calculé la fréquence, pour chaque année, des 273 112 mots qui apparaissent dans ces résumés. Pour chaque année, ils ont identifié les 900 mots « excédentaires ».

Ainsi, on peut observer l’évolution soudaine de l’utilisation ou de l’abandon de certains termes.

Le verbe « delve » (approfondir) avait déjà été repéré car c’est un terme peu employé dans l’anglais étasunien ou britannique, mais très utilisé par les nigérians, nationalité de beaucoup de travailleurs de la donnée dont le travail est utilisé pour entrainer les IA.

Le titre de l’article scientifique, « Delving into LLM-assisted writing in biomedical publications through excess vocabulary », est d’ailleurs un clin d’œil en référence à la fréquence élevée de ce terme. Mais des termes comme « crucial », « potential » ou « significant » ont fait des bons qui coïncident avec l’arrivée des IA génératives. Au contraire, « important » a chuté ces dernières années.

Ces pics de fréquences d’utilisation de termes ne sont pas tous dus qu’à l’utilisation de l’IA. On peut, par exemple, facilement comprendre qu’entre 2020 et 2024, le terme « pandemic » a connu un certain succès dans le milieu biomédical. De même, l’épidémie de maladie à virus Ebola en Afrique de l’Ouest entre 2013 et 2016 a, mécaniquement, poussé les chercheurs à utiliser le nom du virus dans leurs résumés.

Concentration sur les différences entre 2022 et 2024

Ils se sont donc concentrés sur les termes dont la fréquence a augmenté de façon particulièrement excessive en 2024, en comparant avec l’année 2022.

Mots dont la fréquence augmente en 2024. À gauche, le ratio entre 2024 et 2022 en fonction de la fréquence en 2024. À droite, l’écart entre 2024 et 2022 en fonction de la fréquence en 2024.

Ainsi, on peut voir que « delved » ou « delves », mais aussi « undescore », « notably », « showcasing » ou « additionnaly » sont particulièrement utilisés dans les articles biomédicaux de 2024 par rapport à ceux publiés en 2022.

Mais on peut se demander si ce phénomène peut être observé lors d’autres années. Ils ont vérifié pour toutes les années entre 2013 et 2023 et n’ont pas observé d’augmentations aussi importantes sauf pour le terme « ebola » en 2015, le terme « zika » en 2017 et les termes « coronavirus », « covid », « lockdown » et « pandemic » entre 2020 et 2022. Il faut donc, d’habitude, qu’il y ait un événement majeur lié à un terme biomédical pour qu’une telle augmentation de fréquence soit observée.

L’IA insert un style d’écriture différent

Les chercheurs ont aussi analysé quels types de mots étaient sur-utilisés. Comme on peut le voir dans les graphiques ci-dessous, la plupart des mots dont la fréquence est excessive à l’ère de l’IA générative sont plus là pour agrémenter le style. Ce sont aussi, la plupart du temps, des verbes ou, dans une moindre mesure, des adjectifs.

Le regroupement de ces termes de style dont la fréquence est excessive pour 2024 leur a servi de marqueur de l’usage de modèles de langage pour la rédaction des résumés des articles. En gros, ils considèrent qu’à partir d’un certain seuil de mots venant de ce groupe de mots, les chercheurs ont utilisé ChatGPT ou tout autre outil d’IA générative pour rédiger leur résumé.

13,5 % est une estimation basse

C’est en réanalysant tous les résumés des articles indexés par PubMed par ce prisme qu’ils estiment qu’au moins 13,5 % d’entre eux ont été rédigés à l’aide de l’IA générative. « Avec environ 1,5 million d’articles indexés dans PubMed par an, cela signifie que les LLM participent à la rédaction d’au moins 200 000 articles par an », expliquent-ils.

Ils insistent sur le fait que c’est une borne inférieure, puisque des résumés rédigés avec l’IA générative peuvent ne comporter aucun des termes qu’ils ont repérés. Ils soulignent aussi que, dans le lot, il peut y avoir des faux-positifs : notamment, l’utilisation des modèles de langage peut aussi influencer le style des humains. Mais ils pensent que ce dernier effet est beaucoup plus petit et plus lent.

Si l’IA générative peut aider dans la forme, elle peut ajouter des problèmes de fond

Ils font remarquer que l’IA générative est souvent utilisée pour améliorer la grammaire, la rhétorique, la lisibilité générale des textes ou aide à la traduction. Mais ils rappellent que les modèles de langage sont connus pour halluciner des références, fournir des résumés inexacts et générer de fausses informations qui semblent faire autorité et être convaincantes.

« Si les chercheurs peuvent remarquer et corriger les erreurs factuelles dans les résumés générés par IA de leurs propres travaux, il peut être plus difficile de trouver les erreurs de bibliographies ou de sections de discussions d’articles scientifiques générés par des LLM », soulignent-ils.

Ils ajoutent que les LLM peuvent répliquer les bais et autres carences qui se trouvent dans leurs données d’entrainement « ou même carrément plagier ».

Le code utilisé pour l’analyse des articles scientifiques est disponible sur GitHub et archivé sur Zenodo. On peut aussi y trouver toutes les données qu’ils ont générées.

  •  

☕️ [MàJ] WeTransfer modifie de nouveau ses CGU suite aux critiques sur l’entrainement des IA

Mise à jour 15 juillet 14h15 : WeTransfer a de nouveau modifié ses conditions d’utilisation. Les mentions citées ci-dessous n’apparaissent plus. À la place, l’entreprise affirme : « Afin de nous permettre d’exploiter, de vous fournir et d’améliorer le service et nos technologies, nous devons obtenir de vous certains droits relatifs au contenu couvert par des droits de propriété intellectuelle ». Dans cette section, elle ne mentionne plus l’amélioration de modèles, mais elle ajoute : « par la présente, vous nous accordez une licence libre de droits pour utiliser votre contenu dans le but d’exploiter, de développer et d’améliorer le service, conformément à notre politique en matière de confidentialité et de cookies ».

Remarquons que cette nouvelle modification n’a pas été datée puisque la page des Conditions d’utilisation de WeTransfer indique toujours « Last update: June 23, 2025 ». Le PDF de la version du 23 juin a été archivé le 2 juillet dernier. Le nouveau est aussi sur Internet Archive.

Article originel publié le 15 juillet à 10h20 :

WeTransfer, le service d’envoi de fichiers de taille importante, a modifié ses conditions d’utilisation pour pouvoir entrainer ses modèles d’IA, a repéré Rami Ismail. La modification a été effectuée le 23 juin 2025 et doit s’appliquer à partir du 8 aout.

Dans la section « Licence pour WeTransfer » l’entreprise affirme : « Vous nous accordez par la présente une licence perpétuelle, mondiale, non exclusive, libre de redevances, transférable et pouvant faire l’objet d’une sous-licence pour utiliser votre contenu à des fins d’exploitation, de développement, de commercialisation et d’amélioration du service ou de nouvelles technologies ou de nouveaux services, y compris pour améliorer les performances des modèles d’apprentissage automatique qui améliorent notre processus de modération du contenu, conformément à la politique en matière de confidentialité et de cookies ».

Elle affirme que « cette licence comprend le droit de reproduire, de distribuer, de modifier, de préparer des œuvres dérivées, de diffuser, de communiquer au public, d’afficher publiquement et de réaliser du contenu ». Et l’entreprise ajoute que l’utilisateur ne pourra pas demander de compensation pour l’utilisation de son contenu.

Comme l’explique Film Stories, WeTransfer est très utilisé par les créateurs qui peuvent avoir des rendus dont les fichiers sont assez gros. Le service permet d’envoyer ce genre de fichiers après les avoir téléchargés sur les serveurs de l’entreprise.

Des alternatives existent. Par exemple, Disroot ou Ethibox hébergent un service du même genre en utilisant le logiciel libre Lufi.

  •  

Protection des mineurs en ligne : la France va tester le dispositif européen

Permis de surfer
Protection des mineurs en ligne : la France va tester le dispositif européen

La Commission européenne a publié lundi ses lignes directrices relatives à la protection des mineurs en ligne, qui précisent les mesures attendues de la part des réseaux sociaux ou des sites pour adultes. Elle annonce dans le même temps la publication du prototype d’une application de contrôle de l’âge censée garantir l’anonymat des utilisateurs. Le dispositif sera testé dans cinq États membres, dont la France.

Bruxelles a publié lundi 14 juillet ses lignes directrices en matière de protection des mineurs en ligne. Elles précisent, dans le cadre du règlement européen sur le numérique (DSA) la façon dont les éditeurs de services en ligne et grandes plateformes doivent adapter leur fonctionnement pour contrôler l’âge minimum d’accès, et limiter les risques inhérents aux jeunes publics.

Limiter les fonctionnalités addictives et les risques de manipulation

« Les lignes directrices établissent une liste non exhaustive de mesures proportionnées et appropriées pour protéger les enfants contre les risques en ligne tels que le grooming, les contenus préjudiciables, les comportements problématiques et addictifs, ainsi que la cyberintimidation et les pratiques commerciales préjudiciables », expose la Commission européenne.

Elles s’incarnent au travers de sept grands principes, qui disposent notamment que le compte d’un mineur doit être paramétré en « privé » par défaut, pour limiter le risque de contacts non sollicités. Bruxelles demande également que les algorithmes de recommandation soient modifiés pour diminuer le risque d’exposition à des contenus dangereux, offrir plus de contrôle sur le flux, mais aussi éviter aux jeunes publics de se retrouver engrenés dans des spirales de contenus problématiques (phénomène dit du « terrier de lapin », rabbit hole).

La Commission souhaite par ailleurs que les mineurs soient en mesure de bloquer les utilisateurs de leurs choix et ne puissent pas être ajoutés à des groupes ou des boucles de conversation privées sans consentement préalable.

Elle se positionne en faveur d’une protection accrue face aux dérives potentielles, qu’il s’agisse d’addiction ou d’influence. Bruxelles demande ainsi que soient désactivées par défaut « les fonctionnalités qui contribuent à une utilisation excessive » comme les accusés de lecture, la lecture automatique des vidéos, le défilement infini ou les notifications.

Une attention particulière est également portée à l’intégration des fonctions d’IA générative. Les lignes directrices demandent ainsi aux plateformes de « veiller à ce que les mineurs ne soient pas exposés à des systèmes d’IA intégrés à la plateforme qui influencent ou incitent les enfants à des fins commerciales, notamment par le biais de formats conversationnels ou de conseil tels que les chatbots ».

Bruxelles demande enfin que les éditeurs veillent à ne pas exploiter le « manque de connaissances commerciales des enfants » en évitant de les exposer à des messages manipulatoires, visant par exemple à les inciter à acheter des monnaies virtuelles et autres loot-boxes dans les jeux en ligne.

Satisfecit de la France

Reste à voir quand et comment les plateformes et éditeurs concernés s’adapteront à ces lignes directrices. Rappelons qu’elle constituent désormais le cadre au regard duquel la Commission européenne analysera le respect des obligations imposées par l’article 28 du Digital Services Act sur la protection des mineurs.

En attendant, leur publication a suscité l’enthousiasme d’Emmanuel Macron et de Clara Chappaz, ministre déléguée au Numérique, qui tous deux multiplient les appels en faveur d’une réglementation plus contraignante depuis le printemps avec, notamment, une interdiction d’accès aux réseaux sociaux pour les moins de 15 ans.

« En mai dernier, avec le Président Emmanuel Macron nous nous étions donné 3 mois pour trouver une voie européenne : c’est chose faite ! Aujourd’hui, l’Europe adopte des lignes directrices ambitieuses dans le cadre du DSA, qui ouvrent la voie à l’interdiction des réseaux sociaux aux moins de 15 ans en droit national », s’est réjouie Clara Chappaz.

L’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) française se félicite dans le même temps que plusieurs de ses propositions aient été reprises par Bruxelles.

« La Commission européenne a ainsi retenu un niveau d’exigence équivalent à celui du référentiel de l’Arcom, assurant un haut niveau de protection de la vie privée et d’efficacité de la vérification de l’âge, via notamment le recours à un tiers indépendant. En outre, l’Arcom se réjouit que la Commission ait pris en compte, conformément à sa suggestion, la nécessité de protéger les mineurs contre les communications commerciales (y compris celles réalisées par les influenceurs) pour des contenus réservés aux adultes, tels que les jeux d’argent ou la pornographie. »

Un prototype européen d’application de contrôle d’accès

Le débat relatif au verrouillage de l’accès aux sites pornographiques l’a bien montré : difficile de garantir la protection sans un outil permettant le contrôle de l’âge. Sur ce terrain, Bruxelles accompagne ses lignes directrices d’un projet dédié : une solution technique censée permettre de vérifier qu’un internaute a bien l’âge requis, tout en garantissant son anonymat.

Comme le souligne l’Arcom, le procédé retenu par Bruxelles suppose l’intervention d’un tiers de confiance. En pratique : l’internaute télécharge une application dédiée à la vérification de l’âge, gérée par ce tiers. Il renseigne dans cette application sa pièce d’identité ou tout autre document approuvé certifiant sa date de naissance. Le tiers de confiance émet alors une « preuve » du respect d’un âge minimum, puis coupe tout lien entre cette preuve et les données personnelles soumises au départ. C’est ensuite cette preuve qui est soumise à l’entrée d’un service en ligne exigeant un âge minimum.

Le parcours utilisateur prévoit qu’une application tierce fasse office d’intermédiaire

« Le processus garantit la confidentialité de l’utilisateur et ne révèle aucune information à l’émetteur de la preuve d’âge », estime la Commission européenne. Le développement de la solution a été confié au printemps à un consortium baptisé T-Scy, qui réunit les éditeurs suédois Scytales AB et allemand T-Systems International GmbH autour d’un contrat de deux ans. Leurs travaux, organisés autour d’OpenID4VCI, doivent donner lieu à la publication d’un jeu d’outils open source censés permettre aux éditeurs de service en ligne d’implémenter la brique nécessaire « sans effort ». Ils doivent par ailleurs s’inscrire dans le cadre du cadre réglementaire eIDAS et s’aligner avec le futur portefeuille numérique européen.

Cinq États membres feront office de poissons pilotes dans le déploiement d’une version « nationale » de cette application : la France, le Danemark, la Grèce, l’Italie et l’Espagne.

Reddit prend les devants au Royaume-Uni

La coïncidence n’est sans doute pas fortuite : c’est également lundi 14 juillet que Reddit a annoncé, au Royaume-Uni, la mise en place d’un système de contrôle d’âge, basé cette fois sur le service Persona (également utilisé par LinkedIn pour sa fonction d’identité vérifiée). La plateforme explique avoir fait ce choix pour se mettre en conformité avec le UK Online Safety Act. Elle dit se limiter à un contrôle de la date de naissance, et ne garder en base que le statut de la vérification associée.

« Suite à l’évolution des lois, nous pourrions être amenés à collecter et/ou vérifier l’âge des utilisateurs hors du Royaume-Uni. Par conséquent, nous introduisons également, à l’échelle mondiale, une option vous permettant de fournir votre date de naissance afin d’optimiser votre expérience Reddit, par exemple pour garantir que le contenu et les publicités soient adaptés à votre âge. Cette option est facultative et vous ne serez pas tenu de la fournir, sauf si vous résidez dans un pays (comme le Royaume-Uni) où nous sommes tenus de la demander. De plus, votre date de naissance n’est jamais visible par les autres utilisateurs ni par les annonceurs. »

  •  

☕️ Windows 10 : Microsoft précise comment le support d’Office va se terminer

Windows 10 n’aura plus de support technique à compter du 14 octobre prochain. Les particuliers pourront repousser d’un an l’échéance de trois façons : payer 30 dollars, utiliser l’application Windows Backup ou dépenser 1 000 points Microsoft Rewards. Cette année supplémentaire ne couvrira que les correctifs de sécurité. Les entreprises, elles, peuvent payer jusqu’à trois ans supplémentaires pour ces mêmes correctifs, le tarif doublant chaque année.

Concernant Office sur Windows 10, Microsoft avait déjà précisé que le support courait jusqu’en octobre 2028. Cette date n’a pas changé, mais The Verge a repéré de nouvelles précisions dans un document du support. On sait par exemple désormais que ces trois ans concernent surtout les correctifs de sécurité et de bugs. Il y a cependant plusieurs informations importantes.

La situation dépend ainsi de qui utilise la suite. Pour les particuliers, qu’il s’agisse d’une licence perpétuelle (Office 2021 ou 2024) ou d’un abonnement 365, l’ajout de nouvelles fonctionnalités s’arrêtera en aout 2026. Dans les entreprises, selon les produits utilisés, cet arrêt interviendra entre octobre 2026 et janvier 2027. Dans tous les cas, au-delà de ces dates, les nouvelles fonctions seront réservées à Windows 11 et seuls des correctifs seront envoyés à Office sur Windows 10.

Autre précision importante, sur les correctifs justement. Bien qu’ils soient prévus aussi bien pour les problèmes de sécurité que les bugs plus généraux, ces derniers ne seront corrigés que s’ils concernent aussi Windows 11. En d’autres termes, si un bug d’Office n’existe que sous Windows 10, il ne sera pas corrigé.

  •  

☕️ X visé par une enquête du parquet de Paris pour ingérence étrangère

L’AFP a appris vendredi 11 juillet que le parquet de Paris a ouvert une enquête contre le réseau social d’Elon Musk, qu’il suspecte de « biaiser le débat démocratique en France ».

La procureure de Paris, Laure Beccuau, a confié cette enquête à la gendarmerie nationale. Elle vise aussi bien le réseau social que « les personnes physiques » qui la dirigent.

L’enquête a été déclenchée suite à deux signalements en janvier dernier, dont l’un provient du député Eric Bothorel et l’autre d’un directeur de cybersécurité dans la fonction publique, selon le Canard enchaîné.

Cette annonce a été faite alors que le bot de xAI a récemment publié sur le réseau social X plusieurs fois des messages antisémites, généré des avis positifs sur l’extrême droite française et fait l’éloge d’Hitler.

Le communiqué du parquet affirme que la procédure a été ouverte « sur le fondement de vérifications, de contributions de chercheurs français et d’éléments apportés par différentes institutions publiques ». L’enquête porte « notamment » sur l’ « altération du fonctionnement d’un système de traitement automatisé de données en bande organisée, ainsi qu’extraction frauduleuse de données d’un système de traitement automatisé de données en bande organisée », explique l’AFP.

  •  

Souveraineté : défaillances et contradictions de l’État sur la commande publique

Même une faute politique ? La question est posée
Souveraineté : défaillances et contradictions de l’État sur la commande publique

« Choose France », « buy european »… des termes qui ne trouvent pas suffisamment d’écho sur la commande publique, notamment dans le numérique. C’est la conclusion d’un rapport d’une commission d’enquête pour qui « l’État est pris en faute ».

Après des dizaines d’auditions et quatre mois de travaux, le rapport de la commission d’enquête sur la commande publique est disponible (les comptes rendus des auditions arriveront dans un second temps). Il est assorti de pas moins de 67 recommandations pour « mieux exploiter le potentiel de la commande publique au service de la souveraineté économique et numérique européenne ».

L’enjeu est de taille puisque la commande publique française représentait, selon le rapport, 170 milliards d’euros en 2023, soit deux fois plus qu’en 2014 (83 milliards d’euros). Le rapport tire à boulet rouge contre l’État qui n’a « pas su se hisser à la hauteur des enjeux ces dernières années », notamment pour ce qui est « d’assurer la protection des données publiques face aux géants du numérique ». Dans cet article, nous allons rester sur le volet numérique du rapport.

Inertie, défaillances, contradictions, faute… L’État en prend pour son grade


Il reste 85% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

#Flock : Y a-t-il une IA après la mort ?

Hardcore Henri Death
#Flock : Y a-t-il une IA après la mort ?

C’est une vraie question, selon vous, faut-il vous faire tatouer sur la poitrine « do not scan » ou espérer un au-delà à vous retrouver à errer comme un damné sur un serveur mystique de Second Life jusqu’à la fin des serveurs ? La question mérite bien 3 jours de libre pour y répondre.

  •  

IA : La Commission européenne a publié son peu contraignant code de bonne conduite

Il ne les engage en rien légalement
IA : La Commission européenne a publié son peu contraignant code de bonne conduite

Bruxelles a publié mercredi son code de bonne conduite « pour les intelligences artificielles à usage général (GPAI) ». Issu de la collaboration de 13 experts indépendants, il doit aider l’industrie à se conformer aux obligations de l’AI act.

C’est en trois parties que la Commission a publié son code de bonne conduite « pour les intelligences artificielles à usage général (GPAI) » ce mercredi 8 juillet : un chapitre sur la transparence [PDF], un autre sur le Copyright [PDF] et un dernier sur la sûreté et la sécurité [PDF].

Les intelligences artificielles « à usage général » sont aussi appelés « modèles multimodaux » et sont capables de générer du texte, des images, des vidéos, du code, etc.

Signature volontaire qui n’engage à pas grand chose

Ils ont été rédigés sous la houlette de 13 experts, dont notamment les chercheuses Nuria Oliver (ex Vodafone, Microsoft, Telefónica) et Céline Castets-Renard de l’Université d’Otawa, et les chercheurs Alexander Peukert de l’Université de Francfort et Rishi Bommasani de Stanford.

La signature de ce texte reste à la volonté de chaque entreprise et iEngagement sans trop de frais. La Commission s’en servira par contre comme point de repère et met en avant que cela permettra aux entreprises d’éviter des charges administratives, et d’être plus sûres de ne pas se retrouver dans l’illégalité. Mistral AI a joué le rôle de bon élève européen en annonçant le premier sa signature, affirmant à notre consœur Océane Herrero de Politico que les exigences du code sont « gérables ».

Un formulaire et des engagements peu exigeants sur le respect du copyright et l’encadrement des risques

Le chapitre sur la transparence contient notamment un formulaire standardisé avec toutes les caractéristiques du modèle comme sa licence, une description du processus d’entrainement, des informations sur les données utilisées, la consommation d’énergie, etc.

Le deuxième chapitre, sur le copyright, prévoit que les entreprises s’engagent au respect des lois européennes sur le sujet ainsi que de décrire leur politique pour que cela soit le cas. Elles sont « encouragées » à rendre publique cette politique, mais le document n’engage même pas les signataires à le faire. En signant, les entreprises s’engagent à respecter les bonnes pratiques des robots crawlers (notamment les fichiers robots.txt) et à « atténuer le risque de sorties violant le copyright ».

Enfin, le dernier chapitre se concentre sur les modèles à risque systémique. Les entreprises signataires s’engagent à encadrer leur cycle de vie du développement à la mise en place sur le marché avec les outils de sécurité qui sont maintenant disponibles pour renforcer leur sûreté et leur sécurité.

Mais comme l’ont remarqué nos confrères des Echos, plusieurs choses ont été édulcorées par rapport à la version de travail de mars dernier. Ainsi, des champs sur les performances et limites des modèles ont disparu du premier chapitre. L’exigence de transparence sur les contenus copyrightés utilisés pour l’entrainement n’est plus dans le deuxième. Et pour les modèles à risque systémique, alors que dans la version de travail, le texte engageait les entreprises d’IA à ne pas les utiliser dans des domaines sensibles comme la défense ou les biotechnologies, la version définitive a gommé cette partie.

Le texte accompagne la deuxième phase de l’AI Act qui doit entrer en vigueur le 2 aout prochain, date à laquelle les intelligences artificielles à usage général entrent dans son champ d’application.

  •  

Éditeur de sites générés par IA, il spamme tellement Google que ses confrères se plaignent

Ce n’est pas personnel, c’est uniquement les affaires.
Éditeur de sites générés par IA, il spamme tellement Google que ses confrères se plaignent

À lui seul, le plus prolifique des éditeurs de sites francophones générés par IA a réussi à faire promouvoir plusieurs milliers d’articles, dont de très nombreuses fake news, par l’algorithme de recommandation de contenus Discover de Google. Au point que d’autres pros du SEO (pourtant eux-mêmes éditeurs de sites GenAI), en arrivent à se plaindre publiquement de cette surenchère et pollution.

Notre enquête sur les sites d’information générés par IA (GenAI) vient de prendre une tournure croquignolette. Au moment de son lancement, en février, nous avions dénombré un peu plus de 1 000 sites GenAI, et certains de leurs éditeurs nous accusaient alors de vouloir « bousiller le[ur] business » :

« Les gens veulent manger de la merde ? Donnez-en leur à la pelle plutôt que d’essayer de buzzer en cherchant à bousiller le business de milliers de sites. »

À gauche, un tweet datant de février ; à droite, un tweet posté début juillet

En ce mois de juillet, notre base de données en répertorie désormais plus de 5 000, rien qu’en français. Les mêmes accusent désormais l’un d’entre eux de « défonce[r] le business » à force de spammer Google avec des centaines de « conneries de fakenews massive (320 articles hier sur un seul site) pour s’en foutre plein les poches ».

En mars dernier, Next révélait, dans le cadre de notre enquête sur les sites d’information générés par IA (GenAI), que des infox « hallucinées » par ces derniers avaient déjà entraîné de nombreux médias de la presse quotidienne régionale à leur consacrer des fact-checks, après que ces rumeurs ont fait le buzz sur les réseaux sociaux.

Début mai, le service de fact-checking CheckNews de Libération publiait de son côté une enquête intitulée « Fausses annonces de fermetures de magasins : enquête sur ces sites générés par IA qui inondent Google de fake news », reposant en partie sur notre base de données de sites GenAI.

À l’époque, CheckNews avait identifié plusieurs sites, dont franchementbien.fr, LaPlasturgie.fr, atelier-de-france.fr ou encore mididelices.fr, ayant annoncé, à tort, la fermeture de boutiques Decathlon, NOZ, La Halle ou Darty.

Depuis, Le Parisien, La Voix du Nord, L’Indépendant, France 3, Ouest France ont, eux aussi, publié plusieurs autres fact-checks à ce sujet, après que des articles générés par IA ont, eux aussi, annoncé, à tort, la fermeture de magasins Promod ou Auchan, notamment.

À l’instar de ce qui s’était passé avec l’infox, « hallucinée » par des sites générés par IA, concernant les contrôles techniques annuels, des sites GenAI ont, eux aussi, publié des « fact-checks » à ce sujet, paraphrasant les articles suscités.

C’est d’ailleurs précisément pour aider les internautes à ne pas se faire avoir par des sites GenAI que nous avons développé notre extension (gratuite) pour Firefox et Chrome, comme le montrent ces captures d’écran.

Évoquant un préjudice en termes d’image de marque, mais également vis-à-vis de leurs propres employés et clients, plusieurs responsables des magasins en question hésitaient à porter plainte, faute d’avoir identifié le ou les responsables de ces articles mensongers, publiés sur des sites aux mentions légales mensongères ou inexistantes.

Un « maître de la désinformation via une diffusion industrielle de fake news »

D’après CheckNews, cette salve d’articles GenAI mensongers aurait été initiée par une figure bien connue des professionnels du référencement (SEO, pour Search Engine Optimization), Julien Jimenez, qualifié par l’un de ses concurrents de « maître de la désinformation via une diffusion industrielle de fake news sur ses propres réseaux de sites ».


Il reste 72% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ Sous le coup d’une procédure de retrait, l’Ulefone Note 16 Pro est mis à jour

En février, l’Agence nationale des fréquences demandait aux entreprises Tesskoni Tech et Bogdan Constantin Ecobici « de procéder au retrait du marché français et au rappel des téléphones Ulefone Note 16 Pro et Oukitel WP28 ». En cause, une exposition aux ondes trop importante avec un dépassement du DAS membre.

Au lieu des 4 W/kg au maximum, l‘Ulefone était à 4,78 W/kg et le Oukitel à 4,06 W/kg. Les deux sociétés ont été mises en demeure de corriger le tir. Faute de mesures correctives, l’ANFR a adopté des décisions administratives pour procéder au retrait et au rappel des téléphones en France.

Ces décisions ont fait bouger les choses dans l’un des deux cas : « À la suite de cette décision et du communiqué de presse […], la société TESSKONI TECH a développé et déployé une mise à jour logicielle visant à réduire la puissance de ses terminaux neufs et déjà commercialisés ».

L’ANFR a vérifié que la mise à jour corrige le tir. C’est le cas avec un DAS de 3,01 W/kg. Suite à quoi, « les mesures d’interdiction de commercialisation et de rappel du téléphone Ulefone Note 16 Pro sont levées ». Rien ne bouge concernant Oukitel.

Il y a quelques semaines, un autre smartphone faisait l’objet d’une procédure de retrait : le DOOGEE X98. C’était le quatrième modèle concerné de cette marque, après les DOOGEE N50, S100 PRO et S88 PLUS.

  •  

La CNIL redit son opposition aux caméras « – de 18 ans » dans les bureaux de tabac

Souriez, vous êtes fumés
La CNIL redit son opposition aux caméras « – de 18 ans » dans les bureaux de tabac

Testées depuis six mois sur le terrain, les caméras de vidéosurveillance chargée d’estimer automatiquement l’âge des clients dans les bureaux de tabac pour limiter la vente de cigarettes ou de jeux d’argent aux moins de 18 ans, n’apparaissent ni nécessaires, ni proportionnées aux enjeux, estiment la CNIL.

Si la lumière est verte, à vous les paquets de clopes et les tickets de Banco. Mais si elle s’éclaire en rouge, il vous faudra montrer patte blanche, c’est-à-dire attester que vous avez bien 18 ans, en présentant une pièce d’identité au buraliste, avant d’assouvir vos addictions.

Depuis la fin 2024, plusieurs bureaux de tabac d’Île-de-France testent en conditions réelles ce scénario à l’aide de caméras dites « augmentées », capables de mettre en œuvre un algorithme pour estimer automatiquement si la personne qui se présente au comptoir est majeure (lumière verte) ou mineure (lumière rouge).

Conforme ou pas conforme ?

Objectif avancé : faciliter le respect des obligations du buraliste en fluidifiant le processus de vérification de l’âge. Lors de l’annonce de ce projet pilote, en décembre dernier, la Fédération des Buralistes Paris-IDF revendiquait une approche conforme au RGPD. « Non connecté à Internet, l’appareil ne stocke aucune donnée personnelle, garantissant la sécurité et la confidentialité des clients », écrivait-elle dans un communiqué (PDF).

Ces garanties sont-elles suffisantes ? La CNIL a annoncé en mars dernier se saisir du sujet, estimant que le fait de filmer systématiquement les visiteurs d’un commerce, pour ensuite procéder à un traitement automatisé d’images, n’était pas anodin.

Une position qu’elle confirme et précise ce 11 juillet, dans une note d’information qui conclut que l’utilisation de ces caméras augmentées à des fins de contrôle d’âge n’est « ni nécessaire, ni proportionnée », au regard des risques qu’elle soulève en matière de respect de la vie privée.

L’autorité y souligne en premier lieu l’efficacité relative de ces caméras, et fait remarquer que ces dernières ne fournissent qu’une simple estimation, un avis en fonction duquel les buralistes sont de toute façon censés procéder à une vérification formelle :

« En conséquence, l’analyse préalable du visage des personnes par une caméra pour estimer leur âge n’apparaît pas nécessaire : elle ne ferait que s’ajouter au contrôle requis par la loi. Et, au contraire, l’utilisation de ce dispositif pourrait inciter les buralistes à s’en remettre uniquement au résultat rendu par la machine, sans plus de vérification. »

Pour la CNIL, le système automatisé pourrait donc même se révéler contre-productif, ce qui soulève un nouveau risque, pour le buraliste cette fois : la vente de tabac ou de jeux d’argent aux personnes mineures est en effet passible d’une amende pouvant aller jusqu’à 750 euros, et il incombe au commerçant de procéder aux vérifications nécessaires.

Le sujet toujours complexe des caméras augmentées

La CNIL relève par ailleurs que le fonctionnement de ces caméras « implique une activation par défaut et en continu qui apparaît disproportionnée au regard de l’objectif visé ». À la fois parce que tout le monde est filmé par défaut, et parce qu’il n’est pas possible aux clients filmés d’exercer leur droit d’opposition, prévu par le RGPD, « malgré certaines garanties comme un traitement local des données et une suppression rapide des images ».

L’autorité en conclut que le déploiement de telles caméras « contribue à un risque de banalisation et d’habituation à une forme de surveillance renforcée par la multiplication de tels outils ».

Son avis n’aura rien d’une surprise pour qui suit le sujet de ces fameuses caméras « augmentées », qui ne sont donc pas censées enregistrer ou authentifier une personne, mais simplement catégoriser des populations ou détecter un phénomène particulier.

La CNIL s’intéresse en effet formellement au phénomène depuis quatre ans, avec un premier avis rendu à l’été 2022 qui concluait déjà à des risques disproportionnés au regard des objectifs poursuivis.

À l’époque, l’autorité se positionnait en faveur d’une approche au cas par cas des différents scénarios d’usage, comme ici pour les bureaux de tabacs, ou récemment autour des caméras associées aux caisses automatiques.

Dans les deux cas, elle appelle les secteurs concernés à envisager des alternatives, et conclut que « Pour remplir leurs obligations de contrôle de l’âge, les buralistes doivent donc recourir à d’autres solutions » :

« – Certaines applications mobiles qui prouvent la majorité avec exactitude en affichant un minimum d’informations – c’est par exemple la vocation du « mini-wallet », une application de contrôle de l’âge développée par la Commission européenne et dont un prototype est attendu dès l’été 2025.  

– La vérification d’un titre d’identité ou de tout document officiel contenant la date de naissance de la personne.
 »

  •  

☕️ Fuite de données chez Louis Vuitton : la France est aussi concernée

Il y a une semaine, la marque de luxe publiait un communiqué sur son site coréen, signalé par Reuters, concernant vos « informations personnelles ». Ce n’est jamais bon signe… « Nous avons le regret de vous informer qu’un tiers non autorisé a temporairement accédé à nos systèmes et a divulgué certaines informations client ».

Nos confrères rappelaient que d’autres marques du groupe LVMH – Christian Dior et Tiffany – font « l’objet d’enquêtes gouvernementales depuis mai pour des fuites de données de clients » signalées plus tôt dans l’année.

Comme nous le signale un lecteur (merci à lui), Louis Vuitton communique désormais auprès de ses clients français. Il est là encore question de « vos données personnelles ».

Selon l’enquête interne de la société, les données suivantes ont pu fuiter : prénom, nom, sexe, pays, numéro de téléphone, adresse électronique, adresse postale, date de naissance, « données d’achats et de préférences ».

L’entreprise se veut rassurante : « aucun mot de passe ni aucune information financière telles que des données de carte de paiement, des coordonnées bancaires » n’était présent dans la base de données. Les protections ont été renforcées et « l’incident est désormais maîtrisé ».

La CNIL a été notifiée, comme la loi l’exige. Louis Vuitton ne donne pas de détail sur l’attaque, simplement qu’il s’agit « d’un accès non autorisé ». L’entreprise affirme n’avoir, à ce jour, « aucune preuve » sur une utilisation frauduleuse des données. La prudence reste de mise, comme toujours, face au risque de phishing.

  •  

La guerre des IPv4 en Afrique menace la gestion mondiale d’Internet

Les brokers vont-ils casser l'Internet ?
La guerre des IPv4 en Afrique menace la gestion mondiale d’Internet

Le registre régional d’adresses IP desservant l’Afrique, AfriNIC, vient de voir les élections de son conseil annulées fin juin et reportées en septembre. Des doutes sur la probité de certaines procurations, l’influence de brokers d’IP et une guérilla juridique sont pointés du doigt. Jusque-là discrète sur le sujet, l’ICANN a haussé le ton. Le risque d’une remise en question de la régulation d’internet est en jeu.

Fin juin, l’AfriNIC a annoncé l’annulation du processus d’élection de son bureau alors que l’organisation était ces dernières années affaiblie par une guerre judiciaire menée par des brokers d’IP jusqu’à paralyser l’organisation. Selon certains acteurs comme Pierre Bonis, directeur général de l’Afnic qui gère les noms de domaine en France, cette situation pourrait fragiliser la gouvernance de la régulation globale d’Internet actuelle.

L’annulation fait suite à la pression émise par l’ICANN, l’autorité internationale de régulation d’Internet, dans une lettre envoyée le 25 juin [PDF] menaçant de ne plus reconnaître officiellement l’AfriNIC. L’association africaine a annoncé de nouvelles élections avec comme date limite le 30 septembre prochain.

Rappelons que cette association est le Registre Internet régional (RIR) desservant l’Afrique. Il est chargé d’allouer les blocs d’adresses IP (que ça soit IPv4 ou IPv6) et les numéros de systèmes autonomes (un AS est un des très grands réseaux qui composent le réseau de réseaux qu’est Internet). En Europe, c’est le RIPE NCC, aux États-Unis, l’ARIN, etc.

Gérant aussi la zone de l’océan Indien, les adresses IP de la Réunion, de Mayotte, de l’île Maurice, de Madagascar ou encore des Seychelles sont aussi allouées par cette association. L’AfriNIC est le plus jeune des RIR. L’allocation d’adresses IP en Afrique ayant commencé plus lentement, l’AfriNIC est le seul RIR à pouvoir allouer encore beaucoup d’adresses IPv4. En Europe, le RIPE NCC est en pénurie d’IPv4 depuis… 2019.

Déstabilisée par des brokers, des IP utilisées jusqu’en Asie

Mais, il y a six ans, cette organisation a été ébranlée. « En 2019, l’AfriNIC a commencé à réaliser qu’ils avaient beaucoup d’IP dans la nature », explique à Next Guillaume Desgranges, doctorant en science politique à l’Université Paris Nanterre. Il travaille sur les politiques de développement des télécoms au Maghreb. « Ils se sont rendu compte qu’une personne qui avait accès à la base a détourné des adresses IPv4 », ajoute-t-il. En décembre 2019, le média Sud-africain Mybroadband expliquait que « la base de données publique d’AfriNIC sur les attributions de blocs d’adresses IP [avait] été manipulée par un ou plusieurs acteurs malveillants ».

Les responsables de l’«AfriNIC « ont pu faire face », ajoute Guillaume Desgranges, « mais c’est un peu au même moment qu’ils se sont rendu compte qu’ils avaient beaucoup d’IP attribués qui ne sont pas du tout utilisées en Afrique. Elles sont aux mains de brokers qui font du fric avec, au Pakistan notamment ».

En 2021, l’AfriNIC a décidé de passer à l’action contre des brokers d’IP. Elle a envoyé à plusieurs entreprises une lettre leur annonçant qu’elle allait leur confisquer les adresses IP qu’elle leur avait allouées, considérant qu’elles n’avaient pas respecté leurs engagements.


Il reste 76% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ Le Royaume-Uni va investir 163,3 millions d’euros dans Eutelsat

Il y a quelques semaines, Eutelsat annonçait une levée de fonds de 1,35 milliard d‘euros, dont 717 millions auprès de l’État Français. La société revient aujourd’hui sur le sujet car « le Royaume-Uni s’apprête à participer au projet d’augmentation de capital », à hauteur de 163,3 millions d’euros.

« Cette participation supplémentaire de la part d’un autre actionnaire de référence portera à 1,5 milliard d’euros le montant total de l’augmentation de capital envisagée ». Au terme de cette opération, l’État français détiendrait une participation de 29,65 % du capital et des droits de vote. Bharti Space Limited serait à 17,88 %, le Royaume-Uni à 10,89 % et CMA CGM à 7,46 %.

Les détails de la levée de fonds, en deux parties, se trouvent dans le tableau ci-dessous :

Eutelsat et le Royaume-Uni ne sont pas des inconnus, loin de là. Le pays détient d’ailleurs déjà 10,89 % du capital. Pour rappel, Eutelsat a fusionné avec OneWeb en 2023. En 2020, le géant indien Bharti Global Ltd. et le Royaume-Uni rachetaient OneWeb pour un milliard de dollars (500 millions chacun).

Jean-François Fallacher, nouveau directeur général d’Eutelsat, se félicite d’ailleurs de la participation du Royaume-Uni : « Nous sommes heureux de bénéficier de l’appui du gouvernement de sa Majesté, qui fut l’un des piliers de OneWeb avant de devenir un actionnaire de référence d’Eutelsat dès l’amorce de notre parcours dans l’univers de l’orbite terrestre basse ».

Cette annonce a fait grimper l’action en bourse d’Eutelsat de plus de 5 %. Emmanuel Macron a de son côté salué cet investissement : « Merci à nos amis britanniques de s’engager pleinement avec nous dans la suite de l’aventure Eutelsat ».

Eutelsat développe pour rappel une constellation de satellites en orbite basse afin de concurrencer Starlink de SpaceX et Kuiper d’Amazon (qui ne devrait plus tarder à arriver en France). La France, l’Europe et le Royaume-Uni pourraient ainsi se regrouper autour d’une solution « souveraine » pour concurrencer les acteurs américains.

Au début de l’année, Eutelsat affirmait être « le premier opérateur de satellites à faire la démonstration de l’interface aérienne du réseau 5G opérant sur une flotte commerciale ».

  •  

☕️ Les données de 126 000 à 530 000 patients d’un hôpital privé de Saint-Étienne dérobées

L’Hôpital privé de la Loire (HPL), qui se trouve à Saint-Étienne, a été victime d’une cyberattaque, révélait ce jeudi 10 juillet, le journal Le Progrès.

Géré par le groupe Ramsay, le HPL avait publié un communiqué de presse mardi 8 juillet affirmant qu’il avait été victime quelques jours plus tôt d’un « vol d’identité » concernant « une quantité importante de données personnelles de ses patients ». Mais l’établissement se voulait rassurant, affirmant que les données étaient « essentiellement de nature administrative ».

Vitrée brisée

Mardi soir, une personne se présentant comme responsable du piratage a contacté nos confrères du Progrès pour s’en indigner. Elle affirme posséder des données concernant plus de 530 000 patients dont leurs cartes d’identité. Elle ajoute que « l’argent est la motivation » sans préciser le montant exigé.

Cette réaction a obligé l’hôpital à revoir sa communication. À l’AFP, il expliquait jeudi 10 juillet, avoir envoyé un email « à plus de 126 000 patients concernés par le piratage informatique de l’Hôpital privé de la Loire (HPL), et les 40 d’entre eux qui sont concernés par le vol de données médicales seront contactés individuellement ». Et il affirme que son fonctionnement n’a cependant pas été affecté.

Le parquet de Paris a, de son côté, expliqué à l’agence de presse que sa section cybercriminalité avait été saisie et avoir confié l’enquête à l’Office anticybercriminalité (OFAC).

Interrogé par l’AFP sur la demande de rançon, le groupe Ramsay n’a pas voulu s’exprimer sur le sujet.

  •