Vue normale

Aujourd’hui — 9 avril 2025Next - Articles gratuits

Le Royaume-Uni développe un programme de prédiction des meurtres

9 avril 2025 à 09:58
Minority Report
Le Royaume-Uni développe un programme de prédiction des meurtres

Le ministère de la Justice britannique développe, sans en avoir parlé, un projet de prédiction des meurtres utilisant des données personnelles. L’information a été révélée via des demandes de documents en vertu de la liberté d’information. Le programme serait pour l’instant un projet de recherche.

S’appuyant sur plusieurs documents officiels, l’association StateWatch a révélé le 31 mars dernier un « Projet de prédiction des homicides ». Mis en place par le gouvernement britannique, il utilise les données de certaines polices du pays et du ministère de la Justice pour « prédire » quelle personne a « des risques » de commettre un meurtre.

StateWatch a pu connaître et confirmer l’existence de ce projet en faisant plusieurs requêtes au nom du Freedom of Information Act, la loi britannique qui permet d’accéder à des informations et des documents détenus par l’administration.

« Explorer le pouvoir prédictif des ensembles de données »

Dans l’un de ces documents, au format Excel (xlsx), ce programme est décrit comme « un projet pilote de sciences des données visant à :

  • examiner les caractéristiques des délinquants qui augmentent le risque de commettre un homicide
  • explorer des techniques alternatives et innovantes de science des données pour la prédiction du risque d’homicide,
  • explorer le pouvoir prédictif des ensembles de données Oasys, Delius et Nomis (ensembles de données du ministère de la Justice disponibles sur la plateforme analytique) en ce qui concerne le risque d’homicide,
  • explorer le pouvoir prédictif supplémentaire de l’ensemble de données national PNC (ensemble de données du ministère de la Justice hébergé sur un terminal AirGap sécurisé et séparé du système analytique) en ce qui concerne le risque d’homicide,
  • explorer le pouvoir prédictif supplémentaire des données de la police locale (Greater Manchester) par rapport au risque d’homicide,
  • fournir des preuves pour améliorer la prédiction des crimes graves et, en fin de compte, contribuer à la protection du public grâce à une meilleure analyse ».

Selon le Guardian, le projet a changé de nom en cours de route et est passé de « projet de prédiction des homicides » à « partage des données pour améliorer l’évaluation des risques ».

Des données qui concernent de 100 000 à 500 000 personnes

StateWatch explique que l’accord de partage des données entre le ministère de la Justice britannique et la police locale de Greater Manchester « indique que des données concernant entre 100 000 et 500 000 personnes ont été partagées par les forces de police pour développer l’outil ».

L’association ajoute que les données de cette police locale utilisées « comprennent des informations sur des centaines de milliers de suspects, de victimes, de témoins, de personnes disparues et de personnes pour lesquelles il existe des préoccupations en matière de protection ». Celles-ci incluraient des « marqueurs de santé […] censés avoir un pouvoir prédictif important » et notamment « des données sur la santé mentale,la toxicomanie, l’automutilation, le suicide, la vulnérabilité et le handicap », selon StateWatch.

Interrogées par le Guardian, les autorités responsables nient fermement et insistent sur le fait que seules les données de personnes ayant fait l’objet d’au moins une condamnation pénale ont été utilisées.

Confirmation de l’existence du projet par les autorités

Les autorités confirment donc l’existence du projet, en insistant sur la dimension de recherche. Néanmoins, selon le ministère de la Justice britannique cité par le Guardian, le projet doit bien « examiner les caractéristiques des délinquants qui augmentent le risque de commettre un homicide » et « explorer des techniques alternatives et innovantes de science des données pour l’évaluation du risque d’homicide ». Il ajoute qu’il doit « fournir des éléments permettant d’améliorer l’évaluation des risques de criminalité grave et contribuer en fin de compte à la protection du public grâce à une meilleure analyse ».

« La tentative du ministère de la Justice de mettre en place ce système de prédiction des meurtres est le dernier exemple effrayant et dystopique de l’intention du gouvernement de mettre au point des systèmes de « prédiction » de la criminalité », juge pour sa part Sofia Lyall, chercheuse au sein de StateWatch. Elle ajoute que « ce dernier modèle, qui utilise les données de notre police et de notre ministère de l’Intérieur institutionnellement racistes, renforcera et amplifiera la discrimination structurelle qui sous-tend le système juridique pénal. Comme d’autres systèmes de ce type, il codera les préjugés à l’égard des communautés racialisées et à faibles revenus ». L’association demande au ministère britannique d’arrêter immédiatement tout développement de cet outil.

Pédopornographie : les plateformes poussent-elles au crime ?

9 avril 2025 à 08:30
Culture du V*0l
Pédopornographie : les plateformes poussent-elles au crime ?

La multiplication d’affaires de pédopornographie et le rajeunissement de ceux qui en possèdent et en diffusent oblige à s’interroger sur le rôle des usages numériques dans l’explosion de ce type de contenus criminels.

« Je n’ai aucune excuse (…). Mais je n’ai pas commencé par vouloir voir des enfants. J’étais accro au porno et je me suis totalement désensibilisé. » Tels sont les propos de l’un des 850 hommes arrêtés chaque mois en Angleterre et aux Pays de Galles pour avoir consommé ou échangé des contenus pédopornographiques en ligne.

Ils sont enseignants, policiers, chauffeurs de bus, médecins. Ils sont de plus en plus jeunes, aussi.

The Guardian en a interrogé plusieurs, pour tenter de répondre à une question complexe : les logiques de recommandations des plateformes sur lesquelles nous consommons toutes et tous des contenus de tous types se contentent-elles d’alimenter tout une génération de pédophiles, ou la créent-elles ?

Pente glissante

La plupart des pédocriminels interrogés par le média britannique décrivent un usage incontrôlé de la pornographie, consommée pour gérer du stress, tromper l’ennui ou la solitude, quelquefois jusqu’à l’addiction.

Condamné pour possession des trois catégories d’images catégorisées comme pédocriminelles dans le droit britannique, dont la plus grave, l’un d’eux indique : « La police n’a jamais trouvé une seule recherche d’images d’enfants : tout s’est fait en cliquant sur des liens – ce que les algorithmes me proposaient. Les sites pornographiques ont un bouton qui dit “Voir d’autres images de ce genre”. J’étais désensibilisé, j’avais regardé tellement de porno pour adolescents. »

Le phénomène est multiforme et international : Europol opérait en mars un coup de filet dans 19 pays, démantelant un réseau dédié à la génération de pédopornographie par IA, le mois précédant, elle alertait sur l’essor de communautés dédiées à la torture de mineurs, en décembre, la gendarmerie française arrêtait 95 membres d’un réseau pédocriminel opérant via Signal…

Pour comprendre les motivations des auteurs, le groupe finnois Protect Children a lancé une étude de deux ans impliquant de poster des questionnaires sur le dark web pour toucher des internautes consommateurs de contenus illégaux dans différents pays. Sur les plus de 4 500 personnes interrogées, un tiers se déclarent clairement intéressées par la pédopornographie. Les deux tiers déclarent un intérêt pour les mineurs, principalement les 15 à 17 ans.

Quant au rôle des plateformes, et au lien qui pourrait unir pornographie classique et pédopornographie, il est lui-même controversé. Mais plus de 50 % des répondants au questionnaire de Protect Children déclarent ne pas avoir cherché d’images pédopornographiques lorsqu’ils y ont été confrontés pour la première fois.

Si de nombreux hommes adultes arrêtés pour de tels actes posent un réel danger aux mineurs, le psychologue Michael Sheath explique au Guardian avoir vu, en 14 ans de carrière, une évolution dans les profils arrêtés. Parmi ces derniers, il rencontre désormais régulièrement « des hommes qui ont suivi ce que j’appelle une « pente glissante » ». Une explication similaire à celle du « trou du lapin » (rabbit hole), décrite pour expliquer la radicalisation d’internautes vers des idées complotistes ou haineuses.

Suspension de tabous protecteurs

Pour Michael Sheath, le lien entre pornographie classique et pédopornographie est « sans ambiguïté ». Il l’illustre notamment par l’évolution des tabous sociaux qui, pendant longtemps, protégeaient les mineurs. « Autrefois, explique-t-il au média britannique, il était difficile de trouver du matériel pédopornographique et il était extrêmement risqué d’en regarder. L’état d’esprit d’une personne qui cherchait du matériel pornographique était “je suis un vrai criminel sexuel” — elle savait qu’elle sortait des normes de la société. »

Aujourd’hui, la plupart des sites pornographique grand public proposent des titres évoquant clairement de la pédopornographie et des relations incestueuses, du type « Les garçons dépucelés par leur tante » ou « beau-père et belle-fille ».

Selon une étude menée en 2021 par l’université de Durham, un titre sur huit en page d’accueil des principales plateformes pornographiques montre des formes de violences sexuelles contre les filles et les femmes. L’équipe de chercheurs constatait par ailleurs que les vidéos étiquetées « teens » (adolescents/adolescentes) montraient plus fréquemment de la violence.

La plupart des plateformes grand public, comme Pornhub, ont des règles de modération interdisant la représentation d’activités sexuelles non consensuelles, agressions sexuelles et viols compris. PornHub a d’ailleurs conclu un partenariat avec l’Internet Watch Foundation et la Fondation Lucy Faithfull, qui a conduit à l’ajout de pop-up pour signaler à l’internaute britannique qu’il semble en train de chercher des contenus pédopornographiques.

Mais comme sur n’importe quelle plateforme sociale, cette modération est imparfaite. Et les contenus s’échangent aussi ailleurs, dans des boucles de discussion ou des forums fermés.

Enjeu de santé publique

L’enjeu, alertent les spécialistes, est aussi celui d’une forme d’addiction. Dès 2013, des études montraient que la dopamine reçue au visionnage régulier de pornographie modifie peu à peu les goûts des personnes concernés. Le mois dernier, une autre publication constatait qu’au fil du temps, un consommateur de pornographie sur cinq glissait vers des contenus plus extrêmes.

Et la tendance n’est pas prête de s’améliorer : en 2023, devant la jeunesse accrue des personnes recourant à ses services, la Lucy Faithfull Foundation, qui lutte contre les violences pédopornographiques, s’est trouvée obligée d’ouvrir un service d’accueil des adolescents. De même, du côté de la police de Worcester, l’enquêteur Tony Garner déclare recevoir de plus en plus d’adolescents, quelquefois âgés d’à peine 18 ans, mais déjà « exposés pendant 10 ans à du porno hardcore ».

☕️ Médias, matières premières… : l’Europe renforce son filtrage des investissements étranger

9 avril 2025 à 08:03

Dans un communiqué publié hier, la commission du commerce international du Parlement européen annonce que, « en vertu des nouvelles règles, un plus grand nombre de secteurs, comme ceux des médias, des matières premières critiques et des infrastructures de transport feront l’objet d’un filtrage obligatoire par les États membres, afin de détecter et de traiter les risques en matière de sécurité ou d’ordre public liés aux investissements étrangers ». Une annonce faite dans un contexte géopolitique tendu avec les États-Unis, qui se sont lancés dans une guerre commerciale avec le reste du monde, Europe comprise.

Le Parlement ajoute que la Commission européenne aura ainsi « le pouvoir d’intervenir de sa propre initiative ou en cas de désaccord entre les États membres ». Et si l’investissement étranger est susceptible « de porter atteinte à la sécurité ou à l’ordre public, elle pourra soit autoriser le projet sous réserve de mesures d’atténuation, soit l’interdire ». En clair, elle pourra avoir le dernier mot. Il s’agit donc de fortement renforcer le cadre actuel sur le filtrage des investissements étranger, qui date d’octobre 2020.

La proposition a été adoptée avec 31 voix pour, 7 voix contre et 3 abstentions en commission du commerce international. Maintenant, le Parlement dans son ensemble devra la voter lors d’une session plénière, « après quoi les négociations avec les États membres sur la forme finale du texte pourront commencer ».

IA Act

☕️ Patch Tuesday : un avril copieux, avec 134 failles corrigées, dont une déjà exploitée

9 avril 2025 à 07:14

Comme chaque deuxième mardi de chaque mois, Microsoft a publié hier soir ses correctifs de sécurité pour Windows et plusieurs autres produits. Le lot d’avril 2025 est particulièrement riche en corrections, avec un total de 134 vulnérabilités colmatées, dont 11 sont critiques et une est même déjà activement exploitée. C’est la deuxième fois depuis le début de l’année que Microsoft dépasse les 100 failles corrigées en un seul mois.

Cette dernière est estampillée CVE-2025-29824 et permet, quand elle est exploitée, d’entrainer une élévation de privilèges dans le pilote Windows Common Log File System (CLFS). L’exploitation doit se faire localement, donc avec un accès physique au système, ou à la suite de l’exploitation d’une autre faille donnant un premier accès. La faille CVE-2025-29824 permet alors d’obtenir des droits SYSTEM. La gravité de la faille est considérée comme importante, et non critique. Quand bien même, elle est au cœur d’un ransomware actuellement utilisé, nommé PipeMagic et créé par le groupe de pirates Storm-2460.

Vitrée brisée

La société Tenable note que Microsoft a corrigé 32 failles dans CLFS depuis 2022. Elle observe également un changement de fond dans le type de failles corrigées chaque mois, avec une prévalence désormais des vulnérabilités débouchant sur des élévations de privilèges. Ce mois-ci, elles comptent en effet pour 40 % de l’ensemble, là où les exploitations à distance (RCE) étaient auparavant majoritaires, du moins dans Windows.

Au sujet des failles critiques, cinq concernent Office et sont justement de type RCE. Deux résident dans le service de passerelle de bureau à distance, une dans l’hyperviseur Hyper-V, deux dans Windows LDAP et une dernière dans la pile TCP/IP du système.

Le nombre élevé de failles colmatées et la présence d’une brèche activement exploitée encouragent à l’installation rapide de la mise à jour associée. Notez que les correctifs sont d’ailleurs légèrement différents entre Windows 11 et 10. Ce dernier recevra ainsi le patch pour la faille CVE-2025-29824 qu’un peu plus tard, sans que l’on sache ni quand ni pourquoi. Microsoft indique simplement que le bulletin CVE sera mis à jour dès que la solution sera disponible. Attention donc à PipeMagic.

Comme toujours, l’installation prendra plus ou moins de temps, selon la configuration et surtout les performances de la machine. Le redémarrage de l’ordinateur sera obligatoire pour finaliser le processus.

☕️ Donald Trump menace TSMC de taxer ses produits à 100 %

9 avril 2025 à 06:29

Donald Trump a donc annoncé des droits de douane particulièrement lourds pour les marchandises importées aux États-Unis.

Mais le dirigeant étasunien ne s’est pas arrêté là. Il a aussi affirmé avoir menacé l’entreprise taïwanaise de semi-conducteur TSMC d’une taxe de 100 % sur ses produits si elle ne construisait pas les usines qu’elle s’était engagée à implanter aux États-Unis, explique Reuters.

Crédits : 李 季霖 (CC BY-SA 2.0)

« TSMC, je ne leur ai pas donné d’argent […] tout ce que j’ai fait, c’est dire que si vous ne construisez pas votre usine ici, vous allez payer une grosse taxe », a affirmé Donald Trump.

Donald Trump a aussi critiqué l’administration de l’ancien président Joe Biden pour avoir accordé une subvention de 6,6 milliards de dollars à l’unité américaine de TSMC pour la production de semi-conducteurs à Phoenix, en Arizona, affirmant que les entreprises de semi-conducteurs n’avaient pas besoin de cet argent, relève Reuters.

Au total, TSMC a prévu d’investir environ 165 milliards de dollars sur quatre ans dans trois usines de fabrication et deux de conditionnement aux États-Unis.

☕️ Infineon veut racheter l’Automotive Ethernet de Marvell pour 2,5 milliards de dollars

9 avril 2025 à 06:17

Infineon, une société allemande spécialisée dans les semi-conducteurs (spin-off de Siemens), vient d’annoncer « un accord pour l’acquisition de l’activité Ethernet automobile de Marvell Technology pour 2,5 milliards de dollars américains ». Le financement, en cash, viendra de liquidités existantes et d’une dette supplémentaire.

Jochen Hanebeck, CEO d’Infineon, parle d’un « choix stratégique pour Infineon en tant que premier fournisseur mondial de solutions de semi-conducteurs pour l’industrie automobile […] Nous tirerons parti de cette technologie Ethernet […] pour les véhicules conçus autour du logiciel ».

Infineon
Infineon

On parle de Software Defined Vehicle dans la langue de Shakespeare. Il s’agit de la « capacité à faire évoluer une voiture tout au long de sa vie, grâce à une architecture centralisée, en la mettant à jour et en y installant de nouvelles applications pour étoffer ses fonctions », rappelle Renault.

« Parmi les clients de l’activité Ethernet automobile de Marvell, figurent plus de 50 constructeurs automobiles, dont huit des dix principaux OEM », précise le communiqué. Infineon voit aussi des avancées possibles dans le monde des robots humanoïdes grâce à cette acquisition.

Comme toujours, cette transaction est soumise aux approbations des autorités compétentes. Elle devrait être finalisée cette année. Infineon comptait environ 58 060 employés dans le monde fin septembre 2024

Hier — 8 avril 2025Next - Articles gratuits

Meta étend ses comptes restreints pour adolescents à Facebook et Messenger

8 avril 2025 à 15:26
Presque de bon cœur
Meta étend ses comptes restreints pour adolescents à Facebook et Messenger

Meta commence à appliquer ses « Teen Accounts », inaugurés sur Instagram, à Facebook et Messenger. L’entreprise débute par plusieurs pays anglo-saxons, mais tous les marchés seront concernés. Elle fait toujours face à de multiples plaintes portant sur des questions de santé mentale.

En septembre 2024, Meta a débuté une bascule importante sur Instagram : tous les jeunes âgés de moins de 18 ans sont passés automatiquement sur un nouveau type de compte. Il était impossible de refuser le changement et plusieurs restrictions étaient mises en place. Par exemple, tous ces comptes étaient privés par défaut et il était notamment impossible de leur envoyer un message privé si l’on n’était pas déjà « amis ».

Une extension des restrictions à Facebook et Messenger

Aujourd’hui, Meta annonce que le même type de compte commence à être appliqué pour l’ensemble des jeunes utilisateurs sur Facebook et Messenger. Cette bascule débute aux États-Unis, au Royaume-Uni, en Australie et au Canada, puis devrait être appliquée au reste du monde au cours des prochains mois, sans calendrier précis pour le moment.

La transformation des comptes peut se révéler assez radicale pour les personnes mineures concernées. Comme pour Instagram, les comptes sont ainsi privés par défaut, et il est impossible de les contacter si l’on n’est pas déjà amis ou qu’une conversation n’a pas eu lieu avant ce changement.

Il y a également une grande différence entre les mineurs de 16 - 17 ans et ceux ayant moins de 16 ans. Pour ces jeunes personnes, les restrictions grimpent d’un cran. Seuls d’autres utilisateurs identifiés comme amis pourront voir les Stories et y répondre. Mêmes limitations pour les mentions, commentaires et autres tags. Si les personnes âgées d’au moins 16 ans pourront elles-mêmes modifier les paramètres, celles ayant entre 13 (âge minimal requis sur ces plateformes) et 15 ans auront besoin d’une autorisation parentale.

Renforcement des barrières sur Instagram

Ce n’est pas tout, car les plus jeunes recevront également des notifications les invitant à quitter les réseaux sociaux au bout d’une heure d’utilisation par jour. La coupure n’est cependant pas forcée et les parents devront s’appuyer sur d’autres outils, comme ceux intégrés en standard dans Android et iOS notamment, s’ils veulent l’imposer. En outre, les applications couperont automatiquement leurs notifications durant la nuit. Là encore, pour les moins de 16 ans, la modification de ces réglages réclamera une autorisation parentale.

Meta en profite d’ailleurs pour renforcer les restrictions sur son Instagram. Les moins de 16 ans ne peuvent ainsi pas se produire en Live, sauf accord parental une fois de plus. Et tant qu’à réclamer ce dernier, un autre réglage est concerné : il n’est plus possible de désactiver soi-même la fonction de floutage des contenus suspectés comme contenant de la nudité.

Meta glisse dans son billet de blog les résultats d’un sondage réalisé par Ipsos à sa demande. D’après l’enquête, qui s’est déroulée aux États-Unis, 94 % des parents interrogés ont estimé utile ce type de compte pour les adolescents, 85 % estimant que la fonction les aide à faire en sorte que leurs enfants aient « une expérience positive » sur Instagram. 90 % ont également trouvé les réglages par défaut « bénéfiques ».

Une situation tendue pour Meta

Ces changements n’ont pas été entièrement à l’initiative de Meta cependant. Aux États-Unis notamment, l’entreprise a fait l’objet d’un nombre croissant d’attaques sur les questions de santé mentale et l’aliénation engendrée par les réseaux sociaux. Tout particulièrement quand ils sont équipés d’un « mur infini » que l’on peut faire défiler sans jamais s’arrêter, le flux étant alimenté par les algorithmes. En octobre 2023, un total de 41 États américains avaient ainsi déposé plainte contre Meta, accusant Facebook et Instagram de favoriser une addiction toxique (33 en commun et 8 dans des plaintes séparées).

Ce sujet de la santé mentale, particulièrement chez les adolescents, est devenu prégnant. Quelques mois avant la plainte des États américains, on avait ainsi 2 000 familles étasuniennes faire de même contre un lot de réseaux sociaux (TikTok, Snapchat, YouTube, Roblox et Meta). Un an plus tard, TikTok faisait directement face à une plainte de 14 États américains, le réseau étant accusé de nuire à la santé mentale des jeunes utilisateurs. L’Europe s’est également emparée de cette question.

☕️ L’État veut recenser les solutions IA dédiées au secteur public

8 avril 2025 à 14:42

L’État, par l’intermédiaire de la Direction interministérielle du numérique (DINUM), lance un appel aux éditeurs proposant des briques applicatives d’intelligence artificielle générative. Objectif affiché ? « Recenser et valoriser des solutions (…) qui répondent aux besoins du secteur public ».

La démarche prend la forme d’un appel à manifestation d’intérêt (AMI), ouvert jusqu’au 15 mai prochain, au terme duquel les lauréats feront « l’objet d’un recensement dans le socle interministériel de briques technologiques d’IAG, publié par la DINUM, et alimenteront la réflexion pour étoffer le socle technologique d’IAG Albert (API Gateway) déjà en développement et proposé par la DINUM ».

Autrement dit, participer à cet AMI doit permettre aux éditeurs concernés de faire référencer leurs solutions auprès de la DINUM et des services de l’État, sans autre promesse plus concrète à ce stade. Il pourrait toutefois contribuer à donner un peu de visibilité aux lauréats, puisque la liste de ces derniers sera présentée en juin prochain, à l’occasion du salon VivaTech.

Le règlement de l’AMI ratisse volontairement large : « toutes les solutions développées et disponibles sur le marché » sont les bienvenues, qu’elles se présentent comme une application complète ou comme une brique technologique dédiée à un aspect plus particulier du déploiement de l’IA générative comme l’inférence de modèles, la gestion de bases de données vectorielles ou l’apprentissage spécialisé.

L’AMI n’établit pas de préférence entre open source et logiques propriétaires. Il réclame en revanche que les solutions candidates soient adaptées à un environnement SecNumCloud en France ou dans l’Union européenne, et conformes à l’objectif de maîtrise, de pérennité et d’indépendance des systèmes d’information de l’État. L’acte de candidature suppose par ailleurs que l’éditeur soit prêt à détailler sa proposition technique et les ordres de grandeur de coûts associés.

L’État a déjà réalisé un premier AMI intitulé « IA au service de l’efficience » dont les enseignements ont été rendus publics le 11 février dernier, à l’occasion du Sommet pour l’action sur l’IA. Plus qu’un annuaire de solutions, le livrable prend la forme d’un catalogue de projet IA menés principalement par des entreprises, avec un objectif affiché d’efficience (principalement économique).

Clearview : outil de reconnaissance faciale tourné dès l’origine contre les migrants

8 avril 2025 à 13:45
Qui aurait pu prévoir ?
Clearview : outil de reconnaissance faciale tourné dès l’origine contre les migrants

Dès la création de l’entreprise en 2017, le co-fondateur de Clearview, Hoan Ton-That, avait en tête la reconnaissance faciale des immigrants et la surveillance des frontières étasuniennes. L’entreprise s’appuie sur des milliards d’images récupérées sur Internet, très souvent sans aucun consentement. Elle a aussi essayé de récupérer des millions de données de police comprenant des photos de suspects.

L’entreprise américaine Clearview est connu pour son web scraping sauvage pour obtenir des milliards d’images, ceci à fin de créer un logiciel proposé aux forces de l’ordre pour résoudre des enquêtes criminelles. Sur son site web, elle propose aux autorités d’ « exploiter le pouvoir de la reconnaissance faciale dans les enquêtes criminelles ».

Ses méthodes de scraping ont été reconnues illégales en Europe par la CNIL, mais aussi par ses homologues britannique, grecque, italienne et néerlandaise, entre autres. En tout, ces autorités de contrôle ont prononcé un peu plus de 100 millions d’amendes, sans pour autant avoir les moyens de contraindre l’entreprise de payer.

Du côté étasunien, un juge s’est prononcé le 20 mars dernier sur un règlement unique de class-action sans compensation financière immédiate et spécifique pour les victimes. Mais ce règlement pourrait, à terme, mener à un fond de compensation basé sur la valeur de Clearview et atteindre 23% de celle-ci, ce qui équivaudrait à 51,75 millions de dollars si on prend la valeur actuelle de l’entreprise.

Un pitch pour le contrôle aux frontières dès 2017

Le co-fondateur de l’entreprise, Hoan Ton-That, a, dès la création de l’entreprise en 2017, présenté le projet de Clearview comme une technologie de surveillance des frontières étasuniennes, selon une enquête du média américain Mother Jones.

Dans un email obtenu par Mother Jones et envoyé à des partenaires commerciaux en mars 2017, alors que l’entreprise n’avait pas encore adopté le nom de Clearview, il proposait un « pitch sur les patrouilles aux frontières ». Il y expliquait vouloir convaincre le gouvernement fédéral américain d’intégrer à ses caméras de surveillance des frontières son logiciel pour utiliser la « détection des visages » sur les immigrants entrant aux États-Unis.

Celui qui a récemment laissé sa place de CEO à un proche de Donald Trump est pourtant lui-même un immigrant venant d’Australie, tout en se réclamant d’une descendance royale vietnamienne. Après des études à San Francisco, « il s’est ensuite rapproché des néoréactionnaires de la Silicon Valley qui ont adopté une vision technocratique et d’extrême droite de la société », commente Mother Jones, et est devenu un « partisan inconditionnel de Donald Trump ». L’entreprise a été financée, dès ses débuts, par Peter Thiel.

Dans son pitch, Hoan Ton-That proposait de comparer les images des étrangers venant aux États-Unis avec des photos de suspects pour déterminer s’ils avaient déjà été arrêtés dans ce pays, selon le média. Récemment, 404 Média révélait que l’entreprise avait dépensé près d’un million de dollars en 2019 pour acheter « 690 millions de dossiers d’arrestation et 390 millions de photos d’arrestation » à une entreprise de renseignement nommée Investigative Consultant.

Surveillance des réseaux sociaux des migrants

Toujours dans cette présentation, l’ancien CEO de Clearview proposait d’analyser les médias sociaux des personnes migrantes pour connaître leur « sentiment à l’égard des États-Unis ». Cette proposition rappelle le système appelé « Catch and Revoke » que le secrétaire d’État des États-Unis, Marco Rubio, veut mettre en place afin de traquer les étudiants étrangers et révoquer leurs visas.

Hoan Ton-That proposait d’analyser les médias sociaux des migrants à la recherche de « messages disant “Je déteste Trump” ou “Trump est une puta” » et de cibler les personnes ayant des « affinités avec des groupes d’extrême-gauche », en donnant comme seul exemple UnidosUS, « l’une des plus grandes organisations hispaniques de défense des droits civiques du pays », explique Mother Jones.

Comment un simple tweet a fait tanguer les marchés à hauteur de 2 000 milliards de dollars

8 avril 2025 à 13:02
Down Rodeo
Comment un simple tweet a fait tanguer les marchés à hauteur de 2 000 milliards de dollars

Un simple tweet, publié par un compte X « certifié », a mis le feu aux marchés lundi, entraînant une hausse momentanée de quelque 2 000 milliards de dollars de la capitalisation boursière mondiale. L’incident, survenu dans un contexte de fébrilité exceptionnel, souligne à quel point les marchés restent vulnérables à des tentatives de manipulation délibérées.

Plus volatil, tu meurs. Sur les forums spécialisés comme sur les réseaux sociaux, l’annonce d’une embellie s’est propagée comme une traînée de poudre lundi après-midi (heure de Paris) : après trois jours de baisse continue, l’heure du rebond est arrivée, et les indices repartent à la hausse ! Pendant vingt minutes, une forme d’euphorie gagne les investisseurs.

Entre le moment où la contagion a débuté et celui où le feu de paille s’est éteint, les places boursières ont regagné lundi l’équivalent de quelque 2 000 milliards de dollars de capitalisation perdus depuis le 3 avril et l’annonce de la mise en place des droits de douane exceptionnels décidés par Donald Trump. Avant de les reperdre, tout aussi rapidement. Que s’est-il donc passé ?

Une interview détournée

Le phénomène débute avec un tweet massivement relayé par de nombreux comptes présentant des affinités avec les thématiques de l’investissement en bourse ou des cryptomonnaies. Écrit tout en majuscules, il affirme : « Trump envisage une pause de 90 jours dans la mise en place des droits de douane pour tous les pays sauf la Chine ». Souvent, il est assorti d’un nom propre, Hassett, en référence à Kevin Hassett, le conseiller économique de Donald Trump à la Maison-Blanche.

Une heure plus tôt, la question d’une possible pause dans la mise en œuvre des droits de douane lui avait bien été posée au micro de Fox News, mais Kevin Hassett avait alors botté en touche, indiquant que le président déciderait… ce qu’il déciderait.

Une intox particulièrement virale

C’est cette déclaration, plutôt prudente, qui semble avoir servi de point de départ à la diffusion d’une fausse information. D’après le déroulé retracé par NPR, la fake news aurait d’abord été propagée par un compte X baptisé Hammer Capital, et doté de la coche bleue (accessible en souscrivant un abonnement payant) qui permet de disposer de la mention « certifié » à côté de son pseudonyme et offre une portée supérieure aux messages. Le compte initial affiche environ 1 100 followers, mais la fausse information gagne rapidement en visibilité grâce au relais de nombreux autres comptes.

Quelques minutes plus tard, elle gagne une nouvelle caisse de résonance : le message est repris par le compte @DeItaone, qui compte pour sa part quelque 850 000 abonnés, et adopte « Walter Bloomberg » comme pseudonyme sur le réseau social X.

Officiellement, le compte n’a aucun lien avec la célèbre agence d’actu financière Bloomberg, mais il relaie fréquemment les alertes de cette dernière, ce qui explique vraisemblablement sa popularité. Le flux de dépêches de Bloomberg est très prisé des investisseurs particuliers, dans la mesure où il permet d’être alerté très en avance de phase d’éventuelles informations susceptibles d’influencer la bourse, mais il est payant (et facturé très cher).

Une caution journalistique

À ce stade, ni Bloomberg, ni la Maison-Blanche, ni Fox News n’ont confirmé la soi-disant pause sur leurs propres canaux, et même si la rumeur a déjà entraîné un début de hausse sur les marchés, son effet reste encore limité. Le véritable déclencheur intervient peu après 16 heures (heure de Paris), quand CNBC relaie l’intox – via son bandeau d’informations écrites – sur son direct. Cinq minutes plus tard, l’agence Reuters envoie à son tour une dépêche, qui confère, aux yeux de nombreux investisseurs, une légitimité à l’information… jusqu’à ce que la Maison-Blanche démente.

« Alors que nous suivions l’évolution du marché en temps réel, nous avons diffusé des informations non confirmées dans une bannière. Nos reporters ont rapidement corrigé l’information à l’antenne », précise une porte-parole de CNBC au Wall Street Journal. « La Maison-Blanche a démenti ces informations. Reuters a retiré cette information erronée et regrette son erreur », réagit Reuters dans la même veine.

CNBC a démenti vers 16h33 (heure de Paris)

Immédiatement, les investisseurs qui avaient acheté des titres ou des fonds cotés pour essayer de profiter de la hausse s’extraient du marché, provoquant la fin de l’embellie. Dans le lot, d’aucuns s’estiment toutefois heureux : la hausse a été si fulgurante que celui qui a acheté et vendu au bon moment a pu, en quelques minutes, réaliser un gain à deux chiffres.

La martingale est d’ailleurs si belle qu’elle devrait, en théorie, motiver l’ouverture d’une enquête, notamment aux États-Unis, où Donald Trump a récemment renforcé son pouvoir de contrôle sur le gendarme de la bourse, la SEC.

☕️ Avec son modèle Nova 1.1, Amazon permet de générer des vidéos jusqu’à 2 min

8 avril 2025 à 12:44

En décembre dernier, Amazon lançait sa nouvelle famille de modèles d’IA générative Nova. On y trouvait cinq variantes : Micro, Lite, Premier, Canvas et Reel, tous conçus pour une finalité spécifique. Le modèle principal et multimodal Premier est actuellement le plus grand modèle de l’entreprise. Micro est par exemple beaucoup plus petit et ne prend en charge que le texte.

Reel, lui, était conçu pour permettre la génération de vidéos d’un maximum de 6 secondes, à partir d’un texte et/ou d’images. Amazon promettait alors une extension de cette durée à 2 min dans le courant 2025, dont acte.

Nova Reel 1.1 est disponible depuis Amazon Bedrock et permet effectivement de générer des vidéos d’une durée maximale de 2 min. Dans son mode automatisé, la société a recours à une petite « astuce » : ces 2 minutes sont composées de plans de 6 secondes. Toutefois, Reel 1.1 est capable de maintenir « un style cohérent d’un plan à l’autre », selon Amazon. Dans ce mode, l’invite peut grimper jusqu’à 4 000 caractères, mais aucune image n’est acceptée en entrée.

Le modèle peut également fonctionner en mode manuel. Dans ce cas, on peut envoyer une invite – texte ou images cette fois – spécifique pour chaque plan. Attention cependant, la limite de caractères descend à 512, et la définition des images ne peut pas dépasser 1 280 x 720.

Le tarif du service est le même que pour la première version, avec une facturation de 0,08 dollar par seconde de vidéo générée.

☕️ Le patron de Shopify oblige ses équipes à prouver qu’une tâche ne peut être faite par IA

8 avril 2025 à 10:04

Dans un memo rendu public sur X, le directeur général de Shopify Tobi Lutke a déclaré modifier l’approche de son entreprise en termes de ressources humaines.

Il intime à ses équipes de prouver que des tâches ne peuvent être réalisées à l’aide de l’intelligence artificielle avant de demander une augmentation de ressources ou d’équipes.

Et de préciser que l’usage de l’IA est une « attente fondamentale » envers les équipes de Shopify, dans la mesure où elle aurait « multiplié » la productivité de ceux qui l’utilisent.

Comme le relève CNBC, la directive est formulée alors que les entreprises du numérique investissent des milliards de dollars dans le développement de l’intelligence artificielle, en même temps qu’elles licencient régulièrement. 


En 2024, selon le décompte de Layoffs.fyi, 152 000 postes ont été supprimés dans 549 entreprises de la tech.

Chez Shopify, les équipes totalisaient 8 100 personnes au mois de décembre, contre 8 300 plus tôt en 2024. L’entreprise avait supprimé 14 % de ses équipes en 2022 et 20 % en 2023.

Des associations demandent un débat sur la création des datacenters en France

8 avril 2025 à 09:43
Stockera, stockera pas
Des associations demandent un débat sur la création des datacenters en France

Dans le cadre du projet de loi de simplification de la vie économique, un groupe d’associations appellent les députés à supprimer l’article 15, qui faciliterait la construction de centres de données, pour laisser le temps d’organiser un débat citoyen sur la multiplication de ces entrepôts.

De ce 8 avril jusqu’à vendredi 11 avril, les députés examinent le projet de loi « de simplification de la vie économique ». De mesure de simplification du quotidien des très petites entreprises à la simplification des démarches pour accéder aux marchés publics, le texte prévoit une variété de mesures, dont la facilitation de l’obtention de licences IV dans les petites villes.

Mais son article 15, qui vise à faciliter la construction de centres de données, inquiète la Quadrature du Net, le collectif marseillais le Nuage était sous nos pieds et la coalition Hiatus, qui réunit une vingtaine d’associations françaises aux mandats variés. Ils appellent les députés à soutenir un moratoire de deux ans « sur la construction des plus gros data centers » en France, le temps d’organiser un débat public.

Début février, en amont du Sommet sur l’intelligence artificielle organisé à Paris, le Premier ministre avait en effet annoncé l’identification de 35 sites industriels déclarés propices à l’installation de centres de données, à la fois en termes de surface foncière, de disponibilité et d’accès à l’énergie. Matignon précisait que les surface allaient de « 18 à 150 hectares et plus », pour une surface totale de l’ordre de 1 200 hectares.

« Projet d’intérêt national majeur »

Or, l’article 15 du projet de loi de simplification de la vie économique permettrait précisément d’accorder le statut de « projet d’intérêt national majeur » (PINM) à des centres de données de ce genre. L’intérêt pour leurs porteurs : accélérer l’implantation des bâtiments et les procédures – de gestion des documents d’urbanisme, de raccordement au réseau électrique, de reconnaissance de raisons impératives d’intérêt public majeurs.

Créé dans la loi sur l’industrie verte de 2023, le statut de « projet d’intérêt national majeur » (PINM) introduit dans le code de l’urbanisme a en effet été pensé pour faciliter l’implantation de projets industriels dans le pays. En juillet 2024, il a été accordé par décret à plusieurs projets, souvent liés à l’industrie numérique : une usine de fabrication de cellules et modules photovoltaïques de la société Holosolis, une de production de panneaux photovoltaïques de la société Carbon, une usine Eastman de recyclage moléculaire des plastiques, une usine Gravithy de production de minerai de fer réduit et d’hydrogène et un site d’extraction et de transformation de lithium d’Imerys, dans l’Allier.

Moratoire de deux ans pour une convention citoyenne

L’un des problèmes que pointent les associations : le statut PINM permettrait notamment de déroger à l’obligation de protection des espèces protégées, alors que la multiplication de data centers pose de multiples enjeux environnementaux de bétonisation des sols et de concurrence dans l’usage des terres et de l’eau.

À l’heure actuelle, la France compte environ 315 data centers, dont la grande majorité est concentrée en Île-de-France (la région concentre 60 % de la puissance de la capacité nationale, selon Knight Frank), suivie par Marseille et la région PACA, où aboutissent 18 câbles sous-marins.

Détaillant l’empreinte environnementale de ces infrastructures, la Quadrature du Net et ses partenaires, rappellent que les hyperscalers, ces data centers extrêmement grands poussés par les acteurs états-uniens du numérique, recourent massivement à l’eau pour refroidir leurs serveurs. Google a ainsi révélé avoir consommé 28 milliards de litres d’eau en 2023, dont les deux tiers d’eau potable, suscitant de telles tensions que le Chili a freiné l’un de ses projets.

Les associations notent que l’expansion de ces projets en France, y compris lorsqu’elle est réalisée par étapes, comme dans la ville de Wissous, créent déjà des oppositions au niveau local. Enfin, elles interrogent les effets de ces édifices en termes de création d’emploi, un enjeu sur lequel le sociologue Clément Marquet revenait à notre micro.

En écho aux experts de l’ADEME, qui soulignent la nécessité de planifier et réguler le déploiement des centres de données, les associations incitent les députés à rejeter l’article 15 du projet de loi en cours de discussion. Elles demandent aussi un moratoire sur la construction des plus gros data centers, le temps de permettre à « une convention citoyenne de penser les conditions d’une maîtrise démocratique des data centers ».

Alertes sur les sites GenAI : pourquoi notre extension affiche-t-elle des faux positifs ?

8 avril 2025 à 08:50
Ça Bloom ?
Alertes sur les sites GenAI : pourquoi notre extension affiche-t-elle des faux positifs ?

Next utilise un filtre de Bloom pour afficher des alertes sur les médias utilisant de l’IA générative pour tout ou partie de ses articles. Comment fonctionne notre algorithme de détection et pourquoi y a-t-il des faux positifs ? On vous explique.

Notre extension Chrome et Firefox pour alerter les visiteurs des sites d’information utilisant l’IA générative pour tout ou partie de leurs articles utilise une liste de plus de 3 000 noms de domaines identifiés « à la main et de visu » (sans recours à des outils de vérification algorithmique et automatisé) par notre journaliste Jean-Marc Manach. Le code source est disponible sur GitHub.

Cachez cette liste que je ne saurais voir…

Nous ne souhaitons pas diffuser publiquement la liste des domaines (et des entreprises), pour plusieurs raisons que nous avons déjà expliquées dès la première partie de notre enquête :

« Nous ne voulons pas, d’une part, que cette base de données puisse aider ceux qui voudraient améliorer leurs générateurs d’articles automatisés, et qui se targuent de ne pas être reconnus comme GenAI (nous y reviendrons). Nous ne voulons pas non plus faire de « name and shame » et mettre sur le même plan des auto-entrepreneurs SEO ayant créé quelques sites de façon opportuniste et les entreprises (y compris individuelles) en ayant créé plusieurs dizaines ».

Nous avons donc utilisé une méthode d’obfuscation pour masquer la liste. Un développeur de moji – Hasnaine – nous a grandement épaulés pour cette tâche. Il a développé le code de cette partie de l’extension, ainsi qu’un script pour transformer notre liste de manière irréversible. La méthode utilise un filtre de Bloom, mais qu’est-ce que c’est et qu’est-ce que cela implique ?

Comme l’explique Bioinfo-fr, « le filtre de Bloom ne vous permet pas vraiment de “stocker” des données à proprement parler ; le filtre est là pour vous permettre de tester l’appartenance d’un élément à un ensemble de données ». Parfait, c’est exactement ce que l’on cherche.

Contre les faux positifs, la liste blanche

Un filtre de Bloom est une structure probabiliste. Dans la pratique, c’est un tableau de n bits qui est initialement à 0 sur toutes ses entrées. « Nous allons utiliser plusieurs fonctions de hachage indépendantes qui retourneront une suite de bits correspondant à des adresses mémoires : au lieu d’effectivement stocker les données, on ne stockera ainsi que quelques bits d’information », explique Bioinfo-fr.

L’exemple parle du stockage de séquences ADN (logique pour un site dédié à la biologie), mais cela fonctionne à peu près pour n’importe quoi. L’algorithme a deux résultats possibles lors d’un test : l’élément est probablement dans la liste, ou il n’est pas présent (cette fois-ci avec certitude), comme le résume Wikipédia :

« Plus précisément, un test d’appartenance renvoie soit « peut-être dans l’ensemble » ou « assurément pas dans l’ensemble ». Dit autrement, il n’y a jamais de faux négatif mais il peut y avoir des faux positifs. »

Il a donc l’avantage de ne pas produire de faux négatif (un site qui serait dans la liste, mais non identifié comme tel). Toutefois, il a l’inconvénient de générer des faux positifs. Et plus la liste d’éléments de base est grande, plus le risque de faux positifs augmente. Raison pour laquelle certains sites sont parfois identifiés à tort par notre extension.

Un faux positif arrive donc lorsque l‘algorithme identifie à tort un site comme étant « peut-être » dans notre liste, quand bien même il n’y figure pourtant pas. Pour contrer cette problématique inhérente au fonctionnement du filtre de Bloom, nous avons mis en place depuis quasiment le début une liste blanche d’URL à ne pas identifier.

Nous tâchons d’ajouter au plus vite les éléments dans notre liste pour corriger les faux positifs quand ils nous sont signalés. Depuis peu, l’application télécharge sa liste blanche sur les serveurs de Next, ce qui évite d’avoir à la pousser manuellement à chaque nouvelle mise à jour (encore à déployer sur Chrome, ça arrive).

Notre algorithme, côté technique

Pour en revenir à notre filtre de Bloom, nous vous donnons les principaux paramètres de notre formule pour calculer la taille de notre tableau (en bits), à partir du nombre d’éléments et du taux de faux positif spécifié. Attention, plus le taux est faible, plus la taille du tableau est importante, il faut donc choisir avec précaution ce paramètre.

const expectedElements = strings.length;
const falsePositiveRate = 0.00000001; 
const size = Math.ceil(-(expectedElements * Math.log(falsePositiveRate)) / (Math.log(2) ** 2));
const numHashes = Math.max(1, Math.ceil((size / expectedElements) * Math.log(2)));

Une fois la taille de notre tableau obtenu, nous calculons le nombre de hachages pour notre filtre de Bloom.

L’influence de la précision

Voici quelques résultats en fonction de la précision (falsePositiveRate) demandée sur les faux positifs (il s’agit ici de quelques exemples, d’autres combinaisons sont possibles) :

1 % (0.01):

  • Taille : 32 772 bits
  • Nombre de fonctions de hash : 7

0,01 % (0.0001) :

  • Taille : 65 543 bits
  • Nombre de fonctions de hash : 14

0,0001 % (0.000001) :

  • Taille : 98 314 bits
  • Nombre de fonctions de hash : 20

0.000001 % (0.00000001) :

  • Taille : 131 086 bits
  • Nombre de fonctions de hash : 27

Afin de limiter le nombre de faux positifs, nous avons augmenté la précision dans la dernière mise à jour de notre extension.

Meta accusée d’avoir triché sur les performances de ses modèles Llama 4

8 avril 2025 à 07:42
Sous son meilleur jour
Meta accusée d’avoir triché sur les performances de ses modèles Llama 4

L’entreprise a été épinglée hier pour des résultats de Llama 4 peu en phase avec ce qu’elle proclamait avoir obtenu dans plusieurs benchmarks. Une déception générale semble se manifester sur l’utilisation des modèles en conditions réelle, tandis que des soupçons de triche apparaissent. Meta nie avoir voulu tromper la communauté.

Meta a lancé samedi sa nouvelle famille de modèles de fondation Llama 4. Trois variantes ont été présentées, selon les cas d’usage envisagés : Scout, Maverick et surtout Behemot. Ce dernier, avec ses 2 000 milliards de paramètres, 288 milliards de paramètres actifs et 16 experts, est un colosse dont les résultats seraient pratiquement au niveau de Gemini 2.5 Pro, alors que ce dernier « raisonne » et pas Llama 4.

Pourtant, si plusieurs personnes ont commencé à s’interroger dès le dimanche, une polémique est apparue progressivement hier. Au centre de l’attention, le modèle intermédiaire Maverick, dont le score sur LLArena (1 417) ne semble pas se refléter dans les tests réalisés par un nombre croissant de chercheurs et autres experts.

Meta épinglée par LLArena

Dans son communiqué, Meta indiquait discrètement avoir utilisé une version expérimentale du modèle pour réaliser ses tests. La version mise à disposition samedi n’est cependant pas celle utilisée sur LLArena. Au point que l’équipe du site s’est fendu d’un message sur X hier après-midi pour pester contre Meta :

« L’interprétation de notre politique par Meta ne correspond pas à ce que nous attendons des fournisseurs de modèles. Meta aurait dû préciser que « Llama-4-Maverick-03-26-Experimental » était un modèle personnalisé visant à optimiser les préférences humaines. En conséquence, nous mettons à jour nos politiques de classement pour renforcer notre engagement en faveur d’évaluations équitables et reproductibles, afin d’éviter que ce genre de confusion ne se reproduise à l’avenir ».

Hier, une rumeur a également pris de l’ampleur : Meta aurait triché. Relevant qu’une publication un samedi était étrange (nous l’avions effectivement signalé), plusieurs personnes affirment que Meta aurait spécifiquement entrainé ses modèles pour les benchmarks, signale The Verge. Le cas serait semblable à celui des constructeurs de smartphones accusés d’optimisations pour les benchmarks pour mieux mettre en avant les performances de leurs produits. Performances que l’on ne retrouvait pas en utilisation réelle.

Meta nie tout en bloc

Au point qu’Ahmad Al-Dahle, ingénieur en chef sur l’intelligence artificielle chez Meta, a fini par prendre la parole hier soir pour démentir. « Comme nous avons lancé les modèles dès qu’ils ont été prêts, nous nous attendons à ce qu’il faille plusieurs jours pour que toutes les implémentations publiques se mettent en place. Nous continuerons à travailler à la correction des bogues et à l’intégration des partenaires », a-t-il déclaré pour expliquer la variabilité des résultats. Explication qui a valu au responsable quelques moqueries.

Concernant les accusations de tricherie, il réfute en bloc : « Nous avons également entendu dire que nous nous étions entraînés sur des ensembles de tests – ce n’est tout simplement pas vrai et nous ne ferions jamais cela. Nous pensons que les modèles Llama 4 représentent une avancée significative et nous sommes impatients de travailler avec la communauté pour libérer leur potentiel ».

Les commentaires en réponse font souvent état de performances médiocres, tout particulièrement dans Meta AI, censé utiliser Llama 4 dans WhatsApp, Threads et Facebook. Quelques jours avant la publication des nouveaux modèles, The Information indiquait que leur genèse avait été particulièrement complexe. Le lancement aurait été repoussé à plusieurs reprises à cause de performances inférieures aux attentes de l’entreprise.

Free lance sa Freebox Pop S « 100 % Internet » : 5 Gb/s et Wi-Fi 7 pour 24,99 € par mois

8 avril 2025 à 07:35
Elle a popé un mardi, quelle surprise :D
Free lance sa Freebox Pop S « 100 % Internet » : 5 Gb/s et Wi-Fi 7 pour 24,99 € par mois

Une nouvelle Freebox est dès à présent disponible : la Freebox Pop S, en réponse à la Pure Fibre de Bouygues Telecom. Pour 24,99 euros par mois, vous avez un accès à Internet jusqu’à 5 Gb/s partagés, du Wi-Fi et… aucun service de télévision.

Les amateurs de la marque l’auront certainement compris à la lecture du titre de cette actualité : la Freebox Pop S est à la Freebox Pop ce que la Delta S était à la Delta : « une offre 100 % Internet sans TV ». La Freebox Pop S ne propose donc qu’un accès à Internet (en fibre optique FTTH ou en xDSL), sans service supplémentaire. Il s’agit évidemment de venir jouer sur les platebandes de la box Pure Fibre de Bouygues Telecom.

Jusqu’à 5 Gb/s partagés et 900 Mb/s en upload

La Freebox Pop S reprend le boîtier de la Freebox Pop et propose donc « des débits Fibre jusqu’à 5 Gb/s partagés en téléchargement et jusqu’à 900 Mb/s en envoi ». Le mot important est « partagés », puisque la Freebox Pop ne dispose pas de port à 5 ou 10 Gb/s (ni de cage SFP+).

Pour atteindre les 5 Gb/s, il faut combiner plusieurs solutions : 2,5 Gb/s sur un port Ethernet, 1 Gb/s sur deux autres ports Ethernet et enfin 0,5 Gb/s en Wi-Fi, soit 5 Gb/s au total. Sur une seule machine, vous ne pouvez pas dépasser les 2,5 Gb/s par contre.

Avec sa Pure Fibre, Bouygues Telecom propose pour rappel un port 10 GbE (Ethernet, via un connecteur RJ45). Nous avions déjà détaillé les différents ports multi-GIG des principales box des FAI dans un précédent dossier.

Wi-Fi 7 jusqu’à 2,2 Gb/s

Comme la Freebox Pop depuis mars 2024, la version S dispose du Wi-Fi 7 avec « jusqu’à 2,2 Gb/s, soit des débits jusqu’à 2 fois plus rapides que le Wi-Fi 6). Sur demande, un répéteur Wi-Fi 7 est proposé par le fournisseur d’accès. Bouygues Telecom a pour rappel attaqué Free devant le tribunal de commerce de Paris sur son Wi-Fi 7, qui n’est pas certifié par la Wi-Fi Alliance.

Pas de boitier TV, ni d’appels vers les mobiles en France

La Freebox Pop ne dispose pas de Player (le boitier multimédia) et ne permet pas d’accéder à des chaines de télévision. Oqee et Free Foot ne sont pas non plus inclus.

Une autre différence existe entre les deux Freebox Pop : les appels ne sont illimités que vers les fixes en France et les DOM, pas vers les mobiles en France et DOM (c‘est le cas sur Freebox Pop).

24,99 euros par mois, sans engagement, avec Free Family

« La nouvelle offre Freebox Pop S est une exclusivité web au prix de 24,99 euros par mois seulement. Comme toutes les offres Freebox, elle est sans engagement », ajoute enfin l’opérateur. L’option Free Family est disponible, permettant d’avoir jusqu’à quatre lignes mobiles à 9,99 euros par mois pendant 1 an, puis à 15,99 euros par mois (sans engagement), au lieu de 19,99 euros par mois.

La Freebox Pop S est donc à 15 euros de moins que la Freebox Pop classique. Cette dernière bénéficie d’une remise de 10 euros par mois la première année, ramenant la différence à 5 euros pendant 12 mois. Nous mettrons à jour notre tableau comparatif dans la journée. Dans les deux cas, les frais de résiliation sont de 59 euros et ceux de mise en service de 49 euros.

« Les abonnés existants éligibles seront informés par email ou directement dans leur Espace Abonné de la possibilité de changer pour la Freebox Pop S », indique le fournisseur d’accès, sans plus de détails.

Par rapport à la Pure Fibre, la Freebox Pop S est donc un euro plus cher par mois, avec un débit inférieur. Elle propose toutefois des appels vers les fixes et du Wi-Fi 7, en plus de l’écosystème Free (l’application Freebox Files par exemple).

Freebox Pop, Révolution et Delta passent à 900 Mb/s en upload

Enfin, « Free booste la connectivité Fibre de ses Freebox : les débits maximum théoriques montants de la Freebox Pop, de la Freebox Révolution et de la Freebox Delta passent à 900 Mbit/s. Ces évolutions se font automatiquement et sans surcoût pour tous les abonnés existants et les nouveaux abonnés ».

C’est la confirmation d’une hausse que certains avaient déjà remarqué depuis mi-mars.

☕️ Hausse de 20 % des demandes d’autorisation pour des traitements de données de santé

8 avril 2025 à 07:17

La CNIL explique qu’en 2024 il y a eu 619 demandes d’autorisation pour des traitements de données de santé, ce qui représente une hausse de 20 % par rapport à 2023.

L’autorité chargée de la protection des données en France ajoute que les deux tiers (397) de ces demandes ont reçu une autorisation. Les trois quarts des demandes concernaient des projets de recherche.

À côté d'une patiente âgée, un médecin observe une radio dentaire.

174 dossiers sont des demandes classées sans suite (en baisse de 7 %), la plupart du temps car ce sont des « demandes relatives à des traitements non soumis à formalité préalable, des dossiers incomplets (par exemple ceux relatifs à des projets de recherche pour lesquels l’avis du comité compétent n’a pas été transmis) ou qui sont conformes à un référentiel de la CNIL et ne nécessitent donc pas d’autorisation spécifique ».

La CNIL explique cette légère baisse par une « amélioration de la qualité des dossiers reçus », notamment grâce à « l’accompagnement accru » qu’elle a mis en place.

Et sur ces 619, seulement 3 ont fait l’objet d’un refus de la part de l’autorité. Ceux-ci sont émis « principalement sur les mesures techniques et organisationnelles visant à assurer la sécurité des données comme la pseudonymisation des données et le respect du principe de minimisation ».

À partir d’avant-hierNext - Articles gratuits

☕️ Aux États-Unis, Meta met officiellement fin à sa vérification des faits

7 avril 2025 à 15:31

La décision aura fait couler beaucoup d’encre et avait notamment provoqué chez Bloomberg une grande enquête sur les données des notes de communauté. Mais cette fois ça y est : dans quelques heures, le programme de vérification professionnelle des faits de Meta sera officiellement terminé.

Comme nous le rappelions le mois dernier, Mark Zuckerberg avait fait une annonce fracassante sur le sujet. Selon le CEO, cette vérification prenait trop de temps et était trop « politisée », rejoignant en filigrane la grande chasse au « wokisme » tant propulsée par Donald Trump et Elon Musk.

Les logos de Facebook et Meta dans des carrés en 3D sur un fond grisé dégradé
Photo de Dima Solomin sur Unsplash

À la place, Meta applique désormais les mêmes notes de la communauté. Toutes les personnes utilisant Facebook pourront ainsi faire une proposition de note, pour expliquer en quoi le contenu est problématique. Comme sur X, il est recommandé d’ajouter un ou plusieurs liens pour étayer son propos. La validation de la note est ensuite soumise à approbation d’autres membres de la communauté.

Les premières notes devraient apparaitre « progressivement sur Facebook, Threads et Instagram », a indiqué vendredi Joel Kaplan, responsable des affaires mondiales chez Meta. Rappelons une différence majeure entre l’ancien processus de vérification et les notes de la communauté : les publications épinglées par des notes resteront en ligne, ces dernières n’étant là que pour fournir du contexte.

Dans son enquête, basée sur plus d’un million de notes récupérées sur X, Bloomberg reconnaissait plusieurs vertus au système, dont une plus grande réactivité. Cependant, il n’est en rien une solution vraiment efficace de modération à une telle échelle. Surtout, le média critiquait aussi bien que X que Meta en pointant que la rémunération des publications revenait à encourager la viralité, donc à accentuer les problèmes de modération.

Précisons enfin que les changements évoqués ici ne sont pour l’instant valables qu’aux États-Unis. En Europe notamment, rien n’a encore été annoncé.

☕️ OpenAI : o3 et o4-mini arrivent finalement, GPT-5 repoussé de quelques mois

7 avril 2025 à 14:59

Alors que l’actualité sur l’intelligence artificielle générative se déchaine avec les nouvelles versions de DeepSeek V3, Gemini 2.5 Pro ou encore le très récent Llama 4, OpenAI annonce du retard du GPT-5.

« Nous allons être en mesure de rendre le GPT-5 bien meilleur que ce que nous pensions au départ. Nous avons également constaté qu’il était plus difficile que nous le pensions de tout intégrer en douceur », a ainsi indiqué Sam Altman, CEO d’OpenAI, dans une publication sur X le 4 avril.

En conséquence, GPT-5 n’arrivera que dans quelques mois, donc avec du retard. Altman ajoute que l’entreprise veut s’assurer qu’elle disposera « d’une capacité suffisante pour répondre à ce [qu’elle prévoit] être une demande sans précédent ».

La société avait expliqué plus tôt dans l’année que son modèle serait disponible pour tous, mais que le degré de précision se ferait en fonction de la formule utilisée. Sans abonnement payant, le niveau d’intelligence sera ainsi « standard ». La formule ChatGPT Plus aura droit à « un niveau d’intelligence plus élevé », tandis que ChatGPT Pro donnera accès au niveau le plus élevé. On ignore concrètement à quoi correspondent ces paliers.

« L’un de nos principaux objectifs est d’unifier nos modèles en créant des systèmes capables d’utiliser tous nos outils, de savoir s’il faut réfléchir longtemps ou non, et d’être utiles pour un large éventail de tâches », précise également Sam Altman. GPT-5 sera un modèle unifié : il sera multimodal et intègrera la voix, Canvas, la recherche approfondie et d’autres outils.

Si GPT-5 sera en retard, il en va autrement des modèles « o ». Contrairement à ce qui avait été indiqué en février, o3 va finalement sortir « dans quelques semaines », accompagné d’un o4-mini. On apprend également qu’un modèle o3-pro est en préparation, sans plus de détails. Aucune précision technique n’a été donnée sur ces futurs modèles de raisonnement.

Meta dégaine ses Llama 4 multimodaux, dont un Behemot de 2 000 milliards de paramètres

7 avril 2025 à 14:52
It really kicks
Meta dégaine ses Llama 4 multimodaux, dont un Behemot de 2 000 milliards de paramètres

Dans la longue quête des modèles d’IA générative toujours plus puissants, c’est au tour de Meta de dégainer avec la quatrième version de son Llama. Il est décliné en trois versions, selon le cas d’usage, et tous sont multimodaux. Alors que Meta se lance pour la première fois dans les « mélanges d’experts », l’Europe continue d’être privée des nouveautés.

Meta veut frapper fort avec son modèle Llama 4. Dans son annonce, publiée samedi (c’est la première fois que l’entreprise lance un modèle majeur durant le week-end), Meta explique qu’il a été entrainé sur « de grandes quantités de textes, d’images et de données vidéo non étiquetés » et qu’il dispose d’une « large compréhension visuelle ».

Llama 4 est décliné en trois versions : Scout, Maverick et Behemot. Précisons d’emblée que si les deux premiers sont disponibles, ils ont été distillés depuis Behemot qui, lui, est toujours en cours d’entrainement.

Des paramètres et des experts

Llama 4 Scout est le plus petit modèle, avec 16 experts. Ces derniers représentent des sous-sections spécifiques du modèle, conçues pour traiter des tâches particulières. Ils sont la conséquence de l’approche MoE (Mixture of Experts), utilisée pour la première fois chez Meta. Chaque expert représente un réseau neuronal pouvant être entrainé séparément, permettant un entrainement global du modèle nettement plus rapide, comme l’expliquait déjà Hugging Face fin 2023.

En fonction de la tâche, c’est le modèle qui « décide » ensuite à quel expert envoyer les jetons. Conséquence, si Llama 4 Scout a 109 milliards de paramètres, 17 milliards « seulement » sont actifs en même temps.

Même cas de figure pour Maverick, le modèle principal. Cette fois, le nombre de paramètres est de 400 milliards, mais le modèle dispose de 128 experts, toujours avec la même technique. Comme pour Scout, le nombre de paramètres actifs est de 17 milliards.

Selon Meta, ces deux modèles sont tout simplement les meilleurs modèles multimodaux de leur catégorie respective. Scout fournit ainsi une fenêtre contextuelle de 10 millions de jetons, peut fonctionner sur un seul GPU H100 de NVIDIA et fournit de meilleurs résultats que Gemma 3, Gemini 2.0 Flash-Lite et Mistral 3.1 « dans une large gamme de tests de référence », selon Meta.

Maverick, qui doit devenir le principal modèle poussé par Meta, est présenté comme surpassant GPT-4o et Gemini 2.0 Flash. Sur LMArena, le modèle se classe deuxième avec un score de 1417. Point intéressant, Meta évoque directement DeepSeek, car les résultats obtenus par Maverick sont décrits comme « comparables » au dernier modèle chinois. Selon Meta, Maverick peut fonctionner sur un seul système H100 DGX de NVIDIA.

L’énorme Behemot toujours en formation

Dans la nouvelle trilogie de Meta, Scout et Maverick sont les étudiants. L’enseignant se nomme Behemot, à partir duquel ils ont été distillés. Le modèle porte a priori bien son nom : on ne joue plus du tout dans la même cour.

Ce mastodonte, dont l’entrainement est toujours en cours, affiche la bagatelle de 2 000 milliards de paramètres. Bien sûr, tous ne fonctionnent pas en même temps, mais le modèle, doté de 16 experts, dispose quand même de 288 milliards de paramètres actifs. De fait, il est présenté comme le modèle « de pointe » pour tout ce qui touche aux mathématiques, au multilinguisme et aux images. Pour économiser les coûts, la distillation du modèle a été réalisée pendant la phase de pré-entrainement, précise Meta.

Évidemment, les performances d’un tel modèle sont annoncées comme supérieures à tout ce qui existe. Ou presque. Dans le tableau donné par Meta, on peut voir que les notes obtenues par son Behemot sont largement supérieures globalement que les modèles concurrents. Mais si Meta a fait combattre son modèle face à Claude Sonnet 3.7 et GPT-4.5 – qui sont effectivement les dernières versions des modèles – l’entreprise a choisi de se limiter à Gemini 2.0 Pro, alors que la 2.5 est disponible.

How to train a behemot

L’entrainement d’un tel modèle aurait « constitué un défi de taille ». Pendant celui de Maverick, Meta dit s’être aperçue de plusieurs problèmes, au point de changer toute sa chaine de traitements post-entrainement. Le réglage fin supervisé (SFT) et l’optimisation des préférences directes (DPO) ont ainsi été allégés. 50 % des données jugées « faciles » ont été supprimées, en se servant d’autres modèles Llama comme juges. L’étape intermédiaire d’apprentissage par renforcement (RL) est restée entière, bien qu’avec des prompts « plus difficiles ».

Concernant Behemot, Meta a appliqué une version extrême de cette recette, puisque 95 % des données « faciles » ont été élaguées pour la phase SFT. « Nous avons également constaté que l’exécution d’un SFT léger suivi d’un apprentissage par renforcement (RL) à grande échelle produisait des améliorations encore plus significatives dans les capacités de raisonnement et de codage du modèle », affirme Meta.

Même l’étape d’apprentissage par renforcement a nécessité des travaux. L’entreprise dit avoir dû passer par une refonte de son infrastructure : nouvelle conception de la parallélisation MoE pour des itérations plus rapides et un nouveau cadre asynchrone pour l’apprentissage par renforcement. Pour ce dernier, Meta dit avoir développé un système d’allocation flexible des modèles à des GPU distincts. Cette amélioration aurait « multiplié par 10 l’efficacité de l’entrainement », comparé à l’ancienne méthode qui consistait à « empiler tous les modèles en mémoire ».

Meta précise enfin que tous les entrainements de Llama 4 ont été réalisés en précision FP8. Dans le cas de Behemot, l’entreprise s’est servie de 32 000 GPU, avec un niveau de performances de 390 TFLOPS par GPU. La réserve de données, même après le fameux élagage, représentait 30 000 milliards de jetons, plus du double de ce qui avait été utilisé pour Llama 3.

Des réponses « utiles »

Les trois nouveaux modèles annoncés sont « classiques » : ils n’opèrent aucun raisonnement. Les comparaisons sont donc d’autant plus intéressantes, surtout dans le cas de Behemot sur des domaines comme les mathématiques et le développement logiciel. Reste à savoir bien sûr le type de coût qu’un modèle aussi volumineux peut engendrer. Surtout quand la concurrence, notamment DeepSeek-V3-0324, commence à mettre un accent plus prononcé sur l’efficacité.

Meta, en tout cas, indique avoir tout mis en œuvre pour que ses modèles fournissent des réponses utiles et « factuelles ». Toutes les variantes de Llama 4 auraient été réglées pour refuser moins souvent de répondre à des questions plus « litigieuses ». Une précision intéressante, et qui rejoint Anthropic dans sa communication : c’était l’un des changements mis en avant au lancement de Claude Sonnet 3.7 fin février. Deux semaines plus tôt, OpenAI annonçait des changements en ce sens dans la manière d’entrainer ses modèles. On pourrait y voir une influence de xAI et de son Grok, qui se veut effronté dans ses réponses.

« Vous pouvez compter sur [Llama 4] pour fournir des réponses utiles et factuelles sans porter de jugement. Nous continuons à rendre Llama plus réactif afin qu’il réponde à plus de questions, qu’il puisse répondre à une variété de points de vue différents […] et qu’il ne favorise pas certains points de vue par rapport à d’autres », a ainsi déclaré Meta à TechCrunch.

Quid de la disponibilité ?

Techniquement, les nouveaux modèles Llama 4 Scout et Maverick sont disponibles depuis le site dédié et Hugging Face. Plus précisément, ce sont les modèles Llama-4-Scout-17B-16E, Llama-4-Scout-17B-16E-Instruct, et Llama 4-Maverick-17B-128E-Instruct-FP8. Ces modèles alimentent même déjà Meta AI pour WhatsApp, Messenger et Instagram pour tout ce qui touche aux conversations (du moins, sur les conversations non chiffrées de bout en bout). Les nouveaux modèles sont également disponibles dans Azure AI Foundry de Microsoft.

Mais en Europe, la situation est plus complexe. La licence associée aux modèles Llama 4 n’exclut pas les utilisateurs finaux. Ces derniers devraient donc avoir les mêmes capacités sur Meta AI que dans les autres pays où l’assistant est présent. En revanche, les personnes physiques et morales (donc les entreprises) européennes n’ont pas le droit d’accéder aux modèles.

« En ce qui concerne les modèles multimodaux inclus dans Llama 4, les droits accordés en vertu de la section 1(a) de l’accord de licence communautaire Llama 4 ne vous sont pas accordés si vous êtes une personne physique domiciliée dans l’Union européenne ou une société dont le siège social se trouve dans l’Union européenne. Cette restriction ne s’applique pas aux utilisateurs finaux d’un produit ou d’un service qui intègre de tels modèles multimodaux », indique Meta.

On retrouve une fois de plus les tensions entre Meta et l’Europe, l’entreprise ayant largement critiqué cette dernière pour ses « incertitudes réglementaires ». Elle a fustigé plus d’une fois le DMA (notamment à cause de ses abonnements supprimant la publicité), mais s’en est également prise à l’AI Act, main dans la main avec Spotify. Mais en attendant que la situation se détende, malgré un contexte géopolitique toujours plus complexe, ni les entreprises ni les chercheurs européens ne peuvent officiellement mettre la main dessus.

Ajoutons enfin que, dans le reste du monde, les applications et services tirant parti de Llama 4 devront afficher une mention « Built with Llama ».

❌
❌