Vue normale

Reçu — 13 février 2026 Next - Articles gratuits

Meta prévoit toujours d’intégrer la reconnaissance faciale à ses lunettes connectées

13 février 2026 à 15:23
« Les faits divers, ce sont aussi des faits qui font diversion »
Meta prévoit toujours d’intégrer la reconnaissance faciale à ses lunettes connectées

Meta travaille toujours à une fonctionnalité de reconnaissance faciale dédiée à ses lunettes connectées. Baptisée « Name Tag », elle mettrait à profit les algorithmes de Meta IA pour identifier automatiquement les gens regardés par le porteur. Un document interne révèle que le groupe s’est posé la question de lancer cette fonctionnalité dans une période d’actualité troublée, pour limiter les risques d’oppositions…

Meta et Facebook ont-ils vraiment tourné un jour la page de la reconnaissance faciale ? Abandonnée officiellement fin 2021, les algorithmes dédiés ont fait leur retour par la petite porte sur Facebook en 2024, en se limitant à de la détection de fraude publicitaire ou à la récupération de comptes compromis.

Le sujet a tout de même continué à faire son chemin au sein des Reality Labs, la division de Meta qui planche sur les applications de réalité virtuelle ou augmentée et développe les équipements matériels associés, à commencer par les fameuses lunettes Ray-Ban Meta.

Mieux vaut lancer une fonction controversée en période de troubles

Le New York Times a en effet révélé vendredi l’existence d’un mémo interne à Meta, daté de 2025, qui interroge l’opportunité du lancement d’une fonction de reconnaissance faciale sur les lunettes connectées Meta. La fonction – nom de code baptisée Name Tag – aurait pour objet de permettre la détection automatique des personnes entrant dans le champ de vision du porteur.

Ce document interne émanant des Reality Labs témoigne d’un certain cynisme dans l’étude du calendrier de déploiement : « Nous procéderons au lancement au cours d’une période de contexte politique dynamique, pendant laquelle les divers groupes de la société civile susceptibles de nous attaquer auront concentré leurs ressources sur d’autres préoccupations ».

La récente volte-face d’Amazon sur l’utilisation des caméras Ring à des fins de détection à grande échelle illustre, s’il en était besoin, à quel point la reconnaissance faciale crispe les défenseurs de la vie privée, à plus forte raison quand elle est mise en œuvre sur un dispositif aussi discret qu’une paire de lunettes.

Le sujet s’est d’ailleurs récemment invité dans l’actualité politique aux États-Unis. Plusieurs médias ont révélé, fin 2025, que le Service de l’immigration et des douanes (le désormais tristement célèbre ICE) utilisait une application de reconnaissance faciale pour vérifier l’identité des personnes que ses agents contrôlaient dans la rue.

Un argument commercial

Du côté de Meta, les motivations seraient plutôt d’ordre commercial. D’après des personnes proches du dossier citées par le New York Times, Mark Zuckerberg chercherait principalement à développer et implémenter des fonctionnalités capables de faire la différence par rapport aux solutions concurrentes. Outre les lunettes Spectacles de Snap, la rumeur prête en effet à OpenAI et probablement d’autres acteurs l’intention d’investir le terrain des « appareils IA » à porter sur soi, et Meta chercherait donc à garder une longueur d’avance.

Dans ce contexte, le fonctionnement de la reconnaissance faciale serait encadré, pour se limiter par exemple aux personnes avec qui le porteur est déjà en relation sur Facebook, ou pourquoi pas aux utilisateurs qui disposent d’un profil public sur Instagram. Interrogé par le quotidien, Meta a botté en touche, se contentant d’affirmer que le groupe adopterait « une approche réfléchie avant de lancer quoi que ce soit ».

Une chose semble sure : la réflexion est déjà bien engagée, et ne date pas d’hier. Les nouvelles informations du New York Times corroborent en effet celles de The Information, qui indiquait déjà en mai 2025 avoir eu vent de projets en cours au sein des Reality Labs.

Hasard du calendrier, l’information filtre alors qu’EssilorLuxottica, le grand partenaire de Meta autour des lunettes connectées, vient de publier ses résultats financiers, qui témoignent d’une croissance à deux chiffres sur l’année 2025. Une première dans l’histoire du groupe constitué en 2018, s’est félicité jeudi la direction du lunetier qui attribue une partie de son succès aux lunettes Ray-ban Meta. Il indique en effet avoir vendu 7 millions de paires connectées en 2025, contre 2 millions en 2024, et vise une capacité de production de 10 millions de paires par an d’ici à 2026, à la fois pour Ray-Ban Meta mais aussi pour Nuance Audio, ses lunettes dédiées aux malentendants.

Finalement, le gouvernement prévoit de donner la régulation de l’IA à la CNIL

13 février 2026 à 14:44
Veni vidi vici ?
Finalement, le gouvernement prévoit de donner la régulation de l’IA à la CNIL

Alors que le projet de loi « portant diverses dispositions d’adaptation au droit de l’Union européenne » va passer devant le Sénat, le gouvernement a proposé un amendement qui prévoit que la CNIL prenne la main sur la régulation de l’IA en France. L’Arcom ne devrait jouer qu’un second rôle.

La CNIL semble avoir gagné la bataille d’influence dans la régulation de l’IA. En tout cas, c’est le sens que prend un amendement déposé par le gouvernement dans le projet de loi qui prévoit, entre autres, d’adapter le droit français à l’AI Act.

Ce projet de loi « portant diverses dispositions d’adaptation au droit de l’Union européenne » a été déposé au Sénat en novembre dernier par le gouvernement en engageant la procédure accélérée.

Le législateur doit notamment décider quelle institution sera chargée, en France, de la régulation de l’intelligence artificielle prévue par le règlement européen.

Intense bataille entre potentiels régulateurs

Depuis 2023, et donc avant même le vote du texte européen, la CNIL essaye de faire sienne cette place de régulateur de la technologie, devenue centrale politiquement et économiquement ces dernières années. Après avoir écarté les divers comités créés par l’exécutif ces dernières années, la CNIL avait obtenu l’appui de certains députés en 2024, à condition qu’elle se transforme.

L’ARCOM et le ministère de l’Économie, via la DGCCRF, essayaient aussi de prendre l’ascendant sur ce dossier. Les trois organisations avaient mis en avant, en juin 2024, la signature d’une « convention de coopération » entre elles pour la mise en œuvre du règlement européen sur les services numériques.

En septembre dernier, Bercy semblait avoir pris l’ascendant et communiquait pour assurer que « la DGCCRF, experte de la surveillance de marché et accomplie dans la collaboration avec d’autres régulateurs, ainsi que la DGE, représentante de la France au Comité européen de l’IA, coordonneraient les actions des autorités ». Le ministère de l’Économie diffusait aussi un « schéma de gouvernance des autorités de surveillance de marché » sur lequel la DGCCRF, avec la DGE, était clairement aux manettes :

Mais finalement, le gouvernement a choisi la CNIL comme autorité chargée d’assurer la mise en œuvre de l’AI Act sur le sol français. De fait, le texte initial du projet de loi présenté au Sénat n’avait pas tranché la question.

Selon nos confrères de Contexte, le Conseil d’État estimait que le schéma prévu par Bercy risquait « d’enfreindre la règle du « non bis in idem » », c’est-à-dire l’impossibilité de double sanction. En effet, selon l’institution, le plan prévu par le ministère de l’Économie risquait de mettre en place des doubles affectations d’autorités sur certaines catégories d’IA. Le gouvernement a donc dû revoir sa copie.

La CNIL ramasse la mise

Finalement, l’amendement au texte qu’il a déposé ce jeudi 12 février veut modifier la loi Informatique et libertés de 1978 pour donner de nouvelles compétences à la CNIL, qui devra « assurer la mise en œuvre effective » de l’AI Act.

L’autorité aura aussi à charge le contrôle des pratiques d’intelligence artificielle interdites. Sur la notation sociale, elle partagera cette charge de contrôle avec la DGCCRF.

Elle se voit aussi confier « le contrôle du respect des obligations de transparence applicables à certains systèmes d’intelligence artificielle, notamment ceux mettant en œuvre des dispositifs de reconnaissance des émotions ou de catégorisation biométrique », comme l’explique le gouvernement dans l’objet de son amendement.

La CNIL est également désignée comme autorité compétente à l’égard des obligations de transparence de certains systèmes d’intelligence artificielle au sens de l’article 50 du même règlement, qui obligera les contenus générés par IA à être labellisés comme tels.

Elle est désignée comme organisme notifié qui doit intervenir pour « l’évaluation du système de gestion de la qualité et de l’évaluation de la documentation technique » des systèmes d’IA considérés comme à « haut risque » par le règlement européen concernant les systèmes d’identification biométrique, de décisions relatives au travail (emploi, recrutement…) et « certaines applications relevant de la répression, des contrôles aux frontières ou de la gestion des migrations ». Même chose concernant les systèmes à haut risque dans l’éducation, mais la DGCCRF récupère la compétence sur les systèmes concernant la formation professionnelle.

Dans ce texte, l’Arcom ne retrouve plus qu’un rôle de consultation lorsque les systèmes d’intelligence artificielle concernés présentent un lien direct avec les processus démocratiques.

« Il y a quelques incertitudes sur les périmètres respectifs des uns et des autres », a quand même estimé la rapporteure du texte Marie-Lise Housseau (UC) auprès de nos confrères de Contexte, alertée par l’Arcom. La sénatrice pourrait proposer quelques modifications pour éclaircir les choses.

Le Sénat doit examiner le texte en séance publique lundi 16 février.

Le procès de l’addiction aux réseaux sociaux débute en Californie

13 février 2026 à 11:21
16 heures par jour sur Instagram, de l'addiction ?
Le procès de l’addiction aux réseaux sociaux débute en Californie

Auditionné devant un grand jury chargé d’arbitrer si les réseaux sociaux encouragent sciemment leurs utilisateurs à une consommation excessive, le patron d’Instagram a estimé que ces usages irraisonnés pouvaient se révéler problématiques, mais ne relevaient pas d’une addiction au sens clinique du terme. Y compris dans le cas emblématique de Kaley, une plaignante âgée de 20 ans, capable de passer 16 heures en une journée sur son application.

La cour supérieure de justice de Los Angeles a débuté cette semaine l’examen de l’affaire qui oppose Kaley G. M., une jeune fille de 20 ans accompagnée par sa mère, aux principales grandes plateformes du marché. Elle accuse Meta, Google, Snap et TikTok d’avoir sciemment développé et entretenu des mécaniques visant à encourager une consommation effrénée de leurs différents réseaux sociaux, et soutient que l’addiction qui en découle est la cause de ses troubles psychiatriques et physiologiques : anxiété, dépression, dysmorphophobie, etc.

Une affaire qui devrait faire des vagues

Si les débats, programmés pour une durée de six semaines face à un jury populaire, s’annoncent particulièrement retentissants, c’est notamment parce que Adam Mosseri, patron d’Instagram, Mark Zuckerberg, CEO de Meta et Neal Mohan, en charge de YouTube chez Alphabet, sont attendus à la barre. Or les avocats de YouTube et de Meta ont déjà annoncé, au cours de leur déclaration liminaire, qu’ils s’attacheraient à démontrer que les troubles cliniques de la jeune fille découlent de ses antécédents et de facteurs sociaux, notamment familiaux.

Mark Lanier, l’avocat qui défend la plaignante, affirme quant à lui vouloir démontrer que les réseaux sociaux provoquent et entretiennent l’addiction chez les jeunes publics, et cette démarche volontaire s’incarne selon lui dans le swipe, ce geste qui consiste à balayer l’écran pour passer, sans fin, d’une publication à l’autre. Dans sa propre déclaration liminaire, il compare cette mécanique à celle du jeu d’argent. « Pour une enfant comme Kaley, ce geste est comparable à celui de manipuler une machine à sous. Mais à chaque fois qu’elle utilise son appareil, ce n’est pas pour gagner de l’argent, mais pour se stimuler mentalement ».

Également mis en cause, Snap et TikTok ont préféré négocier un accord confidentiel avec la partie plaignante. Meta et Google semblent quant à eux décidés à aller à l’affrontement, ce qui signifie que les deux entreprises espèrent une jurisprudence. D’après CNN, l’issue du « procès KGM » pourrait ainsi avoir une influence sur quelque 1 500 poursuites engagées aux États-Unis contre les plateformes sociales !

Outre les plaintes de particuliers, Meta fait pour mémoire l’objet de poursuites engagées par 41 États américains en 2023 suite aux révélations de la lanceuse d’alerte Frances Haugen qui dénonçait précisément, deux ans plus tôt, les pratiques problématiques du groupe en matière d’entretien de l’addiction des jeunes publics.

Certains lanceurs d’alerte devraient justement être appelés à témoigner. La partie civile a également affirmé qu’elle produirait des emails internes à Meta et Google illustrant comment les deux entreprises faisaient du temps passé sur leurs plateformes sociales un indicateur clé de performance.

Adam Mosseri, patron d’Instagram, premier sur le grill

Mercredi, c’est donc Adam Mosseri, patron d’Instagram au sein du groupe Meta, qui a ouvert le bal des témoignages en se livrant à un délicat exercice d’équilibrisme. D’après le rapport fait par le New York Times, Mosseri a en effet admis que les réseaux sociaux pouvaient se révéler préjudiciables pour la santé mentale de jeunes publics, tout en affirmant qu’Instagram prenait toutes les mesures appropriées pour vérifier l’impact potentiel de ses nouvelles fonctionnalités avant de les déployer.

Il a dans le même temps tenu à formuler une distinction entre addiction et usage problématique, expliquant que cette qualification dépendait de la personne concernée, et non de la plateforme éditrice.

« Il est important de faire la distinction entre dépendance clinique et usage problématique, a-t-il déclaré selon la BBC. Je suis certain d’avoir déjà dit que j’étais accro à une série Netflix après l’avoir regardée en boucle très tard un soir, mais je ne pense pas que ce soit la même chose qu’une dépendance clinique ».

La partie civile a saisi la balle au bond, en demandant à Mosseri son avis sur la session la plus longue sur Instagram déclarée par la jeune fille, soit 16 heures sur une seule journée. « Cela ressemble à une utilisation problématique », a répondu l’intéressé, qui a par ailleurs affirmé ne pas avoir eu connaissance des 300 signalements pour harcèlement formulés par la plaignante.

Un filtre « chirurgie esthétique » en question

L’avocat de la jeune fille a également attaqué Mosseri sur les « filtres beauté » proposés par l’application, ces outils qui permettent de modifier certains éléments du physique de l’internaute lors d’une prise de photos. Copie de documents internes à l’appui, il a montré que Mosseri et Zuckerberg avaient en 2019 levé l’interdiction relative à un filtre mimant les effets d’une chirurgie esthétique. « On nous reprocherait à juste titre de privilégier la croissance au détriment de la responsabilité », arguait cependant Nick Clegg, ancien responsable des affaires publiques de Meta, dans ces échanges.

Le problème soulevé par ces filtres n’est pas nouveau. En 2024, TikTok a par exemple pris le parti d’interdire l’accès à certains filtres aux moins de 18 ans, en réaction à la publication d’un rapport de l’ONG britannique Internet matters, qui relevait « un consensus » parmi les adolescentes et adolescents interrogés sur le fait que « les filtres de beauté contribuent à une vision du monde déformée, dans laquelle les images améliorées deviennent la norme tandis que les présentations réalistes sont plus rares ». 


Suite à ces passes d’armes, l’avocat de Meta s’est quant à lui attaché à montrer qu’Instagram a, au cours des dernières années, déployé de nombreuses mesures et fonctionnalités visant à protéger les jeunes publics, qui disposent depuis l’an dernier d’un statut particulier au sein de l’application.

Liberté d’expression contre négligence

Le LA Times rappelle qu’en dépit des controverses régulières, les grandes plateformes sont toujours protégées par le fameux article 230 de la loi de 1996, qui les exonère de toute responsabilité quant au contenu publié par les utilisateurs, un rempart qui s’ajoute au fameux Premier amendement de la constitution garantissant la liberté d’expression. Tout l’enjeu pour les plaignants consiste, dans ce contexte, à identifier des leviers détournés, permettant par exemple d’attester une négligence ou une preuve tangible de tentative de manipulation, pour rétablir cette responsabilité.

Mistral effectue un premier investissement hors de France, en Suède

13 février 2026 à 10:09
Ventil
Mistral effectue un premier investissement hors de France, en Suède

L’entreprise d’IA générative française a annoncé qu’elle allait investir 1,2 milliard d’euros en Suède pour un projet de datacenters. Cette annonce est le premier investissement de la startup française hors de France. Il doit augmenter, à terme, les capacités de calcul globales de Mistral de 50 % dès 2027, si tout va bien.

Ce mercredi 11 février, Mistral a annoncé investir 1,2 milliard d’euros pour la construction de centres de données à Borlänge, en Suède. L’entreprise affirme dans son communiqué que cite l’AFP que l’investissement «comprend le développement de data centers spécialisés en intelligence artificielle, de capacités de calcul avancées et de solutions d’IA localisées» sans plus de détails techniques.

Le tout doit être mis en service en 2027 et doit permettre à Mistral d’augmenter ses capacité de 50 %, explique la Tribune.

Mistral s’insère dans un projet déjà en cours de l’acteur local EcoDataCenter

De fait, les datacenters de Mistral actuellement sur le territoire français demandent une puissance de 40 mégawatts. Ici, le nouveau projet de la startup française demandera 23 mégawatts sur le réseau électrique suédois. L’entreprise d’Arthur Mensch explique qu’elle ne se lance pas toute seule dans ce projet à l’étranger. Elle va en effet s’appuyer sur l’entreprise locale EcoDataCenter dont le projet à Borlänge a été lancé en 2025.

L’investissement de 1,2 milliard d’euros semble supérieur à ce qui est généralement pratiqué. Mistral confirme cependant à Next : « notre investissement en Suède correspond bien à une puissance énergétique de 23MW » sans plus de précision sur ce que recouvre l’accord. EcoDataCenter a déjà un premier data site qui se situe à Falun qui demande une puissance de 80MW. Son projet à Borlänge est de 240MW selon son site web. Ainsi, Mistral devrait prendre un dixième du site en construction. L’entreprise suédoise précisait même dans un communiqué en septembre dernier que le projet pourrait bénéficier ensuite d’une extension pour aller jusqu’à 600 MW.


Afficher une carte plus grande

EcoDataCenter indique que le datacenter hébergera des GPU Vera Rubin de dernière génération de NVIDIA.

Arthur Mensch a justifié ce choix de la Suède au Financial Times en affirmant que l’énergie y était « à la fois peu polluante et relativement bon marché ».

En février dernier, l’entreprise avait annoncé implanter un data center en Essonne à Bruyères-le-Châtel, hébergé par Eclairion et qui utilisait une puissance de 40 mégawatts.

Selon Le Mag IT, les deux infrastructures seront aussi utilisé pour l’offre « Compute » de Mistral qui propose des services d’hébergement pour d’autres acteurs d’IA.

Mistral, un chiffre d’affaire annualisé de 400 millions de dollars

« Nous diversifions et répartissons nos capacités à travers l’Europe », a-t-il déclaré aussi à nos confrères, « L’Europe a pris conscience que sa dépendance vis-à-vis des services numériques américains était excessive et avait atteint aujourd’hui un point critique. Nous leur apportons un avantage concurrentiel, car nous leur fournissons des modèles, des logiciels et des capacités de calcul totalement indépendants des acteurs américains ».

« Il s’agit en fait d’une activité assez prévisible, ce qui explique le fort intérêt pour la souscription d’investissements dans les infrastructures » assure-t-il encore et il prévoit que le nouveau site générerait plus de 2 milliards d’euros de revenus au cours des cinq prochaines années.

Le responsable de l’entreprise en a profité pour expliqué à nos confrères britanniques que le chiffre d’affaires annualisé de Mistral (calculé en multipliant par 12 le chiffre du dernier mois) dépassait les 400 millions de dollars, 20 fois plus qu’un an avant. Il espère pouvoir dépasser le milliard annuel d’ici la fin de l’année.

Rappelons qu’en septembre dernier ASML avait pris 11 % de Mistral AI pour 1,3 milliard d’euros sous la forme d’un partenariat stratégique de long terme, de quoi écarter les rumeurs de rachat par Apple qui avaient pu circuler quelques mois avant.

☕️ La tête dans les étoiles : Ariane 64 (4 boosters) décolle, Sophie Adenot va rejoindre l’ISS

13 février 2026 à 08:37

Hier, Ariane 6 a fait son premier vol dans la configuration Ariane 64, c’est-à-dire avec quatre boosters au lieu de deux pour Ariane 62. C’était le premier lancement pour cette configuration qui « double les performances de la fusée par rapport à la version à deux propulseurs qui a déjà volé cinq fois, y compris lors du vol inaugural en 2024 ».

« Ariane 6 peut emporter environ 21,6 tonnes en orbite basse, soit plus du double des 10,3 tonnes atteignables avec deux propulseurs », rappelle l’Agence spatiale européenne. Cela reste loin des 63 tonnes de Falcon Heavy. « Il s’agit de la plus haute Ariane 6 jamais construite. Avec sa coiffe de 20 m, Ariane 64 mesure 62 mètres, soit à peu près la hauteur d’un immeuble de 20 étages », ajoute-t-elle. La fusée embarquait 32 satellites Amazon Leo, déposés sur les bonnes orbites.

Les temps forts du lancement sont disponibles dans cette vidéo de quatre minutes de l’ESA.

Un lancement peut en cacher un autre. Après des reports à cause de la météo, la mission Crew-12 à bord de la capsule Crew Dragon de SpaceX devrait décoller ce matin (11h15 heure de Paris) direction la Station spatiale internationale.

À son bord, quatre membres d’équipage : les astronautes américains de la NASA Jessica Meir et Jack Hathaway, le cosmonaute russe de Roscosmos Andrey Fedyaev et enfin la Française de l’ESA Sophie Adenot. Elle avait, pour rappel, été sélectionnée début 2024. Nom de code de sa mission qui doit durer neuf mois : Epsilon.

« Elle y effectuera plus de 200 expériences dont plusieurs ont été préparées et seront suivies par le Cadmos, le Centre d’aide au développement des activités en micropesanteur et des opérations spatiales, une entité du CNES basée à Toulouse. L’une de ces expériences françaises sera dédiée à la jeunesse : ChlorISS sera réalisée simultanément par Sophie Adenot dans l’ISS et par 4500 classes dans toute la France », explique le CNES.

Il sera possible de suivre le lancement en direct sur la chaine YouTube de l’ESA par exemple :

Digital Omnibus : l’EDPS et l’EDPB s’opposent à la redéfinition des données personnelles

13 février 2026 à 08:14
Pas de personnalisation des données personnelles
Digital Omnibus : l’EDPS et l’EDPB s’opposent à la redéfinition des données personnelles

Dans une communication conjointe, le contrôleur et le comité européens de la protection des données (EDPS et EDPB) se prononcent clairement contre la redéfinition des données personnelles proposées par la Commission européenne dans le cadre de son Digital Omnibus. En janvier, ils appelaient aussi à diverses précautions en matière de réécriture du règlement sur l’IA.

En matière d’omnibus numérique, le contrôleur et le comité européens de la protection des données (EDPS et EDPB en anglais, CEPD en français) sont on ne peut plus clairs : ils estiment toute tentative de redéfinir ce qui constitue une donnée personnelle comme un danger. Dans un communiqué conjoint, les deux entités appellent « fortement les colégislateurs à ne pas adopter les modifications (…) proposées » en la matière (voir aussi le résumé, en français, qu’en propose la CNIL).

Si la redéfinition de ce qui constitue une donnée personnelle a pu être décrite comme le simple fait d’ancrer dans la loi une interprétation déjà donnée par la Cour européenne, l’EDPS et l’EDPB déclarent que les modifications proposées iraient en réalité « bien au-delà ».

Dans son arrêt SRB du 4 septembre 2025, la Cour de justice de l’Union européenne considérait en effet que des données pseudonymisées pouvaient être considérées comme n’étant pas des données personnelles pour leur destinataire si des mesures techniques et organisationnelles étaient prises pour l’empêcher d’accéder à des éléments identifiant, et si ce destinataire ne pouvait légalement mettre la main sur des éléments lui permettant de ré-identifier les personnes concernées, ou transmettre les données à un tiers à même d’opérer cette ré identification.

Dans leur communication conjointe de ce 11 février, l’EDPS et l’EDPB déclarent qu’en l’état, le Digital Omnibus propose une redéfinition de la nature d’une donnée personnelle bien plus large que la simple intégration de cet arrêt. « La simplification est essentielle pour réduire les formalités administratives et renforcer la compétitivité de l’Union, mais pas aux dépens des droits fondamentaux », déclare Anu Talus, la directrice de l’EDPB. Une position qui fait écho à celle d’entités de défense des droits numériques comme noyb (qui salue leur décision), ou l’organisation European Digital Rights (EDRi).

Maintenir un registre des systèmes d’IA à haut risque

En matière d’intelligence artificielle, l’EDPS et l’EDPB soulignent de nouveau leur scepticisme vis-à-vis de l’intégration, au sein du RGPD, d’un fondement légal à l’usage de données personnelles pour le développement et le déploiement de systèmes d’IA. En janvier, dans une communication conjointe spécifiquement dédiée à la partie du Digital Omnibus visant le règlement en cours d’application sur l’intelligence artificielle (RIA ou AI Act), elles convenaient là aussi du besoin de répondre à quelques enjeux concrets, mais insistaient sur le besoin de préserver les droits fondamentaux.

En pratique, elles contestaient la proposition de supprimer l’obligation d’enregistrer les systèmes à haut risque dans un registre public – proposition soutenue notamment par les lobbies des géants numériques américains. À défaut, elles estiment que cette évolution « abimerait significativement la responsabilité et créerait une incitation indésirable pour les fournisseurs à demander des exemptions pour éviter l’examen public ».

L’EDPS et l’EDPB appelaient par ailleurs à préciser la possibilité d’utiliser des données personnelles comme l’origine ethnique ou des données de santé pour de la détection et de la correction de biais « uniquement dans les situations circonscrites où les risques d’effets adverses provoqués par ces biais sont considérés suffisamment sérieux ».

Bacs à sable réglementaires et gestion des cookies

L’EDPS et l’EDPB saluent aussi plusieurs propositions d’intérêt dans les deux omnibus. Côté IA, elles soulignaient en janvier l’intérêt des bacs à sable réglementaires de niveau européen, permettant de « promouvoir l’innovation ». Elles recommandaient d’y faire directement participer les autorités de protection des données compétentes.

Côté Digital Omnibus, les deux entités saluent les modèles et listes communes proposées pour auditer les impacts en termes de protection des données en cas de fuites. Elles appellent néanmoins à augmenter les seuils de risques en fonction desquels la notification aux autorités de protection des données devient obligatoire et à allonger le délai de notification.

Elles soutiennent l’harmonisation de la notion de « recherche scientifique » dans les textes, et le projet d’amender la directive ePrivacy pour trouver des solutions à la « consent fatigue », c’est-à-dire à la multiplication des bannières de gestion des cookies demandant à un même internaute s’il ou elle consent à partager ses données.

Anthropic lève 30 milliards de dollars et se voit valorisée à 380 milliards

13 février 2026 à 07:14
Anthropic mange à tous les râteliers
Anthropic lève 30 milliards de dollars et se voit valorisée à 380 milliards

Pour son septième tour de table, Anthropic lève 30 milliards de dollars et voit sa valorisation doublée par rapport à septembre. Le père de l’IA générative Claude annonce une projection de son chiffre d’affaires annuel à 14 milliards de dollars, dont 2,5 milliards pour Claude Code.

30 milliards et les usual suspects

Six mois après son dernier tour de table (13 milliards de dollars en septembre 2025), Anthropic remet le couvert : la société éditrice des modèles Claude a annoncé le 12 février une levée de fonds en série G (c’est-à-dire son septième tour de financement après l’amorçage initial) de 30 milliards de dollars. L’opération se fait sur la base d’une valorisation d’entreprise fixée à 380 milliards de dollars, contre 183 milliards en septembre dernier.

La valeur d’Anthropic a donc plus que doublé pour la longue liste des participants à cette levée de fonds. Le tour est emmené par les fonds GIC et Coatue, avec en deuxième ligne D. E. Shaw Ventures, Dragoneer, Founders Fund, ICONIQ, et l’émirati MGX, par ailleurs impliqué dans le projet Campus IA de Fouju, en région parisienne.

Derrière ces fonds figure encore une longue liste d’investisseurs, parmi lesquels Baillie Gifford (aussi chez GraphCore), BlackRock (bien implanté dans l’IA), Blackstone (présent au Royaume-Uni avec un datacenter IA), D1 Capital Partners, Qatar Investment Authority… ainsi que les usual suspects du financement de la Silicon Valley (Sequoia Capital, Menlo Ventures, Lightspeed Venture Partners) et plusieurs grandes banques (PMorganChase et Goldman Sachs).

Le tour intègre par ailleurs une partie des financements qui avaient déjà été promis par Microsoft et NVIDIA dans le cadre de l’accord stratégique de novembre dernier.

Chiffre d’affaires annuel estimé (run-rate) : 14 milliards de dollars

Anthropic profite de cette annonce pour afficher une projection de chiffre d’affaires annuel, calculée à partir de ses rentrées d’argent actuelles, à 14 milliards de dollars, contre un peu plus d’un milliard de dollars en janvier 2025.

Anthropic revendique un run-rate revenue (projection de chiffre d’affaires basée sur ses résultats actuels) à 14 milliards de dollars annuels

L’indicateur ne tient pas compte des perspectives de croissance envisagées pour la suite (le véritable nerf de la guerre, puisque ce sont elles qui devront à terme compenser les dépenses). À défaut de valeurs absolues quant à ses clients ou son chiffre d’affaires mensualisé, Anthropic revendique un x7 en 2025 sur le nombre de clients dépensant plus de 100 000 dollars par an (valeur déjà avancée en septembre dernier lors de son précédent tour de table). Le nombre de clients consommant plus d’un million de dollars par an serait supérieur à 500.

Claude Code se présente comme l’un des contributeurs majeurs à cette dynamique : son chiffre d’affaires annuel projeté s’établirait aujourd’hui à 2,5 milliards de dollars, un montant qui aurait doublé depuis le 1ᵉʳ janvier dernier, tout comme le nombre d’utilisateurs enregistrés. Plus de la moitié de ce chiffre d’affaires émane des entreprises, indique Anthropic.

La levée de fonds alimentera les besoins en fonds de roulement de la société (et donc le développement de ses futurs modèles), ainsi que son approvisionnement en infrastructures. Sur ce point, l’entreprise dirigée par Dario Amodei prend soin de souligner qu’elle ne dépend d’aucun partenaire de façon exclusive.

« Claude demeure le seul modèle d’IA de pointe disponible pour les clients sur les trois plus grandes plateformes cloud au monde : Amazon Web Services (Bedrock), Google Cloud (Vertex AI) et Microsoft Azure (Foundry). Nous entraînons et exécutons Claude sur une gamme diversifiée de matériel d’IA (AWS Trainium, Google TPU et GPU NVIDIA), ce qui nous permet d’adapter les charges de travail aux puces les mieux adaptées. Cette diversité de plateformes se traduit par de meilleures performances et une plus grande résilience pour les entreprises clientes qui dépendent de Claude pour leurs tâches critiques. »

❌