Anthropic et la stratégie marketing de la peur autour de sa nouvelle IA Mythos (2/3)
Fear, Uncertainty & Doubt
Le lancement de Mythos Preview, l’IA dédiée à la cybersécurité d’Anthropic, a défrayé la chronique en surfant sur la peur, l’incertitude et le doute concernant ses capacités de détection des failles de sécurité, et le nombre de vulnérabilités qu’elle pourrait identifier. Certains professionnels de la cybersécurité et de l’IA tempèrent cela dit ce marketing de la peur, voire émettent quelques critiques.
L’intelligence artificielle est un pharmakon tout à la fois susceptible d’empoisonner les systèmes d’information que de tenter les guérir, quand bien même elle semble pour l’instant favoriser les attaquants, comme le souligne la première partie de notre série de trois articles.
La chronologie des progrès fulgurants en matière d’identification des vulnérabilités, voire de développement d’exploits, par des IA, montre que Mythos Preview n’est que la cerise sur le gâteau d’un processus entamé il y a plusieurs années. Ce pourquoi il convient aussi de revenir, au-delà de la « hype », sur les principales critiques qui lui ont été associées.
« Peur, incertitude et doute »
Dans les années 70, le recours par IBM à des discours anxiogènes, voire à de la désinformation, afin de lutter contre la concurrence, avait donné naissance à l’expression « Fear, uncertainty and doubt » (FUD, litt. « peur, incertitude et doute »). Cette rhétorique marketing avait ensuite été notamment utilisée par Microsoft pour diaboliser Linux, accusé d’être un cancer communiste.
Le fait que Mythos Preview, l’IA orientée cybersécurité d’Anthropic annoncée le 7 avril dernier, ait d’ores et déjà identifié « des milliers de vulnérabilités critiques », y compris des failles 0-day, est un indéniable « coup de com’ ». S’il ne relève pas stricto sensu du FUD, dans la mesure où il ne diabolise pas ses concurrents, il a bel et bien généré de la peur, de l’incertitude et du doute.
Une stratégie assumée par Anthropic qui, au motif qu’il serait trop dangereux de le rendre accessible à tout le monde, en a réservé l’accès à une cinquantaine d’entreprises et organisations états-uniennes en charge d’infrastructures logicielles critiques (dont 11 seulement ont été nommées : AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, la Linux Foundation, Microsoft, NVIDIA, et Palo Alto Networks), réunies au sein du projet Glasswing, pour éviter tout risque de prolifération non contrôlée.
Comme nous le relevions la semaine passée, hors États-Unis, seule l’AI Security Institute (AISI), l’organisme britannique dédié à la sécurité de l’IA, a pour l’instant pu l’évaluer. Plusieurs institutions gouvernementales européennes tentent depuis de négocier pour y avoir elles aussi accès, contribuant là aussi à attiser le FUD de ce côté-ci de l’Atlantique au sujet de la suprématie états-unienne, et de l’isolationnisme de l’administration Trump.
Signe de l’ampleur de la fébrilité générée par Mythos : quelques semaines seulement après avoir menacé de black-lister Anthropic, la Maison-Blanche conviait la semaine dernière son CEO Dario Amodei, après que l’administration Trump eut « reconnu le pouvoir » de Mythos, rapporte Axios. Un porte-parole de la Maison-Blanche a confié à Politico que le PDG d’Anthropic y avait rencontré de hauts responsables américains et « évoqué les possibilités de collaboration ».
Selon Bloomberg, l’Office of Management and Budget, en charge des agences fédérales, a déjà informées ces dernières qu’il s’apprêtait à leur donner accès à Mythos, afin qu’elles puissent se préparer. Dans le même temps, Anthropic « affronte l’administration Trump devant les tribunaux pour avoir mis sur liste noire son modèle d’IA Claude », relève CNN.
Il faudra cela dit attendre trois mois pour mesurer l’ampleur des dommages potentiels, Anthropic ayant annoncé qu’elle « rendra compte publiquement dans un délai de 90 jours des enseignements tirés, ainsi que des vulnérabilités corrigées et des améliorations apportées qui peuvent être divulguées ».
« Observant les réactions variées – allant de la panique au déni – à la suite des annonces autour de Mythos », le Conseil de l’intelligence artificielle et du numérique (CIANum), coprésidé par Guillaume Poupard, ex-patron de l’ANSSI, vient de publier une note appelant à « ne pas céder à la panique ambiante », et faisant clairement le lien entre l’annonce de Mythos Preview et le projet d’introduction en bourse d’Anthropic :
« Vanter la “dangerosité” de ses modèles s’ils tombent entre de mauvaises mains est une manière habile de mettre en avant leurs performances et de susciter un vif intérêt, y compris du côté des investisseurs. »
« La méthode n’est pas nouvelle », poursuit le CIANum, qui rappelle qu’en février 2019, OpenAI avait lui aussi affirmé que son modèle GPT 2.0 était « trop dangereux » pour être rendu public, avant de finalement le rendre public six mois plus tard, validant, là encore, la stratégie du FUD :
