Vie privée, effets sur les jeunes, violences : Meta va remplacer l’évaluation humaine par l’IA
IA moins de gène

Meta prévoit de confier jusqu’à 90 % des évaluations des risques de ses nouveaux produits à des IA. L’entreprise avait, progressivement, été poussée à mettre en place des équipes d’évaluation de ses nouveaux produits pour atténuer leurs conséquences négatives avant leur mise en place sur le marché.
Les produits de Meta ne sont pas exempts de risques pour leurs utilisateurs, loin s’en faut, que ce soit de problèmes liés à la désinformation, à l’utilisation de données privées ou l’exposition des jeunes à des contenus problématiques. Mais l’entreprise a été poussée par certaines instances de régulation comme la Federal Trade Commission à mettre en place quelques gardes fous.
Le scandale Cambridge Analytica a aussi eu un petit effet. À l’époque, l’entreprise avait étendu son programme de recherche de bugs (bug bounty) aux utilisations frauduleuses de données par des applications tierces, par exemple.
De même, dès 2019, l’entreprise a mis en place une « red team » spécialisée sur l’IA, racontait Forbes. En 2023, pour la sortie de Llama 2, les chercheurs de Meta expliquaient avoir travaillé avec 350 personnes pour atténuer les risques, « y compris des experts en cybersécurité, fraude électorale, désinformation dans les médias sociaux, droit, politique, droits civils, éthique, génie logiciel, apprentissage automatique, IA responsable et création littéraire », précisaient-ils.
Automatisation de 90 % des évaluations de risques
L’entreprise prévoirait désormais d’automatiser jusqu’à 90 % des évaluations de risques, selon des documents internes obtenus par le média public américain NPR.
Selon nos confrères, les modifications des algorithmes des différents réseaux sociaux de Meta, les nouveaux dispositifs de sécurité ou les éventuels changements de règles de partages des contenus sur les plateformes de l’entreprise seront approuvés par des systèmes automatisés utilisant de l’intelligence artificielle et ne seront plus débattus en interne par une équipe dédiée.
Dans l’entreprise, ce changement serait vu comme une victoire des responsables produits qui pourront lancer des nouveautés plus rapidement. « Dans la mesure où ce processus signifie fonctionnellement que davantage de produits sont lancés plus rapidement, avec un examen et une opposition moins rigoureux, cela signifie que vous créez des risques plus élevés », explique cependant un ancien responsable de Meta de manière anonyme.
De son côté, l’entreprise assure à la NPR que « l’expertise humaine » sera toujours utilisée pour les « questions nouvelles et complexes » et que seules les « décisions à faible risque » seraient automatisées. Le média étasunien assure que les documents internes qu’il a consultés évoque l’automatisation de domaines sensibles comme la sécurité des IA, les risques pour les jeunes, et ce que l’entreprise appelle « intégrité » qui englobe les contenus violents et les fausses informations.
Obligée par le DSA, Meta maintient une équipe en Europe
Selon les documents consultés par la NPR, le processus de validation que Meta met en place passerait dans la plupart des cas par un simple questionnaire sur le projet. Les équipes produits recevront une « décision instantanée » automatisée identifiant les risques et les moyens d’y remédier.
Interrogé par NPR, l’ancien directeur du service « Innovation responsable » de Facebook, Zvika Krieger explique que « la plupart des chefs de produit et des ingénieurs ne sont pas des experts en matière de protection de la vie privée et ce n’est pas l’objet de leur travail. Ce n’est pas ce sur quoi ils sont principalement évalués et ce n’est pas ce qui les incite à donner la priorité à la protection de la vie privée ».
En avril, le prestataire de modération Telus a licencié plus de 2000 personnes à Barcelone après avoir perdu le contrat qui le liait à Meta. Cela dit, selon ses documents internes, l’entreprise de Mark Zuckerberg devrait garder une équipe en Europe (en Irlande, où se situe son siège social pour l’UE) pour prendre des décisions sur le lancement de produits et l’utilisation des données utilisateurs au sein de la zone européenne. Le DSA oblige, en effet, les plateformes à porter une plus grande attention à ces sujets.