Vue lecture

Comment une fausse maladie a trompé les chatbots et infiltré la littérature scientifique

santé médecine

La bixonimanie n’existe pas, mais des articles de blogs et des prépublications sur cette maladie inventée par une chercheuse en médecine ont suffi à tromper plusieurs intelligences artificielles conversationnelles et à s’introduire dans un article scientifique officiel, soulevant d'inquiétantes questions sur la vérification des données à l’ère de la démocratisation de l’IA.

  •  

GitHub fait machine arrière et va bien entraîner ses IA sur vos données

GitHub change son fusil d'épaule. Après avoir laissé planer un temps l’idée que les données de ses utilisateurs serviraient avant tout à améliorer Copilot sans forcément être réinjectées dans les modèles d’IA, la plateforme annonce désormais qu’elles seront bel et bien utilisées pour entraîner ses IA, à certaines conditions.

  •  
❌