DeepSeek publie un nouveau modèle avec 685 milliards de paramètres
Phénomène du début d'année 2025 avec son modèle de réflexion R1, l'entreprise chinoise DeepSeek vient de publier DeepSeek-V3-0324. Ce nouveau LLM open source concurrence GPT-4o et GPT-4.5. Avec 685 milliards de paramètres, il pourrait s'imposer comme une nouvelle offensive de la Chine sur l'intelligence artificielle.