Vue normale

Reçu — 3 décembre 2025 Actualités numériques

re:Invent : AWS lance sa famille de LLM Nova 2 et une Forge pour créer ses propres modèles

3 décembre 2025 à 15:59
re:Inventer toujours la même chose
re:Invent : AWS lance sa famille de LLM Nova 2 et une Forge pour créer ses propres modèles

Dans le cadre de sa conférence annuelle re:Invent 2025, AWS a une nouvelle fois annoncé une longue suite d’améliorations liées à l’IA, dont sa famille de modèles Nova 2. De nouveaux agents ont également été présentés, ainsi que le service Forge, qui doit permettre la création de modèles Nova personnalisés.

La grand-messe annuelle d’AWS pour les développeurs bat actuellement son plein à Las Vegas (elle finit le 5 décembre). Comme toujours depuis quelques années, il n’est pratiquement question que d’intelligence artificielle, avec notamment le lancement de la famille Nova 2 pour cette cuvée 2025. On trouve aussi une flopée d’annonces pour les agents, et le lancement de la puce Trainium3 via des offres maison, comme nous l’avons déjà indiqué.

La famille Nova 2 débarque avec quatre modèles

La famille Nova, un lot de modèles maison, revient cette année dans une version 2. Contrairement à l’année dernière où seuls des modèles texte avaient été lancés, AWS couvre cette fois tous les angles.

L’entreprise met particulièrement en avant son Nova 2 Lite, un petit modèle de raisonnement multimodal placé en face de Haiku 4.5 chez Anthropic, GPT 5 Mini chez OpenAI et Gemini 2.5 Flash chez Google (Gemini 3 n’a pour l’instant qu’une version Pro). Ce modèle Lite est présenté comme une alternative solide, pas un vainqueur toutes catégories, même s’il prend la tête dans environ deux tiers des benchmarks présentés.

Si Lite est surtout présenté comme le modèle plus rentable par AWS, d’autres sont présents. On trouve ainsi Nova 2 Pro, orienté vers les tâches complexes, tandis qu’Omni est la version à tout faire, capable de générer tous types de contenus. Ce modèle dispose notamment d’une fenêtre contextuelle d’un million de jetons, prend plus de 200 langues en compte en entrée et une dizaine en sortie. Comme toujours dans ces gammes de modèles, le prix grimpe avec les capacités et le nombre de paramètres.

On se souvient également qu’en avril dernier, AWS avait ajouté Nova Sonic à ses modèles pour viser les échanges vocaux. L’entreprise n’attend pas un an cette fois, Nova Sonic 2 prend déjà la relève. De manière prévisible, la nouvelle mouture présente des voix plus naturelles, de meilleures performances et une meilleure ouverture sur les agents. Comme pour Lite, AWS ne revendique pas la couronne dans tous les tests pour Sonic 2, mais une version plus aboutie du modèle et gérant un plus grand nombre de langues.

« Pour les développeurs, cela signifie que vous pouvez créer des applications qui servent des audiences mondiales sans avoir besoin de modèles vocaux distincts pour chaque langue. Une application de support client pourrait gérer un dialogue qui commence en anglais et passe à l’espagnol en plein milieu d’une conversation, tout en conservant le même flux et les mêmes caractéristiques vocales tout au long de la conversation », indique AWS dans un billet de blog.

En parallèle de ces nouveaux modèles, AWS a présenté Nova Forge, un service permettant aux clients de créer leurs propres modèles Nova. Selon AWS, Forge vient combler un vide, car les approches habituelles pour personnaliser les modèles – ingénierie des prompts, RAG, ajustement fin personnalisé, apprentissage par renforcement… – ont toutes des limites. Forge se propose donc de créer des modèles entrainés sur les données spécifiques de l’entreprise cliente pour obtenir de « vrais modèles personnalisés ». Toutes les étapes seront prises en charge selon AWS, dont le pré-entrainement, l’entrainement intermédiaire et l’affinage supervisé. Forge n’est pour l’instant disponible que dans la région US East (Virginie du Nord), celle-là même qui avait provoqué une vaste panne en octobre.

À noter qu’AWS annonce aussi la disponibilité sur Bedrock de 18 nouveaux modèles open source, dont ceux de la famille Mistral 3, tout juste lancée.

Alors que revoilà les agents

La guerre sur les capacités agentiques continue, avec d’abord un renforcement de la plateforme AgentCore AI, qui sert à les construire chez Amazon. L’un des principaux ajouts est la fonction Policy, qui permet aux utilisateurs de définir des limites pour les interactions avec les agents ou entre eux. Ces barrières sont ensuite intégrées à AgentCore Gateway, chargé de connecter les agents aux outils externes et désormais de vérifier que chaque action opère dans le cadre souhaité.

Gateway se dote d’ailleurs d’une suite de 13 systèmes d’évaluation préconçus pour les agents. Ils vérifient les opérations des agents sur des aspects standards, comme la sécurité et la précision des choix opérés. Des alertes peuvent être émises, mais AWS les présente également comme une manière de se faire la main en attendant la création de règles personnalisées.

On note aussi l’apparition de AgentCore Memory, qui vient ajouter de la mémoire aux agents. La fonction est faite pour autoriser ces derniers à bâtir un contexte autour de chaque utilisateur dans le temps. Les informations prises en compte peuvent être récupérées automatiquement (dates et heures des déplacements, préférences pour les hôtels…) ou imposées.

Kiro et ses compères

AWS en profite bien sûr pour lancer plusieurs nouveaux agents spécifiques, baptisés « agents frontières » : un pour l’écriture de code, un autre pour les processus de sécurité associés et un dernier pour automatiser les tâches de DevOps.

Le premier, Kiro, est le plus mis en avant. Il est censé apprendre avec le temps les préférences du développeur et pouvoir programmer seul ensuite pendant plusieurs jours, affirme AWS. L’entreprise va plus loin en indiquant que Kiro doit produire du code prêt pour la production. Ce développement se fait en revanche en suivant les règles de l’entreprise, qu’il faut donc renseigner. AWS baptise ce concept « développement piloté par les spécifications ». Et si le nom vous est familier, c’est parce que cet agent a été bâti sur les fondations de l’IDE du même nom, qui avait été annoncé en juillet.

Les deux autres agents, Security et DevOps, présentent des fonctions que l’on peut attendre dans ces contextes. Le premier travaille à vérifier la sécurité du code au fur et à mesure qu’il est écrit, s’occupe des tests ensuite et propose des solutions. Le second s’occupe lui aussi de tester le nouveau code, mais avec un accent sur les performances et la compatibilité avec d’autres éléments, logiciels ou matériels. On ne sait pas dans quelle mesure l’ensemble est fiable et permet de gérer les hallucinations, car ces trois nouveaux agents ne sont pour l’instant disponibles qu’en préversions.

Des usines d’IA en partenariat avec NVIDIA

AWS a également annoncé l’arrivée des « AI Factories ». Ces dernières sont une sorte de généralisation de l’offre « souveraine » lancée en Europe en juin, dont la première incarnation prendra place en Allemagne.

Le concept est globalement le même : une grande entreprise ou un gouvernement fournit le centre de données et l’électricité, et AWS fournit le système d’IA, avec possibilité d’établir des liens avec d’autres services AWS ou non. Cette offre a été construite en partenariat avec NVIDIA. Le client peut ainsi choisir entre les GPU Blackwell de cette dernière, les nouvelles puces Trainium3 d’AWS ou un mélange des deux. Dans son exposé, AWS assure que la solution est idéale pour les gros besoins en IA, sans avoir à se lancer dans la conception d’un système complet.

La partie « souveraineté » est censée être assurée par une séparation physique, avec des données ne quittant jamais le centre où ont lieu les opérations. « Les usines d’IA AWS sont conçues pour répondre aux normes de sécurité rigoureuses d’AWS, offrant aux gouvernements la confiance nécessaire pour gérer leurs charges de travail les plus sensibles à tous les niveaux de classification : non classifié, sensible, secret et top secret », affirme même AWS.

Comme on l’a vu toutefois à plusieurs reprises, tout dépend de ce que l’on entend par « souveraineté ». En Europe, le problème se situe surtout dans l’extraterritorialité de certaines lois, dont l’emblématique Cloud Act américain. Les lancements de certaines offres chez Microsoft et AWS ne semblent pas régler cette question. En France, les sociétés Bleu et S3ns semblent répondre à ces critères, car les briques logicielles sont fournies par Microsoft et Google, sans connexion aux clouds existants. Les deux offres ont passé le jalon J0 de la certification SecNumCloud de l’ANSSI, mais il faut encore que les démarches aboutissent.

re:Invent : AWS lance sa famille de LLM Nova 2 et une Forge pour créer ses propres modèles

3 décembre 2025 à 15:59
re:Inventer toujours la même chose
re:Invent : AWS lance sa famille de LLM Nova 2 et une Forge pour créer ses propres modèles

Dans le cadre de sa conférence annuelle re:Invent 2025, AWS a une nouvelle fois annoncé une longue suite d’améliorations liées à l’IA, dont sa famille de modèles Nova 2. De nouveaux agents ont également été présentés, ainsi que le service Forge, qui doit permettre la création de modèles Nova personnalisés.

La grand-messe annuelle d’AWS pour les développeurs bat actuellement son plein à Las Vegas (elle finit le 5 décembre). Comme toujours depuis quelques années, il n’est pratiquement question que d’intelligence artificielle, avec notamment le lancement de la famille Nova 2 pour cette cuvée 2025. On trouve aussi une flopée d’annonces pour les agents, et le lancement de la puce Trainium3 via des offres maison, comme nous l’avons déjà indiqué.

La famille Nova 2 débarque avec quatre modèles

La famille Nova, un lot de modèles maison, revient cette année dans une version 2. Contrairement à l’année dernière où seuls des modèles texte avaient été lancés, AWS couvre cette fois tous les angles.

L’entreprise met particulièrement en avant son Nova 2 Lite, un petit modèle de raisonnement multimodal placé en face de Haiku 4.5 chez Anthropic, GPT 5 Mini chez OpenAI et Gemini 2.5 Flash chez Google (Gemini 3 n’a pour l’instant qu’une version Pro). Ce modèle Lite est présenté comme une alternative solide, pas un vainqueur toutes catégories, même s’il prend la tête dans environ deux tiers des benchmarks présentés.

Si Lite est surtout présenté comme le modèle plus rentable par AWS, d’autres sont présents. On trouve ainsi Nova 2 Pro, orienté vers les tâches complexes, tandis qu’Omni est la version à tout faire, capable de générer tous types de contenus. Ce modèle dispose notamment d’une fenêtre contextuelle d’un million de jetons, prend plus de 200 langues en compte en entrée et une dizaine en sortie. Comme toujours dans ces gammes de modèles, le prix grimpe avec les capacités et le nombre de paramètres.

On se souvient également qu’en avril dernier, AWS avait ajouté Nova Sonic à ses modèles pour viser les échanges vocaux. L’entreprise n’attend pas un an cette fois, Nova Sonic 2 prend déjà la relève. De manière prévisible, la nouvelle mouture présente des voix plus naturelles, de meilleures performances et une meilleure ouverture sur les agents. Comme pour Lite, AWS ne revendique pas la couronne dans tous les tests pour Sonic 2, mais une version plus aboutie du modèle et gérant un plus grand nombre de langues.

« Pour les développeurs, cela signifie que vous pouvez créer des applications qui servent des audiences mondiales sans avoir besoin de modèles vocaux distincts pour chaque langue. Une application de support client pourrait gérer un dialogue qui commence en anglais et passe à l’espagnol en plein milieu d’une conversation, tout en conservant le même flux et les mêmes caractéristiques vocales tout au long de la conversation », indique AWS dans un billet de blog.

En parallèle de ces nouveaux modèles, AWS a présenté Nova Forge, un service permettant aux clients de créer leurs propres modèles Nova. Selon AWS, Forge vient combler un vide, car les approches habituelles pour personnaliser les modèles – ingénierie des prompts, RAG, ajustement fin personnalisé, apprentissage par renforcement… – ont toutes des limites. Forge se propose donc de créer des modèles entrainés sur les données spécifiques de l’entreprise cliente pour obtenir de « vrais modèles personnalisés ». Toutes les étapes seront prises en charge selon AWS, dont le pré-entrainement, l’entrainement intermédiaire et l’affinage supervisé. Forge n’est pour l’instant disponible que dans la région US East (Virginie du Nord), celle-là même qui avait provoqué une vaste panne en octobre.

À noter qu’AWS annonce aussi la disponibilité sur Bedrock de 18 nouveaux modèles open source, dont ceux de la famille Mistral 3, tout juste lancée.

Alors que revoilà les agents

La guerre sur les capacités agentiques continue, avec d’abord un renforcement de la plateforme AgentCore AI, qui sert à les construire chez Amazon. L’un des principaux ajouts est la fonction Policy, qui permet aux utilisateurs de définir des limites pour les interactions avec les agents ou entre eux. Ces barrières sont ensuite intégrées à AgentCore Gateway, chargé de connecter les agents aux outils externes et désormais de vérifier que chaque action opère dans le cadre souhaité.

Gateway se dote d’ailleurs d’une suite de 13 systèmes d’évaluation préconçus pour les agents. Ils vérifient les opérations des agents sur des aspects standards, comme la sécurité et la précision des choix opérés. Des alertes peuvent être émises, mais AWS les présente également comme une manière de se faire la main en attendant la création de règles personnalisées.

On note aussi l’apparition de AgentCore Memory, qui vient ajouter de la mémoire aux agents. La fonction est faite pour autoriser ces derniers à bâtir un contexte autour de chaque utilisateur dans le temps. Les informations prises en compte peuvent être récupérées automatiquement (dates et heures des déplacements, préférences pour les hôtels…) ou imposées.

Kiro et ses compères

AWS en profite bien sûr pour lancer plusieurs nouveaux agents spécifiques, baptisés « agents frontières » : un pour l’écriture de code, un autre pour les processus de sécurité associés et un dernier pour automatiser les tâches de DevOps.

Le premier, Kiro, est le plus mis en avant. Il est censé apprendre avec le temps les préférences du développeur et pouvoir programmer seul ensuite pendant plusieurs jours, affirme AWS. L’entreprise va plus loin en indiquant que Kiro doit produire du code prêt pour la production. Ce développement se fait en revanche en suivant les règles de l’entreprise, qu’il faut donc renseigner. AWS baptise ce concept « développement piloté par les spécifications ». Et si le nom vous est familier, c’est parce que cet agent a été bâti sur les fondations de l’IDE du même nom, qui avait été annoncé en juillet.

Les deux autres agents, Security et DevOps, présentent des fonctions que l’on peut attendre dans ces contextes. Le premier travaille à vérifier la sécurité du code au fur et à mesure qu’il est écrit, s’occupe des tests ensuite et propose des solutions. Le second s’occupe lui aussi de tester le nouveau code, mais avec un accent sur les performances et la compatibilité avec d’autres éléments, logiciels ou matériels. On ne sait pas dans quelle mesure l’ensemble est fiable et permet de gérer les hallucinations, car ces trois nouveaux agents ne sont pour l’instant disponibles qu’en préversions.

Des usines d’IA en partenariat avec NVIDIA

AWS a également annoncé l’arrivée des « AI Factories ». Ces dernières sont une sorte de généralisation de l’offre « souveraine » lancée en Europe en juin, dont la première incarnation prendra place en Allemagne.

Le concept est globalement le même : une grande entreprise ou un gouvernement fournit le centre de données et l’électricité, et AWS fournit le système d’IA, avec possibilité d’établir des liens avec d’autres services AWS ou non. Cette offre a été construite en partenariat avec NVIDIA. Le client peut ainsi choisir entre les GPU Blackwell de cette dernière, les nouvelles puces Trainium3 d’AWS ou un mélange des deux. Dans son exposé, AWS assure que la solution est idéale pour les gros besoins en IA, sans avoir à se lancer dans la conception d’un système complet.

La partie « souveraineté » est censée être assurée par une séparation physique, avec des données ne quittant jamais le centre où ont lieu les opérations. « Les usines d’IA AWS sont conçues pour répondre aux normes de sécurité rigoureuses d’AWS, offrant aux gouvernements la confiance nécessaire pour gérer leurs charges de travail les plus sensibles à tous les niveaux de classification : non classifié, sensible, secret et top secret », affirme même AWS.

Comme on l’a vu toutefois à plusieurs reprises, tout dépend de ce que l’on entend par « souveraineté ». En Europe, le problème se situe surtout dans l’extraterritorialité de certaines lois, dont l’emblématique Cloud Act américain. Les lancements de certaines offres chez Microsoft et AWS ne semblent pas régler cette question. En France, les sociétés Bleu et S3ns semblent répondre à ces critères, car les briques logicielles sont fournies par Microsoft et Google, sans connexion aux clouds existants. Les deux offres ont passé le jalon J0 de la certification SecNumCloud de l’ANSSI, mais il faut encore que les démarches aboutissent.

☕️ Opera déploie Gemini dans ses navigateurs One et GX

3 décembre 2025 à 13:51

Opera fait partie des éditeurs ayant décidé d’investir massivement dans l’IA pour son navigateur. L’entreprise norvégienne est si sûre de son choix qu’elle a même lancé un navigateur dédié et payant, Neon, décrit comme un navigateur agentique.

Bien qu’Opera ait ses propres capacités dans le domaine, l’éditeur a décidé d’élargir ses horizons via un partenariat avec Google. En clair, Gemini débarque dans Opera One et Opera GX, respectivement son navigateur classique et celui dédié aux joueurs.

Les capacités décrites sont les mêmes qu’habituellement : requêtes diverses sur un ou plusieurs onglets, résumés d’informations, comparaisons de contenus sur plusieurs onglets (textes, images et vidéos), analyses diverses et ainsi de suite. Opera ajoute que son expérience avec Neon lui a permis d’optimiser son architecture, afin que les navigateurs répondent 20 % plus vite aux requêtes, mais on n’en sait guère plus.

« L’IA remodèle la façon dont les gens interagissent avec le web, et le navigateur est le point d’entrée naturel de ces expériences. Grâce à notre partenariat avec Google, nous pouvons offrir aux utilisateurs les expériences qu’ils désirent vraiment grâce à la recherche native et aux fonctionnalités d’IA, gratuitement, directement dans leurs navigateurs Opera One et Opera GX, tandis que nos utilisateurs les plus avancés du navigateur agentique Opera Neon ont déjà accès à Gemini 3 Pro », a déclaré Per Wetterdal, responsable de la publicité chez Opera.

Google semble également extatique : « En intégrant les derniers modèles Gemini, Opera ne se contente pas d’améliorer ses navigateurs, mais établit une nouvelle norme pour les expériences utilisateur alimentées par l’IA. Nous sommes fiers de fournir des capacités d’IA de pointe qui aident des partenaires comme Opera à prospérer et à continuer de façonner l’avenir de la navigation pour des millions d’utilisateurs dans le monde », a déclaré Per Gustafsson, directeur de Google Cloud Nordics.

☕️ Opera déploie Gemini dans ses navigateurs One et GX

3 décembre 2025 à 13:51

Opera fait partie des éditeurs ayant décidé d’investir massivement dans l’IA pour son navigateur. L’entreprise norvégienne est si sûre de son choix qu’elle a même lancé un navigateur dédié et payant, Neon, décrit comme un navigateur agentique.

Bien qu’Opera ait ses propres capacités dans le domaine, l’éditeur a décidé d’élargir ses horizons via un partenariat avec Google. En clair, Gemini débarque dans Opera One et Opera GX, respectivement son navigateur classique et celui dédié aux joueurs.

Les capacités décrites sont les mêmes qu’habituellement : requêtes diverses sur un ou plusieurs onglets, résumés d’informations, comparaisons de contenus sur plusieurs onglets (textes, images et vidéos), analyses diverses et ainsi de suite. Opera ajoute que son expérience avec Neon lui a permis d’optimiser son architecture, afin que les navigateurs répondent 20 % plus vite aux requêtes, mais on n’en sait guère plus.

« L’IA remodèle la façon dont les gens interagissent avec le web, et le navigateur est le point d’entrée naturel de ces expériences. Grâce à notre partenariat avec Google, nous pouvons offrir aux utilisateurs les expériences qu’ils désirent vraiment grâce à la recherche native et aux fonctionnalités d’IA, gratuitement, directement dans leurs navigateurs Opera One et Opera GX, tandis que nos utilisateurs les plus avancés du navigateur agentique Opera Neon ont déjà accès à Gemini 3 Pro », a déclaré Per Wetterdal, responsable de la publicité chez Opera.

Google semble également extatique : « En intégrant les derniers modèles Gemini, Opera ne se contente pas d’améliorer ses navigateurs, mais établit une nouvelle norme pour les expériences utilisateur alimentées par l’IA. Nous sommes fiers de fournir des capacités d’IA de pointe qui aident des partenaires comme Opera à prospérer et à continuer de façonner l’avenir de la navigation pour des millions d’utilisateurs dans le monde », a déclaré Per Gustafsson, directeur de Google Cloud Nordics.

Mistral lance sa nouvelle famille Mistral 3 et vante ses petits modèles

3 décembre 2025 à 12:58
Small si beautiful
Mistral lance sa nouvelle famille Mistral 3 et vante ses petits modèles

Après le lancement de nouvelles versions majeures chez pratiquement tous les acteurs de l’IA générative, Mistral dégaine sa famille de modèles ouverts Mistral 3. Bien que celle-ci comprenne un modèle multimodal, ce sont surtout les plus petits qui sont mis en avant.

L’entreprise française n’en démord pas : lancer des modèles géants n’est pas nécessairement ce qu’il y a de mieux pour les entreprises. Elle reste centrée sur sa stratégie de publication de modèles à poids ouvert, dans l’idée que le monde professionnel va s’en emparer, les personnaliser, les distiller ou les entrainer sur ses propres données.

Mistral veut régner sur les modèles ouverts

Dans l’annonce, on remarque tout de suite que les comparaisons se font uniquement avec d’autres modèles ouverts, comme DeepSeek (en version 3.1 ou 3.2 selon les cas, étrangement) ou Kimi-K2. Sans trop de surprises dans le cadre de ce type d’annonce, les modèles Mistral 3 arrivent premiers dans la plupart des benchmarks, toujours à prendre avec des pincettes.

L’entreprise donne quelques informations supplémentaires sur son grand modèle Large 3. Par exemple, qu’il a été entrainé depuis zéro sur une infrastructure comprenant 3 000 GPU H200 de NVIDIA. Il s’agit également du premier modèle de type MoE (mixture-of-experts) de Mistral depuis sa série Mixtral en 2023. Dans une version proposée au format NVFP4 (construite avec llm-compressor), Mistral affirme que son modèle peut fonctionner « efficacement » sur un nœud comportant huit puces A100 ou H100.

Cette approche permet pour rappel de dispatcher les requêtes vers des réseaux plus spécialisés du type de calcul lors de l’évaluation. Le principal avantage est une réduction de la consommation, le modèle n’activant qu’une partie des neurones pour traiter la demande (41 milliards de paramètres actifs sur 675 milliards au total). C’est le modèle présenté comme idéal pour les opérations lourdes, comme le développement et la création de contenus.

Mistral revendique la deuxième place sur LMArena pour son Large 3 dans la catégorie des modèles ouverts sans capacités de raisonnement, mais nous ne retrouvons pas les mêmes chiffres. Sur les modèles disposant d’une licence Apache 2.0, c’est bien le cas, mais la société ne semble pas tenir compte de la licence MIT, pourtant open source elle aussi. Dans le tableau général, Large 3 se classe 28e, tous modèles confondus.

Mistral ajoute en outre que le développement de la nouvelle famille s’est fait en partenariat avec NVIDIA, aboutissant notamment à une « inférence efficace » pour TensorRT-LLM et SGLang.

La « petite » famille

Bien que Mistral aborde ses nouveautés du jour avec le modèle Large, ce sont surtout les petits modèles que la société met en avant. La série Ministral 3 comprend ainsi des variantes à 3, 8 et 14 milliards de paramètres, conçues pour l’informatique en périphérie (edge) et le fonctionnement local, toujours sous licence Apache 2.0. Tous ces modèles ont également des variantes de raisonnement, la version 14B atteignant par exemple 85 % sur le test AIME 25. Cette version, la plus volumineuse des trois, peut fonctionner sur une machine embarquant 24 Go de mémoire et un seul GPU.

Mistral semble particulièrement fière de ses petits modèles, assurant qu’ils offrent « le meilleur rapport coût/performance de tous les modèles open source » actuellement. Les versions classiques (sans raisonnement) sont au niveau ou dépassent les modèles concurrents, selon l’entreprise, tout en consommant « souvent » moins de jetons.

En tout, cette famille comprend trois modèles, les trois tailles étant disponibles dans des variantes Base (modèles de fondation pré-entrainés), Instruct (conçus surtout pour les chatbots) et Reasoning. Tous prennent en charge la vision, sont multilingues et fonctionnent avec des fenêtres allant de 128 000 à 256 000 jetons.

Guillaume Lample, fondateur de Mistral, a mis en avant la vision de l’entreprise auprès de plusieurs médias, dont TechCrunch et le Financial Times : « Nos clients sont parfois contents de débuter avec un très grand modèle de langage qu’ils n’ont pas besoin de peaufiner. Mais quand ils le déploient, ils réalisent que c’est cher et lent. Ils viennent alors nous voir pour affiner de petits modèles, afin de gérer leurs cas d’usage. Dans la pratique, la grande majorité des cas d’usage d’entreprises sont des choses que les petits modèles peuvent résoudre, surtout si vous les affinez ».

Comme le rappellent d’ailleurs nos confrères, cette orientation marquée vers les petits modèles capables de fonctionner localement rapproche l’entreprise de « l’IA physique ». Elle travaille par exemple avec Stellantis sur un assistant IA embarqué, avec la société allemande de défense Helsing sur des modèles vision-langage-action pour des drones, ou encore très récemment avec la Home Team Science and Technology Agency (HTX) de Singapour sur des modèles spécialisés pour robots.

Mistral lance sa nouvelle famille Mistral 3 et vante ses petits modèles

3 décembre 2025 à 12:58
Small si beautiful
Mistral lance sa nouvelle famille Mistral 3 et vante ses petits modèles

Après le lancement de nouvelles versions majeures chez pratiquement tous les acteurs de l’IA générative, Mistral dégaine sa famille de modèles ouverts Mistral 3. Bien que celle-ci comprenne un modèle multimodal, ce sont surtout les plus petits qui sont mis en avant.

L’entreprise française n’en démord pas : lancer des modèles géants n’est pas nécessairement ce qu’il y a de mieux pour les entreprises. Elle reste centrée sur sa stratégie de publication de modèles à poids ouvert, dans l’idée que le monde professionnel va s’en emparer, les personnaliser, les distiller ou les entrainer sur ses propres données.

Mistral veut régner sur les modèles ouverts

Dans l’annonce, on remarque tout de suite que les comparaisons se font uniquement avec d’autres modèles ouverts, comme DeepSeek (en version 3.1 ou 3.2 selon les cas, étrangement) ou Kimi-K2. Sans trop de surprises dans le cadre de ce type d’annonce, les modèles Mistral 3 arrivent premiers dans la plupart des benchmarks, toujours à prendre avec des pincettes.

L’entreprise donne quelques informations supplémentaires sur son grand modèle Large 3. Par exemple, qu’il a été entrainé depuis zéro sur une infrastructure comprenant 3 000 GPU H200 de NVIDIA. Il s’agit également du premier modèle de type MoE (mixture-of-experts) de Mistral depuis sa série Mixtral en 2023. Dans une version proposée au format NVFP4 (construite avec llm-compressor), Mistral affirme que son modèle peut fonctionner « efficacement » sur un nœud comportant huit puces A100 ou H100.

Cette approche permet pour rappel de dispatcher les requêtes vers des réseaux plus spécialisés du type de calcul lors de l’évaluation. Le principal avantage est une réduction de la consommation, le modèle n’activant qu’une partie des neurones pour traiter la demande (41 milliards de paramètres actifs sur 675 milliards au total). C’est le modèle présenté comme idéal pour les opérations lourdes, comme le développement et la création de contenus.

Mistral revendique la deuxième place sur LMArena pour son Large 3 dans la catégorie des modèles ouverts sans capacités de raisonnement, mais nous ne retrouvons pas les mêmes chiffres. Sur les modèles disposant d’une licence Apache 2.0, c’est bien le cas, mais la société ne semble pas tenir compte de la licence MIT, pourtant open source elle aussi. Dans le tableau général, Large 3 se classe 28e, tous modèles confondus.

Mistral ajoute en outre que le développement de la nouvelle famille s’est fait en partenariat avec NVIDIA, aboutissant notamment à une « inférence efficace » pour TensorRT-LLM et SGLang.

La « petite » famille

Bien que Mistral aborde ses nouveautés du jour avec le modèle Large, ce sont surtout les petits modèles que la société met en avant. La série Ministral 3 comprend ainsi des variantes à 3, 8 et 14 milliards de paramètres, conçues pour l’informatique en périphérie (edge) et le fonctionnement local, toujours sous licence Apache 2.0. Tous ces modèles ont également des variantes de raisonnement, la version 14B atteignant par exemple 85 % sur le test AIME 25. Cette version, la plus volumineuse des trois, peut fonctionner sur une machine embarquant 24 Go de mémoire et un seul GPU.

Mistral semble particulièrement fière de ses petits modèles, assurant qu’ils offrent « le meilleur rapport coût/performance de tous les modèles open source » actuellement. Les versions classiques (sans raisonnement) sont au niveau ou dépassent les modèles concurrents, selon l’entreprise, tout en consommant « souvent » moins de jetons.

En tout, cette famille comprend trois modèles, les trois tailles étant disponibles dans des variantes Base (modèles de fondation pré-entrainés), Instruct (conçus surtout pour les chatbots) et Reasoning. Tous prennent en charge la vision, sont multilingues et fonctionnent avec des fenêtres allant de 128 000 à 256 000 jetons.

Guillaume Lample, fondateur de Mistral, a mis en avant la vision de l’entreprise auprès de plusieurs médias, dont TechCrunch et le Financial Times : « Nos clients sont parfois contents de débuter avec un très grand modèle de langage qu’ils n’ont pas besoin de peaufiner. Mais quand ils le déploient, ils réalisent que c’est cher et lent. Ils viennent alors nous voir pour affiner de petits modèles, afin de gérer leurs cas d’usage. Dans la pratique, la grande majorité des cas d’usage d’entreprises sont des choses que les petits modèles peuvent résoudre, surtout si vous les affinez ».

Comme le rappellent d’ailleurs nos confrères, cette orientation marquée vers les petits modèles capables de fonctionner localement rapproche l’entreprise de « l’IA physique ». Elle travaille par exemple avec Stellantis sur un assistant IA embarqué, avec la société allemande de défense Helsing sur des modèles vision-langage-action pour des drones, ou encore très récemment avec la Home Team Science and Technology Agency (HTX) de Singapour sur des modèles spécialisés pour robots.

☕️ OnlyOffice 9.2 officialise son agent pour le travail bureautique

3 décembre 2025 à 08:47

Avec la version 9.1, la suite bureautique avait introduit un agent en version bêta. L’éditeur se sent suffisamment prêt désormais pour le lancer dans le grand bain.

Comme toujours avec ce type de fonction, elle est conçue pour gérer des requêtes comme le résumé de tout ou partie d’un document, des questions sur le contenu, le remplissage de PDF ou encore des modifications dans la présentation.

OnlyOffice ne dispose pas de son propre modèle. Pour utiliser l’agent maison, il faut disposer d’une clé API pour un LLM existant, comme ChatGPT, Claude ou Gemini. On peut aussi le connecter à un serveur LLM ou MCP local fonctionnant avec des solutions de type Ollama. Comme le rappelle OMGUbuntu cependant, le travail avec les LLM implique souvent des conditions d’utilisation incluant la réutilisation des contenus analysés à des fins d’entrainement.

Parmi les autres nouveautés de cette version, signalons la possibilité de choisir une couleur personnalisée pour caviarder des passages dans un document PDF, l’enregistrement d’une série d’actions sous forme de macro pour la réutiliser plus tard, la personnalisation des raccourcis clavier, la possibilité d’insérer des équations depuis des sources en ligne, la disponibilité de cases à cocher et de boutons radio dans l’éditeur de formulaires, ainsi qu’un correctif de sécurité.

La nouvelle mouture de la suite peut être téléchargée depuis le site officiel ou le dépôt GitHub.

☕️ OnlyOffice 9.2 officialise son agent pour le travail bureautique

3 décembre 2025 à 08:47

Avec la version 9.1, la suite bureautique avait introduit un agent en version bêta. L’éditeur se sent suffisamment prêt désormais pour le lancer dans le grand bain.

Comme toujours avec ce type de fonction, elle est conçue pour gérer des requêtes comme le résumé de tout ou partie d’un document, des questions sur le contenu, le remplissage de PDF ou encore des modifications dans la présentation.

OnlyOffice ne dispose pas de son propre modèle. Pour utiliser l’agent maison, il faut disposer d’une clé API pour un LLM existant, comme ChatGPT, Claude ou Gemini. On peut aussi le connecter à un serveur LLM ou MCP local fonctionnant avec des solutions de type Ollama. Comme le rappelle OMGUbuntu cependant, le travail avec les LLM implique souvent des conditions d’utilisation incluant la réutilisation des contenus analysés à des fins d’entrainement.

Parmi les autres nouveautés de cette version, signalons la possibilité de choisir une couleur personnalisée pour caviarder des passages dans un document PDF, l’enregistrement d’une série d’actions sous forme de macro pour la réutiliser plus tard, la personnalisation des raccourcis clavier, la possibilité d’insérer des équations depuis des sources en ligne, la disponibilité de cases à cocher et de boutons radio dans l’éditeur de formulaires, ainsi qu’un correctif de sécurité.

La nouvelle mouture de la suite peut être téléchargée depuis le site officiel ou le dépôt GitHub.

❌