Vue lecture

Créer un compte local à l'installation de Windows 11 25H2, c'est pas cuit et c'est même facile !

Au début du mois d'octobre, Microsoft refusait définitivement la création d'un compte local à l'installation de Windows 11 25H2. Alors que ceci était valable avant, la firme, pour des raisons douteuses de non entièreté des fonctionnalités, a décidé de supprimer pour de bon cette possibilité. Cela si...

  •  

Dans sa guerre contre l’inclusivité, Trump abandonne la police de caractères Calibri

Police de la police
Dans sa guerre contre l’inclusivité, Trump abandonne la police de caractères Calibri

L’administration Biden avait fait de Calibri la police de caractères officielle du gouvernement étatsunien pour des raisons de lisibilité et d’inclusivité. Opposé à toute mesure en ce sens, l’actuel secrétaire d’État, Marco Rubio, remet en place le Times New Roman.

Marco Rubio, le secrétaire d’État américain, a ordonné aux diplomates de son pays de ne plus utiliser la police de caractère Calibri et de repasser au Times New Roman.

Selon le New York Times, le mémo envoyé par le responsable des Affaires étrangères du pays indique : « Retour à la tradition : police Times New Roman 14 points obligatoire pour tous les documents du département ».

Annulation d’une décision de l’administration Biden pour plus d’inclusivité

Il annule, de fait, une décision prise sous Joe Biden qui avait changé la police de caractère officiellement utilisée par la diplomatie étatsunienne en 2023 pour Calibri, une police sans empattement (serif en anglais).

Créée par Microsoft en 2004, elle avait été jugée plus accessible pour les lecteurs en situation de handicap, notamment les personnes malvoyantes ou dyslexiques, par l’administration fédérale précédente. Comme l’écrivait TechCrunch à l’époque, Microsoft avait pris cette décision de remplacer le Times New Roman par Calibri dès 2007 pour sa police par défaut.

Marco Rubio a affirmé, selon le New York Times, que ce changement « ne figurait pas parmi les cas les plus illégaux, immoraux, radicaux ou inutiles » des politiques de diversité, équité, inclusion et accessibilité de son pays. Mais, selon lui, ce changement de police de caractères était un échec car les « cas de correction de documents pour des raisons d’accessibilité » n’ont pas diminué. Et il estime que « le passage à Calibri n’a rien apporté d’autre que la dégradation de la correspondance officielle du département ».

Dans un article sur l’accessibilité des polices de caractères publié sur Medium en 2020, Gareth Ford Williams, alors responsable de l’expérience utilisateur et de l’accessibilité à la BBC, expliquait : « Pour les enfants ou les adultes qui apprennent à lire ou qui ont des difficultés en lecture, les formes moins complexes des polices sans empattement peuvent faciliter la reconnaissance des caractères. Les polices avec empattement offrent une lisibilité plus fluide aux lecteurs avancés grâce à la forme plus claire des lettres ».

Tradition, formalité et cérémonial

Pour le retour au Times New Roman, le secrétaire d’État met en avant une perception des polices avec empattement « comme évoquant la tradition, la formalité et le cérémonial ».

Cette modification dans les usages officiels de l’administration états-unienne marque symboliquement un nouveau coup contre les politiques de diversité, d’équité et d’inclusion mises en place auparavant aux États-Unis. Dès février dernier, l’administration Trump interdisait à plusieurs agences d’utiliser certains mots comme « racisme », « biais », « genre » ou « sexualité ». Elle a ensuite imposé aux entreprises qui travaillent avec elle, comme SAP, d’abandonner ce genre de politiques. Récemment, la fondation Python a refusé une subvention de 1,5 million de dollars car les conditions assorties mentionnaient l’interdiction de toute politique DEI.

  •  

☕️ Linux : l’environnement Cinnamon 6.6 disponible avec son nouveau menu principal

L’équipe de Linux Mint a publié la version 6.6 finale de l’environnement Cinnamon, qui équipe par défaut la distribution populaire.

Le plus gros changement, qui avait été « teasé » par l’équipe au début du printemps, est un menu principal repensé. Il permet la configuration des emplacements et favoris, la bascule entre des icônes symboliques ou complètes (colorées) et embarque de nombreux changements visuels. Par exemple, le panneau latéral est plus large, les dossiers les plus courants y sont épinglés, les boutons d’alimentation (arrêt, déconnexion, verrouillage) sont placés en bas à gauche, etc.

Cinnamon 6.6 présente d’autres nouveautés. Par exemple, une simplification de la gestion des claviers physiques et virtuels avec un bouton pour changer rapidement de disposition, une meilleure visibilité des suggestions ou encore un effet de fondu quand le clavier virtuel apparait ou disparait.

Signalons aussi du neuf dans les Paramètres, avec notamment le nouveau panneau pour les informations système, l’arrivée du Thunderbolt ou encore la possibilité de définir manuellement les pages horaires pour les thèmes clairs et sombres. L’applet NetworkManager peut afficher plusieurs connexions VPN actives, Workspace Switcher peut ajouter des icônes aux fenêtres, Imprimante n’apparait que lors d’une impression, une jauge apparait quand on change le volume sonore, Alt+Tab n’affiche que les fenêtres présentes sur l’écran utilisé, les animations sont plus fluides, etc.

Cinnamon 6.6 sera l’environnement par défaut de la future version 22.3 de Linux Mint, nommée Zena. Elle doit arriver à la fin du mois ou début janvier. Pour les autres systèmes avec Cinnamon, la mise à jour de l’environnement dépendra de la philosophie de la distribution utilisée. Beaucoup ne changent pas de version majeure ou même intermédiaire avant la révision suivante. À noter que la version 6.6 est prête aussi bien pour l’édition standard de Linux Mint que pour LMDE, l’édition basée sur Debian.

  •  

[Édito] Et si on arrêtait avec cette hypocrisie autour de l’IA ?

IA plus qu’à !
[Édito] Et si on arrêtait avec cette hypocrisie autour de l’IA ?

L’intelligence artificielle est un outil largement utilisé, qui inquiète autant qu’elle fascine. Elle provoque des échanges musclés entre internautes, qui ont parfois bien du mal à se comprendre. Une des causes : la sémantique. L’arrivée des grands modèles de langage et des chatbots a rebattu les cartes et exacerbé les tensions. Ceux qui l’utilisent y réfléchissent certainement à deux fois avant de le dire.

Il y a un peu plus d’un an, nous avions publié un édito sur l’intelligence artificielle, avec une question en trame de fond : est-elle intelligente ou artificielle ? Une chose est sûre, la réponse n’est pas binaire. C’est les deux à la fois et cela varie suivant les points de vue.

De l’algorithme aux intelligences artificielles puis aux IA génératives

La frontière entre algorithmes et IA est de plus en plus poreuse, tandis que la notion même d’intelligence artificielle est mouvante. Un rappel important : l’intelligence artificielle n’est pas nouvelle, loin de là puisqu’elle a plus de 75 ans. Citons, par exemple, l’article « L’ordinateur et l’intelligence » d’Alan Turing en 1950, dans lequel il est question du fameux test de Turing.

Le premier logiciel d’intelligence artificielle remonte à 1956 avec le Logic Theorist : « Il réalise tout seul des démonstrations de théorèmes mathématiques », expliquait le CEA. En 1957, le psychologue Frank Rosenblatt invente le premier logiciel d’apprentissage grâce à un neurone : le Perceptron. Il y a ensuite les « hivers de l’IA » dans les années 70/80 et 80/90. L’explosion de l’intelligence artificielle est arrivée avec la montée en puissance des ordinateurs et surtout des GPU particulièrement à l’aise avec ce genre de calculs.

Il y a déjà plus de quatre ans, soit avant l’arrivée des IA génératives, Alexei Grinbaum (physicien et philosophe) expliquait que le terme IA « désigne un comportement produit par une machine dont on peut raisonnablement estimer que, s’il avait été le fruit d’une action humaine, il aurait exigé de l’intelligence de la part de l’agent concerné […] L’apprentissage machine n’est qu’un outil d’IA parmi d’autres mais, en pratique, ces deux termes sont de plus en plus fréquemment synonymes ». Aujourd’hui tout se mélange sous une seule appellation : IA.

Ceux qui étaient généralement présentés comme des algorithmes ont donc été promus au rang d’intelligence artificielle. Pour distinguer les nouvelles IA – ou systèmes, un terme moins marketing mais plus adapté – « capables de créer des contenus (texte, code informatique, images, musique, audio, vidéos, etc.) », on parle d’intelligences artificielles génératives, rappelle la CNIL. Ces différences ne sont pas toujours comprises, ce qui entraine des incompréhensions.

Cachez ces avantages que je ne saurais voir

Sur les réseaux sociaux et dans de nombreuses discussions, la question de son utilisation cristallise les échanges, peu importe le projet ou presque. Faut-il ou non l’utiliser ? Faut-il clouer au pilori les personnes qui le font ? Y a-t-il une bonne et une mauvaise catégorie d’intelligence artificielle ? Les débats sont nombreux, les peurs et les incompréhensions aussi, tout comme les avantages. Il ne faut pas les oublier. Ce n’est pas une généralité pour autant. Sur LinkedIn par exemple, les discussions autour de l’IA sont souvent différentes, plus apaisées et dans l’(auto)congratulation.

Régulièrement, ceux qui reconnaissent utiliser l’intelligence artificielle se font prendre à partie publiquement. D’autres l’utilisent sans le dire et passent à travers les mailles du filet de la polémique. On arrive dans une situation absurde où ceux qui cachent la vérité ou mentent – volontairement ou par omission – s’en sortent mieux que ceux qui l’indiquent.

L’intelligence artificielle permet des améliorations importantes dans de nombreux domaines, y compris la santé, l’automatisation de tâches fastidieuses ou répétitives afin de « consacrer davantage de temps à des tâches plus créatives ou plus centrées sur l’humain », des opérations de sauvetage (notamment en milieu hostile), la prédiction de défaillances techniques, la lutte contre le changement climatique, etc.

Pour la Commission européenne aussi, cela ne fait pas de doute : « Les technologies de l’IA apportent de nombreux avantages à la société et à l’économie ». Ils sont rarement mis en avant et, quand c’est le cas, ils finissent trop souvent ensevelis sous des montagnes de critiques. Quand ils ressortent dans la bouche de certains professionnels, c’est souvent pour finir lynchés dans les commentaires. Les exemples sont nombreux.


Il reste 82% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

Dans sa guerre contre l’inclusivité, Trump abandonne la police de caractères Calibri

Police de la police
Dans sa guerre contre l’inclusivité, Trump abandonne la police de caractères Calibri

L’administration Biden avait fait de Calibri la police de caractères officielle du gouvernement étatsunien pour des raisons de lisibilité et d’inclusivité. Opposé à toute mesure en ce sens, l’actuel secrétaire d’État, Marco Rubio, remet en place le Times New Roman.

Marco Rubio, le secrétaire d’État américain, a ordonné aux diplomates de son pays de ne plus utiliser la police de caractère Calibri et de repasser au Times New Roman.

Selon le New York Times, le mémo envoyé par le responsable des Affaires étrangères du pays indique : « Retour à la tradition : police Times New Roman 14 points obligatoire pour tous les documents du département ».

Annulation d’une décision de l’administration Biden pour plus d’inclusivité

Il annule, de fait, une décision prise sous Joe Biden qui avait changé la police de caractère officiellement utilisée par la diplomatie étatsunienne en 2023 pour Calibri, une police sans empattement (serif en anglais).

Créée par Microsoft en 2004, elle avait été jugée plus accessible pour les lecteurs en situation de handicap, notamment les personnes malvoyantes ou dyslexiques, par l’administration fédérale précédente. Comme l’écrivait TechCrunch à l’époque, Microsoft avait pris cette décision de remplacer le Times New Roman par Calibri dès 2007 pour sa police par défaut.

Marco Rubio a affirmé, selon le New York Times, que ce changement « ne figurait pas parmi les cas les plus illégaux, immoraux, radicaux ou inutiles » des politiques de diversité, équité, inclusion et accessibilité de son pays. Mais, selon lui, ce changement de police de caractères était un échec car les « cas de correction de documents pour des raisons d’accessibilité » n’ont pas diminué. Et il estime que « le passage à Calibri n’a rien apporté d’autre que la dégradation de la correspondance officielle du département ».

Dans un article sur l’accessibilité des polices de caractères publié sur Medium en 2020, Gareth Ford Williams, alors responsable de l’expérience utilisateur et de l’accessibilité à la BBC, expliquait : « Pour les enfants ou les adultes qui apprennent à lire ou qui ont des difficultés en lecture, les formes moins complexes des polices sans empattement peuvent faciliter la reconnaissance des caractères. Les polices avec empattement offrent une lisibilité plus fluide aux lecteurs avancés grâce à la forme plus claire des lettres ».

Tradition, formalité et cérémonial

Pour le retour au Times New Roman, le secrétaire d’État met en avant une perception des polices avec empattement « comme évoquant la tradition, la formalité et le cérémonial ».

Cette modification dans les usages officiels de l’administration états-unienne marque symboliquement un nouveau coup contre les politiques de diversité, d’équité et d’inclusion mises en place auparavant aux États-Unis. Dès février dernier, l’administration Trump interdisait à plusieurs agences d’utiliser certains mots comme « racisme », « biais », « genre » ou « sexualité ». Elle a ensuite imposé aux entreprises qui travaillent avec elle, comme SAP, d’abandonner ce genre de politiques. Récemment, la fondation Python a refusé une subvention de 1,5 million de dollars car les conditions assorties mentionnaient l’interdiction de toute politique DEI.

  •  

☕️ Linux : l’environnement Cinnamon 6.6 disponible avec son nouveau menu principal

L’équipe de Linux Mint a publié la version 6.6 finale de l’environnement Cinnamon, qui équipe par défaut la distribution populaire.

Le plus gros changement, qui avait été « teasé » par l’équipe au début du printemps, est un menu principal repensé. Il permet la configuration des emplacements et favoris, la bascule entre des icônes symboliques ou complètes (colorées) et embarque de nombreux changements visuels. Par exemple, le panneau latéral est plus large, les dossiers les plus courants y sont épinglés, les boutons d’alimentation (arrêt, déconnexion, verrouillage) sont placés en bas à gauche, etc.

Cinnamon 6.6 présente d’autres nouveautés. Par exemple, une simplification de la gestion des claviers physiques et virtuels avec un bouton pour changer rapidement de disposition, une meilleure visibilité des suggestions ou encore un effet de fondu quand le clavier virtuel apparait ou disparait.

Signalons aussi du neuf dans les Paramètres, avec notamment le nouveau panneau pour les informations système, l’arrivée du Thunderbolt ou encore la possibilité de définir manuellement les pages horaires pour les thèmes clairs et sombres. L’applet NetworkManager peut afficher plusieurs connexions VPN actives, Workspace Switcher peut ajouter des icônes aux fenêtres, Imprimante n’apparait que lors d’une impression, une jauge apparait quand on change le volume sonore, Alt+Tab n’affiche que les fenêtres présentes sur l’écran utilisé, les animations sont plus fluides, etc.

Cinnamon 6.6 sera l’environnement par défaut de la future version 22.3 de Linux Mint, nommée Zena. Elle doit arriver à la fin du mois ou début janvier. Pour les autres systèmes avec Cinnamon, la mise à jour de l’environnement dépendra de la philosophie de la distribution utilisée. Beaucoup ne changent pas de version majeure ou même intermédiaire avant la révision suivante. À noter que la version 6.6 est prête aussi bien pour l’édition standard de Linux Mint que pour LMDE, l’édition basée sur Debian.

  •  

Mesa's "Present Timing" Vulkan Driver Support Now Feature Complete

Last month the Vulkan VK_EXT_present_timing extension was merged after 5+ years in development. VK_EXT_present_timing ended up debuting at the end of November within the Vulkan 1.4.335 spec update to much excitement for providing functionality to obtain information on the presentation engine's display for accurate timing information and to assist in scheduling a present to happen no earlier than a desired time. This is a big win for helping avoid game stuttering and more while now the Mesa support for it is nearly complete and could be merged soon...
  •  

Intel llm-scaler-vllm Beta 1.2 Brings Support For New AI Models On Arc Graphics

Following yesterday's release of a new llm-scaler-omni beta there is now a new beta feature release of llm-scaler-vllm that provides the Intel-optimized version of vLLM within a Docker container that is set and ready to go for AI on modern Arc Graphics hardware. With today's llm-scaler-vllm 1.2 beta release there is support for a variety of additional large language models (LLMs) and other improvements...
  •  

Vibe coding : avec Devstral 2, Mistral vise la couronne de la rentabilité

« Pas le top, mais pas cher »
Vibe coding : avec Devstral 2, Mistral vise la couronne de la rentabilité

Mistral part plus frontalement à l’assaut de Claude Code et autre ChatGPT Codex. La startup française a lancé ce 9 décembre deux modèles dédiés au développement, dont une version légère fonctionnant sur du matériel grand public.

Mistral a lancé en juin dernier son outil Code, dédié au vibe coding. La semaine dernière, elle présentait ses modèles Mistral 3, déclinés en de nombreuses variantes.

La licorne veut doubler la mise avec sa nouvelle génération Devstral 2 dédiée aux développeurs, plus particulièrement au fonctionnement autonome agentique. Elle lance également un outil en ligne de commande, Vibe CLI, pour faciliter l’automatisation du code par le langage naturel.

Mistral joue la rentabilité

La nouvelle famille Devstral 2 se compose de deux modèles, un grand et un petit, ouverts et sous licence libre (une version modifiée de la licence MIT pour le grand, Apache 2.0 pour le petit). Le grand, avec ses 123 milliards de paramètres, est mis en avant. Mistral annonce un score de 72,2 % sur le test SWE-bench Verified, ce qui le classe parmi les meilleurs modèles, devant Claude 4.5 Sonnet (70,60 %) et derrière Claude 4.5 Opus (74,40 %) et Gemini 3 Pro (74,20 %). Sur le site du test, les scores des modèles Devstral 2 ne sont pas encore présents.

Mistral braque surtout les projecteurs sur la rentabilité de son modèle. Elle le présente comme « jusqu’à 7 fois plus rentable que Claude Sonnet pour des tâches réelles ». En outre, le modèle est actuellement gratuit via l’API Mistral. Après cette période de grâce, la tarification sera de 0,40 dollar par million de jetons en entrée et de 2 dollars en sortie. C’est d’ailleurs de là que vient la comparaison avec Sonnet, puisque la tarification de ce dernier est respectivement de 3 et 15 dollars.

Devstral 2 peut fonctionner localement, mais Mistral recommande quand même la présence d’au moins quatre puces H100 pour son déploiement. Sa fenêtre de contexte est de 256 000 jetons. « Devstral 2 permet d’explorer les bases de code et d’orchestrer les modifications sur plusieurs fichiers tout en maintenant un contexte au niveau de l’architecture. Il suit les dépendances du framework, détecte les défaillances et réessaie avec des corrections – résolvant des défis comme la correction de bugs et la modernisation des systèmes hérités. Le modèle peut être affiné pour prioriser des langages spécifiques ou optimiser pour de grandes bases de code d’entreprise », indique Mistral dans son communiqué.

Crédits : Mistral

Petit pimousse

Cependant, c’est bien Devstral 2 Small qui a attiré le plus l’attention. Il dispose de 24 milliards de paramètres et affiche, selon Mistral, un score de 68 % sur SWE-bench Verified. Lui aussi est pour l’instant disponible gratuitement via l’API. Après quoi, la tarification sera de 0,10 dollar par million de jetons en entrée et 0,30 dollar en sortie. Là aussi, la fenêtre de contexte est de 256 000 jetons. La communication de Mistral sur ce petit modèle est claire : il n’égale pas les gros modèles, mais il est 28 fois plus petit que DeepSeek 3.2.

Devstral 2 Small a attiré rapidement les commentaires, et pour cause : son installation locale peut se faire sur du matériel accessible au grand public. Une recherche « devstral » sur X montre rapidement un grand nombre de publications louant les résultats obtenus pour un modèle local. Dogac, par exemple, a testé les modèles dans un benchmark personnalisé et retrouve globalement les résultats donnés par Mistral. D’autres, comme N8Programs et Thadée Tyl, louent ses performances. Ce dernier affirme que Devstral 2 devient le meilleur modèle pour le développement sous la barre des 150 milliards de paramètres, et que Devstral 2 Small fait presque jeu égal avec Magistral 1.2 sans posséder de capacités de raisonnement.

Dans l’ensemble, les résultats obtenus par les deux modèles vont dans le sens de ce que nous déclarait récemment Horacio Gonzalez (Clever Cloud). Pour le responsable, on pouvait être optimiste sur les modèles locaux et open source, car leur progression est tout aussi rapide – même avec un décalage – que les modèles fermés en ligne. Une progression suffisante pour ne pas avoir à craindre une trop grande dépendance limitée à quelques gros acteurs du domaine.

Mistral Vibe CLI

Mistral a profité de son annonce pour lancer un nouvel outil, nommé Vibe CLI, également sous licence Apache. Il s’utilise en ligne de commande, similaire à des produits concurrents comme Claude Code et OpenAI Codex. Vibe CLI sert à interagir avec les modèles Mistral dans un terminal, avec des capacités d’analyse de structure de fichiers, de modifications sur plusieurs fichiers, de commandes shell, de recherche de code ou encore de contrôle de version.

Mistral insiste en particulier sur la prise en charge d’un « contexte conscient » du projet. La structure des fichiers et le statut Git sont ainsi analysés automatiquement. L’entreprise assure que le raisonnement se fait sur l’ensemble des fichiers et pas uniquement celui en cours d’édition. L’historique est décrit comme persistant, avec autocomplétion et thèmes personnalisables.

Crédits : @cedric_chee

« Vous pouvez exécuter Vibe CLI de manière programmatique pour le scripting, désactiver l’auto-approbation pour l’exécution de l’outil, configurer des modèles locaux et des fournisseurs via un simple config.toml, et contrôler les permissions des outils pour correspondre à votre flux de travail », indique Mistral, confirmant que son outil fonctionne avec des installations locales de ses modèles.

Sur le fonctionnement en ligne, certains notent des latences, conséquence probablement du lancement frais. D’autres ont testé Mistral Vibe en local avec le modèle Devstral 2 Small, comme N8Programs sur un Mac équipé d’une puce M3 Max. Le nombre de cœurs n’est pas précisé, mais la puce en contient au moins 14 sur la partie CPU et 30 sur la partie GPU. On trouve également des avis plus nuancés, notamment sur les performances de Devstral 2, avec des bons et mauvais points.

  •  

Vibe coding : avec Devstral 2, Mistral vise la couronne de la rentabilité

« Pas le top, mais pas cher »
Vibe coding : avec Devstral 2, Mistral vise la couronne de la rentabilité

Mistral part plus frontalement à l’assaut de Claude Code et autre ChatGPT Codex. La startup française a lancé ce 9 décembre deux modèles dédiés au développement, dont une version légère fonctionnant sur du matériel grand public.

Mistral a lancé en juin dernier son outil Code, dédié au vibe coding. La semaine dernière, elle présentait ses modèles Mistral 3, déclinés en de nombreuses variantes.

La licorne veut doubler la mise avec sa nouvelle génération Devstral 2 dédiée aux développeurs, plus particulièrement au fonctionnement autonome agentique. Elle lance également un outil en ligne de commande, Vibe CLI, pour faciliter l’automatisation du code par le langage naturel.

Mistral joue la rentabilité

La nouvelle famille Devstral 2 se compose de deux modèles, un grand et un petit, ouverts et sous licence libre (une version modifiée de la licence MIT pour le grand, Apache 2.0 pour le petit). Le grand, avec ses 123 milliards de paramètres, est mis en avant. Mistral annonce un score de 72,2 % sur le test SWE-bench Verified, ce qui le classe parmi les meilleurs modèles, devant Claude 4.5 Sonnet (70,60 %) et derrière Claude 4.5 Opus (74,40 %) et Gemini 3 Pro (74,20 %). Sur le site du test, les scores des modèles Devstral 2 ne sont pas encore présents.

Mistral braque surtout les projecteurs sur la rentabilité de son modèle. Elle le présente comme « jusqu’à 7 fois plus rentable que Claude Sonnet pour des tâches réelles ». En outre, le modèle est actuellement gratuit via l’API Mistral. Après cette période de grâce, la tarification sera de 0,40 dollar par million de jetons en entrée et de 2 dollars en sortie. C’est d’ailleurs de là que vient la comparaison avec Sonnet, puisque la tarification de ce dernier est respectivement de 3 et 15 dollars.

Devstral 2 peut fonctionner localement, mais Mistral recommande quand même la présence d’au moins quatre puces H100 pour son déploiement. Sa fenêtre de contexte est de 256 000 jetons. « Devstral 2 permet d’explorer les bases de code et d’orchestrer les modifications sur plusieurs fichiers tout en maintenant un contexte au niveau de l’architecture. Il suit les dépendances du framework, détecte les défaillances et réessaie avec des corrections – résolvant des défis comme la correction de bugs et la modernisation des systèmes hérités. Le modèle peut être affiné pour prioriser des langages spécifiques ou optimiser pour de grandes bases de code d’entreprise », indique Mistral dans son communiqué.

Crédits : Mistral

Petit pimousse

Cependant, c’est bien Devstral 2 Small qui a attiré le plus l’attention. Il dispose de 24 milliards de paramètres et affiche, selon Mistral, un score de 68 % sur SWE-bench Verified. Lui aussi est pour l’instant disponible gratuitement via l’API. Après quoi, la tarification sera de 0,10 dollar par million de jetons en entrée et 0,30 dollar en sortie. Là aussi, la fenêtre de contexte est de 256 000 jetons. La communication de Mistral sur ce petit modèle est claire : il n’égale pas les gros modèles, mais il est 28 fois plus petit que DeepSeek 3.2.

Devstral 2 Small a attiré rapidement les commentaires, et pour cause : son installation locale peut se faire sur du matériel accessible au grand public. Une recherche « devstral » sur X montre rapidement un grand nombre de publications louant les résultats obtenus pour un modèle local. Dogac, par exemple, a testé les modèles dans un benchmark personnalisé et retrouve globalement les résultats donnés par Mistral. D’autres, comme N8Programs et Thadée Tyl, louent ses performances. Ce dernier affirme que Devstral 2 devient le meilleur modèle pour le développement sous la barre des 150 milliards de paramètres, et que Devstral 2 Small fait presque jeu égal avec Magistral 1.2 sans posséder de capacités de raisonnement.

Dans l’ensemble, les résultats obtenus par les deux modèles vont dans le sens de ce que nous déclarait récemment Horacio Gonzalez (Clever Cloud). Pour le responsable, on pouvait être optimiste sur les modèles locaux et open source, car leur progression est tout aussi rapide – même avec un décalage – que les modèles fermés en ligne. Une progression suffisante pour ne pas avoir à craindre une trop grande dépendance limitée à quelques gros acteurs du domaine.

Mistral Vibe CLI

Mistral a profité de son annonce pour lancer un nouvel outil, nommé Vibe CLI, également sous licence Apache. Il s’utilise en ligne de commande, similaire à des produits concurrents comme Claude Code et OpenAI Codex. Vibe CLI sert à interagir avec les modèles Mistral dans un terminal, avec des capacités d’analyse de structure de fichiers, de modifications sur plusieurs fichiers, de commandes shell, de recherche de code ou encore de contrôle de version.

Mistral insiste en particulier sur la prise en charge d’un « contexte conscient » du projet. La structure des fichiers et le statut Git sont ainsi analysés automatiquement. L’entreprise assure que le raisonnement se fait sur l’ensemble des fichiers et pas uniquement celui en cours d’édition. L’historique est décrit comme persistant, avec autocomplétion et thèmes personnalisables.

Crédits : @cedric_chee

« Vous pouvez exécuter Vibe CLI de manière programmatique pour le scripting, désactiver l’auto-approbation pour l’exécution de l’outil, configurer des modèles locaux et des fournisseurs via un simple config.toml, et contrôler les permissions des outils pour correspondre à votre flux de travail », indique Mistral, confirmant que son outil fonctionne avec des installations locales de ses modèles.

Sur le fonctionnement en ligne, certains notent des latences, conséquence probablement du lancement frais. D’autres ont testé Mistral Vibe en local avec le modèle Devstral 2 Small, comme N8Programs sur un Mac équipé d’une puce M3 Max. Le nombre de cœurs n’est pas précisé, mais la puce en contient au moins 14 sur la partie CPU et 30 sur la partie GPU. On trouve également des avis plus nuancés, notamment sur les performances de Devstral 2, avec des bons et mauvais points.

  •  

MSI lance ses cartes mères AM5 X870(E) MAX et EVO, en route vers les AMD Zen 6 alias Olympic Ridge !

Nous y voilà. Cela aura pris du temps car cela fait des semaines et mêmes mois qu'on entend parler de l'arrivée des nouvelles cartes mères AM5 séries "MAX" et "EVO" de MSI et (notamment) de leurs capacité à accueillir des BIOS faisant jusqu'à 64 Mo, contre 32 Mo au maximum sur les cartes avec chipse...

  •  

Sperm Donor With Cancer-Causing Gene Fathered Nearly 200 Children Across Europe

schwit1 shares a report from CBS News: perm from a donor who unknowingly carried a cancer-causing gene has been used to conceive nearly 200 babies across Europe, an investigation by 14 European public service broadcasters, including CBS News' partner network BBC News, has revealed. Some children conceived using the sperm have already died from cancer, and the vast majority of those who inherited the gene will develop cancer in their lifetimes, geneticists said. The man carrying the gene passed screening checks before he became a donor at the European Sperm Bank when he was a student in 2005. His sperm has been used by women trying to conceive for 17 years across multiple countries. The cancer-causing mutation occurred in the donor's TP53 gene -- which prevents cells in the body from turning cancerous -- before his birth, according to the investigation. It causes Li Fraumeni syndrome, which gives affected people a 90% chance of developing cancers, particularly during childhood, as well as breast cancer in later life. Up to 20% of the donor's sperm contained the mutated TP53 gene. Any children conceived with affected sperm will have the dangerous mutation in every cell of their body. The affected donor sperm was discovered when doctors seeing children with cancers linked to sperm donation raised concerns at this year's European Society of Human Genetics. At the time, 23 children with the genetic mutation had been discovered, out of 67 children linked to the donor. Ten of those children with the mutation had already been diagnosed with cancer. Freedom of Information requests submitted by journalists across multiple countries revealed at least 197 children were affected, though it is not known how many inherited the genetic mutation. More affected children could be discovered as more data becomes available.

Read more of this story at Slashdot.

  •  

Test ZiiGaat Horizon : une bousculade dans le high-end des IEMs !

On revient aujourd’hui sur le constructeur audio chinois ZiiGaat pour le test d’un nouveau casque intra-auriculaire : les Horizon. Carrément badgé ‘’tribid’’, ces IEMs intègrent trois types drivers : un de type dynamique de 10 mm de diamètre pour les graves, deux BA (balanced armature) pour les médiums et pour compléter, deux autres de type planaire dédiés aux aigus ! C’est ce dernier point qui semble expliquer le prix qui commence à taper dans le haut de gamme : 289€ environ pour acquérir le casque, ce qui ne représente pas rien. Sans être parfaite, le constructeur annonce une courbe de réponse en fréquence qui annonce clarté et basses expansives pour une endurance d’écoute accrue. C’est vendeur sur le papier, quand qu’en est-il dans la réalité ? Que nous réservent-ils face aux excellents Odyssey 2 que nous avions déjà pu essayer il y a quelques temps, vendus quelques dizaines d’euros moins chers et dont les performances les positionnent déjà sur un excellent rapport qualité-prix ? On vous donne notre avis dans ce test !
  •  

BenQ Mobiuz EX271UZ : un concentré d'OLED pour les joueurs exigeants

Venez découvrir avec nous, le nouvel écran Mobiuz EX271UZ, un écran de 27 pouces, en dalle OLED, signé BenQ. Il propose une définition UHD et peut atteindre une fréquence de 240 Hz avec la prise en charge de l'AMD FreeSync. Comme toujours avec cette gamme, on retrouve un excellent temps de réponse de 0,03 ms ainsi qu'un taux de contraste impressionnant de 1 500 000:1. L'écran affiche 1,07 milliard de couleurs, offre une luminosité maximale de 250 cd/m² et peut atteindre des pics HDR à 1000 cd/m². Il est certifié HDR 400 True Black. […]

Lire la suite
  •  

Test ZiiGaat Horizon : une bousculade dans le high-end des IEMs !

Notre premier test du jour s'apprécie avec une petite musique dans nos oreilles, il porte sur un casque intra-auriculaire, fabriqué par ZiiGaat et qui se nomme Horizon. Résolument haut de gamme, avec un tarif annoncé à 289 euros et une pochette de transport en cuir, ces Horizon ont-ils tous les arguments nécessaires pour venir se loger dans vos oreilles ?Réponse ici : ZiiGaat Horizon ou sur la source. […]

Lire la suite
  •  

☕️ Deloitte de nouveau accusé d’avoir rendu un rapport en partie généré par IA

Fin novembre, au Canada, le gouvernement de Terre-Neuve-et-Labrador a dû demander à Deloitte de reprendre son travail après y avoir trouvé des citations erronées.

Pour 1,6 million de dollars canadiens (près d’1 million d’euros), d’après le média The Independent, la société de consultants avait rendu un rapport de 526 pages proposant un plan de dotation pour le secteur de la santé de la province canadienne.

Dans au moins deux cas, les noms de chercheurs réels ont été mentionnés alors que ces derniers n’étaient pas les auteurs des articles fictifs cités. 
Parmi eux, Martha McLeod, professeure émérite à l’Université du nord de la Colombie-Britannique, a déclaré ses citations « fausses » et « potentiellement générées par IA ».

Le but du rapport incluant lesdites citations est de proposer une série de mesures relatives aux soins à distance, aux incitations financières, de rétention et au recrutement de personnel de santé, ou encore aux répercussions de la pandémie de Covid-19 sur le personnel de santé.

Deloitte a reconnu la présence de citations erronées, tout en indiquant que l’intelligence artificielle n’avait « pas été utilisée pour la rédaction du rapport », mais simplement utilisée « de manière sélective pour étayer certaines citations de recherche ». 


Moins de deux mois avant cette affaire, Deloitte reconnaissait avoir rendu un rapport partiellement généré par IA au gouvernement australien et s’engageait à rembourser une partie des 439 000 dollars australiens (245 500 euros) déboursés pour obtenir cet audit du système informatique dédié à automatiser les sanctions dans le système social local.

  •