Vue lecture

Vibe coding : avec Devstral 2, Mistral vise la couronne de la rentabilité

« Pas le top, mais pas cher »
Vibe coding : avec Devstral 2, Mistral vise la couronne de la rentabilité

Mistral part plus frontalement à l’assaut de Claude Code et autre ChatGPT Codex. La startup française a lancé ce 9 décembre deux modèles dédiés au développement, dont une version légère fonctionnant sur du matériel grand public.

Mistral a lancé en juin dernier son outil Code, dédié au vibe coding. La semaine dernière, elle présentait ses modèles Mistral 3, déclinés en de nombreuses variantes.

La licorne veut doubler la mise avec sa nouvelle génération Devstral 2 dédiée aux développeurs, plus particulièrement au fonctionnement autonome agentique. Elle lance également un outil en ligne de commande, Vibe CLI, pour faciliter l’automatisation du code par le langage naturel.

Mistral joue la rentabilité

La nouvelle famille Devstral 2 se compose de deux modèles, un grand et un petit, ouverts et sous licence libre (une version modifiée de la licence MIT pour le grand, Apache 2.0 pour le petit). Le grand, avec ses 123 milliards de paramètres, est mis en avant. Mistral annonce un score de 72,2 % sur le test SWE-bench Verified, ce qui le classe parmi les meilleurs modèles, devant Claude 4.5 Sonnet (70,60 %) et derrière Claude 4.5 Opus (74,40 %) et Gemini 3 Pro (74,20 %). Sur le site du test, les scores des modèles Devstral 2 ne sont pas encore présents.

Mistral braque surtout les projecteurs sur la rentabilité de son modèle. Elle le présente comme « jusqu’à 7 fois plus rentable que Claude Sonnet pour des tâches réelles ». En outre, le modèle est actuellement gratuit via l’API Mistral. Après cette période de grâce, la tarification sera de 0,40 dollar par million de jetons en entrée et de 2 dollars en sortie. C’est d’ailleurs de là que vient la comparaison avec Sonnet, puisque la tarification de ce dernier est respectivement de 3 et 15 dollars.

Devstral 2 peut fonctionner localement, mais Mistral recommande quand même la présence d’au moins quatre puces H100 pour son déploiement. Sa fenêtre de contexte est de 256 000 jetons. « Devstral 2 permet d’explorer les bases de code et d’orchestrer les modifications sur plusieurs fichiers tout en maintenant un contexte au niveau de l’architecture. Il suit les dépendances du framework, détecte les défaillances et réessaie avec des corrections – résolvant des défis comme la correction de bugs et la modernisation des systèmes hérités. Le modèle peut être affiné pour prioriser des langages spécifiques ou optimiser pour de grandes bases de code d’entreprise », indique Mistral dans son communiqué.

Crédits : Mistral

Petit pimousse

Cependant, c’est bien Devstral 2 Small qui a attiré le plus l’attention. Il dispose de 24 milliards de paramètres et affiche, selon Mistral, un score de 68 % sur SWE-bench Verified. Lui aussi est pour l’instant disponible gratuitement via l’API. Après quoi, la tarification sera de 0,10 dollar par million de jetons en entrée et 0,30 dollar en sortie. Là aussi, la fenêtre de contexte est de 256 000 jetons. La communication de Mistral sur ce petit modèle est claire : il n’égale pas les gros modèles, mais il est 28 fois plus petit que DeepSeek 3.2.

Devstral 2 Small a attiré rapidement les commentaires, et pour cause : son installation locale peut se faire sur du matériel accessible au grand public. Une recherche « devstral » sur X montre rapidement un grand nombre de publications louant les résultats obtenus pour un modèle local. Dogac, par exemple, a testé les modèles dans un benchmark personnalisé et retrouve globalement les résultats donnés par Mistral. D’autres, comme N8Programs et Thadée Tyl, louent ses performances. Ce dernier affirme que Devstral 2 devient le meilleur modèle pour le développement sous la barre des 150 milliards de paramètres, et que Devstral 2 Small fait presque jeu égal avec Magistral 1.2 sans posséder de capacités de raisonnement.

Dans l’ensemble, les résultats obtenus par les deux modèles vont dans le sens de ce que nous déclarait récemment Horacio Gonzalez (Clever Cloud). Pour le responsable, on pouvait être optimiste sur les modèles locaux et open source, car leur progression est tout aussi rapide – même avec un décalage – que les modèles fermés en ligne. Une progression suffisante pour ne pas avoir à craindre une trop grande dépendance limitée à quelques gros acteurs du domaine.

Mistral Vibe CLI

Mistral a profité de son annonce pour lancer un nouvel outil, nommé Vibe CLI, également sous licence Apache. Il s’utilise en ligne de commande, similaire à des produits concurrents comme Claude Code et OpenAI Codex. Vibe CLI sert à interagir avec les modèles Mistral dans un terminal, avec des capacités d’analyse de structure de fichiers, de modifications sur plusieurs fichiers, de commandes shell, de recherche de code ou encore de contrôle de version.

Mistral insiste en particulier sur la prise en charge d’un « contexte conscient » du projet. La structure des fichiers et le statut Git sont ainsi analysés automatiquement. L’entreprise assure que le raisonnement se fait sur l’ensemble des fichiers et pas uniquement celui en cours d’édition. L’historique est décrit comme persistant, avec autocomplétion et thèmes personnalisables.

Crédits : @cedric_chee

« Vous pouvez exécuter Vibe CLI de manière programmatique pour le scripting, désactiver l’auto-approbation pour l’exécution de l’outil, configurer des modèles locaux et des fournisseurs via un simple config.toml, et contrôler les permissions des outils pour correspondre à votre flux de travail », indique Mistral, confirmant que son outil fonctionne avec des installations locales de ses modèles.

Sur le fonctionnement en ligne, certains notent des latences, conséquence probablement du lancement frais. D’autres ont testé Mistral Vibe en local avec le modèle Devstral 2 Small, comme N8Programs sur un Mac équipé d’une puce M3 Max. Le nombre de cœurs n’est pas précisé, mais la puce en contient au moins 14 sur la partie CPU et 30 sur la partie GPU. On trouve également des avis plus nuancés, notamment sur les performances de Devstral 2, avec des bons et mauvais points.

  •  

☕️ Deloitte de nouveau accusé d’avoir rendu un rapport en partie généré par IA

Fin novembre, au Canada, le gouvernement de Terre-Neuve-et-Labrador a dû demander à Deloitte de reprendre son travail après y avoir trouvé des citations erronées.

Pour 1,6 million de dollars canadiens (près d’1 million d’euros), d’après le média The Independent, la société de consultants avait rendu un rapport de 526 pages proposant un plan de dotation pour le secteur de la santé de la province canadienne.

Dans au moins deux cas, les noms de chercheurs réels ont été mentionnés alors que ces derniers n’étaient pas les auteurs des articles fictifs cités. 
Parmi eux, Martha McLeod, professeure émérite à l’Université du nord de la Colombie-Britannique, a déclaré ses citations « fausses » et « potentiellement générées par IA ».

Le but du rapport incluant lesdites citations est de proposer une série de mesures relatives aux soins à distance, aux incitations financières, de rétention et au recrutement de personnel de santé, ou encore aux répercussions de la pandémie de Covid-19 sur le personnel de santé.

Deloitte a reconnu la présence de citations erronées, tout en indiquant que l’intelligence artificielle n’avait « pas été utilisée pour la rédaction du rapport », mais simplement utilisée « de manière sélective pour étayer certaines citations de recherche ». 


Moins de deux mois avant cette affaire, Deloitte reconnaissait avoir rendu un rapport partiellement généré par IA au gouvernement australien et s’engageait à rembourser une partie des 439 000 dollars australiens (245 500 euros) déboursés pour obtenir cet audit du système informatique dédié à automatiser les sanctions dans le système social local.

  •  

☕️ En France, 80 % des abonnements sur le fixe passent par la fibre

Chaque trimestre, le régulateur des télécoms publie son observatoire du marché des services fixes à haut et très haut débit : « Fin septembre 2025, la France compte 26,3 millions d’abonnements à la fibre optique, soit 80 % du nombre total d’abonnements internet à usage fixe », soit 610 000 de plus en trois mois.

Le déploiement de la fibre aussi va bon train puisqu’elle couvre désormais 93,5 % des locaux. 430 000 locaux supplémentaires ont été rendus raccordables à la fibre, un chiffre en baisse trimestre après trimestre (le pic était fin 2020). Une chute logique : seules les lignes difficiles/coûteuses restent à raccorder, soit environ 3 millions.

Voici le détail :

  • 220 000 dans les RIP (Réseaux d’Initiative Publique), reste 1 410 000,
  • 30 000 dans les AMEL (appels à manifestation d’engagements locaux), reste 75 000,
  • 20 000 dans les zones très denses, reste 470 000.

Comme toujours, tous les détails se trouvent sur le site de l’Arcep. Vous pouvez également consulter une carte des déploiements fibre sur Ma connexion Internet.

  •  

Le dossier médical partagé obligatoire pour les soignants sous peine de sanctions

Errance et traçabilité
Le dossier médical partagé obligatoire pour les soignants sous peine de sanctions

L’Assemblée nationale a validé le 9 décembre le projet de loi de financement de la Sécurité sociale (PLFSS) pour 2026. Parmi les nombreuses mesures qu’il contient, une très forte incitation à l’utilisation du dossier médical partagé (Mon Espace Santé) par les professionnels, sous peine d’amende.

Tard dans la soirée du 9 décembre, les députés ont validé le PLFSS 2026. Il s’en est fallu de peu. Le Premier ministre, Sébastien Lecornu, a salué une « majorité de compromis et de responsabilité ». La version votée est très différente de la copie initiale du 14 octobre, comme l’a résumé Caducée.net.

La partie du texte consacrée à Mon Espace Santé n’a cependant que peu changé. Le texte met l’accent sur une intensification de l’usage, mais pas par les usagers. Devant des chiffres en croissance constante, ce sont cette fois les professionnels qui sont pointés du doigt.

Un dossier médical partagé, pour quoi faire ?

L’idée centrale derrière un dossier médical en ligne est son partage entre les différents professionnels de santé, dans l’objectif de réduire drastiquement « l’errance médicale » (ou nomadisme médical). Cette dernière se manifeste quand le manque de communication entre médecins et autres praticiens entraîne la multiplication d’examens déjà réalisés, avec à la clé une hausse importante de la facture pour l’Assurance maladie (et les mutuelles).


Il reste 82% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

Qualcomm se renforce dans RISC-V avec Ventana, Intel dans l’IA avec SambaNova

C’est la samba des dollars
Qualcomm se renforce dans RISC-V avec Ventana, Intel dans l’IA avec SambaNova

En l’espace de quelques jours, deux rachats par des géants des puces ont été annoncés. Le premier concerne Qualcomm qui se renforce dans l’architecture ouverte RISC-V avec le rachat de Ventana. Le deuxième avec Intel qui aurait signé un accord (non engageant) avec SambaNova, une start-up à la mode dans le monde de l’IA.

Qualcomm veut renforcer ses cœurs Oryon avec RISC-V

Dans le but d’approfondir son expertise dans les processeurs RISC-V, Qualcomm vient d’annoncer le rachat de Ventana Micro Systems. « L’équipe de Ventana viendra compléter le développement en cours de Qualcomm sur RISC-V et ses CPU Oryon », explique l’entreprise dans un communiqué. Oryon est pour rappel le nom de ses cœurs CPU, aussi bien pour les smartphones que les ordinateurs portables Arm.

Ventana a été fondée en 2018 et fait partie du comité de pilotage technique de RISC-V. Elle a lancé son premier processeur en 2023 : Veyron. Il est gravé avec une technologie 5 nm, dispose de 16 cœurs et fonctionne jusqu’à 3,6 GHz. Veyron 2 est prévu pour début 2026 avec jusqu’à 32 cœurs, puis ce sera au tour de Veyron 3.

Qualcomm a pour rappel lancé en 2023 une alliance autour de RISC-V avec quatre autres géants : Robert Bosch GmbH, Infineon Technologies AG, Nordic Semiconductor et NXP Semiconductors. Le but est de développer une alternative libre et ouverte à Arm, avec qui Qualcomm a de nombreux différends.

Pour rappel, l’architecture RISC-V propose un jeu d’instructions ouvert et libre, de 32 à 128 bits. Chacun peut y ajouter ses propres instructions et elle peut prendre en charge un très grand nombre de cœurs, ce qui est particulièrement utile dans un monde où l’IA règne en maitre ou presque.

Un accord entre Intel et SambaNova ?

Dans le même temps, Intel aurait trouvé un accord avec SambaNova pour la racheter, c’est du moins ce qu’affirment des sources à Wired. « Le détail des conditions n’est pas connu. L’accord n’est pas contraignant, ce qui signifie qu’il n’est pas encore finalisé et pourrait être dissout sans pénalité », expliquent nos confrères.

Nous parlions de SambaNova récemment, à l’occasion de l’OVH Summit, qui faisait la part belle à l’intelligence artificielle et à l’inférence. C’était en effet une des principales annonces de l’hébergeur : la mise à « disposition de nouvelles infrastructures IA avec SambaNova ».

L’hébergeur « déploiera de nouveaux accélérateurs dédiés à l’inférence à grande échelle (RDU), avec des offres de très grande capacité de calcul en utilisation « low latency » et « batch », permettant des cas d’usage demandant de la performance pour la parallélisation de threads à l’échelle ».

Liaison dangereuse de Lip-Bu Tan, le CEO d’Intel

En 2021, SambaNova avait levé 676 millions de dollars via SoftBank, Temasek et GIC. « Ils viennent rejoindre les investisseurs existants BlackRock, Intel Capital, Google Ventures, Walden International et WRVI. Au total, la start-up a levé 1 Md$ pour une valorisation estimée à 5 Md$ », expliquait Le Monde Informatique.

SambaNoba et Intel se connaissent très bien par l’intermédiaire de… Lip-Bu Tan. Il est à la fois le CEO d’Intel et le président (chairman) de SambaNova. Aucune des parties prenantes n’a souhaité répondre à nos confrères.

Reuters rappelle qu’une histoire similaire s’est déjà déroulée l’été dernier, avec la start-up Rivos dont Lip-Bu Tan est aussi président. Lip-Bu Tan avait proposé à Intel de racheter Rivos, « mais il n’avait pas eu de chance. Le conseil a déclaré à Tan qu’il avait un conflit en représentant à la fois les intérêts de Rivos et ceux d’Intel, et qu’il manquait d’une stratégie en matière d’intelligence artificielle pour justifier un accord », ont affirmé des sources à nos confrères.

C’est finalement Meta qui aurait remporté la mise, faisant grimper les enchères. Reuters n’a pas pu calculer le montant que le CEO d’Intel a personnellement gagné en tant qu’actionnaire de Rivos. Néanmoins, toujours selon nos confrères, la société de capital-risque de Lip-Bu Tan (Walden Catalyst) parle d’un « remarquable succès ».

Ce n’est pas la première fois que les multiples casquettes de Lip-Bu Tan font parler. En août, Donald Trump avait carrément appelé à la démission le nouveau CEO d’Intel suite à une lettre du sénateur républicain de l’Arkansas Tom Cotton. Il y posait « des questions sur les liens du nouveau CEO Lip-Bu Tan avec des entreprises chinoises et une récente affaire pénale impliquant son ancienne société Cadence Design ».

Quelques jours plus tard, le même président des États-Unis vantait l‘« histoire incroyable » du CEO d’Intel et ne parlait plus de démission. Pour nos confrères américains, « le CEO d’Intel avait réussi à courtiser le président Trump ».

  •  

Voitures, datacenters : RTE appelle à accélérer l’électrification des usages

Electric feel
Voitures, datacenters : RTE appelle à accélérer l’électrification des usages

Dans son bilan prévisionnel annuel, RTE se fait l’avocat de l’accélération de l’électrification des usages pour assurer un meilleur équilibre entre consommation et production d’électricité.

Il faut accélérer l’électrification de la société française. C’est le constat principal que dresse RTE, le réseau public de transport d’électricité, dans son bilan prévisionnel 2025 – 2035.

Parmi ses missions, le gestionnaire doit anticiper l’équilibre entre l’offre et la demande d’électricité. Dans cet exercice annuel, RTE s’était penché en 2023 sur les stratégies permettant d’atteindre la neutralité carbone en 2050, scénarios qui permettraient d’obtenir des « bénéfices stratégiques et climatiques considérables », à commencer par une moindre dépendance aux sources d’énergie fossile et la réduction des pollutions associées à leur usage.

En cette fin 2025, RTE constate que la consommation électrique est « demeurée atone » depuis la pandémie de Covid-19 (elle reste inférieure de 6 % à son niveau de 2019), quand la production d’énergies renouvelables (hydraulique comprise) et nucléaire ont progressé. Le gestionnaire actualise donc ses prévisions, tout en détaillant les enjeux posés par l’actuelle surcapacité électrique de la France.

Si cette dernière n’est pas neuve – « dès la seconde partie des années 1980, la production d’électricité française est devenue structurellement excédentaire par rapport à la consommation » –, l’épisode de surcapacité actuel pourrait devenir préoccupant, notamment pour le poids qu’il créerait sur les dépenses publiques. Étudiant divers scénarios de décarbonation, RTE plaide pour une accélération de l’électrification des usages et pour la concrétisation de la majorité des projets industriels prévus, notamment dans l’industrie des centres de données.

Promotion de la décarbonation rapide

La stratégie de décarbonation de la France est autant un enjeu climatique que géostratégique, rappelle le document. À l’heure actuelle, l’import d’énergies fossiles (pétrole, gaz et charbon) constitue toujours près de 60 % de l’énergie finale consommée en France. Elles pèsent pour 50 à 70 milliards d’euros dans les factures nationales annuelles. Du côté de l’électricité, la France a battu son record historique d’exportations avec 89 TWh en 2024.

Pour répondre à ces enjeux, RTE a développé ses capacités de production électrique en rétablissant les capacités nucléaires à la suite de la pandémie, mais aussi en accélérant celles de production d’énergies renouvelables. Et de souligner : vu l’état du réseau comme de la production, « les risques de conflits d’usage entre filières à électrifier sont écartés ». À court terme, le problème réside plutôt dans la relative stabilité de la consommation électrique.

RTE se penche donc sur deux scénarios : un de décarbonation rapide, qui conduirait à une augmentation toute aussi rapide de la consommation électrique, pour parvenir à 510 térawattheures (TWh) en 2030 et 580 TWh en 2035. Un autre, de « décarbonation lente », prévoit tout de même une augmentation de la consommation électrique, mais de 25 TWh seulement par rapport à la consommation actuelle, pour n’atteindre que 470 TWh en 2030 et 505 TWh en 2035. En 2024, la consommation française (corrigée des aléas météorologiques) était de 449 TWh, en hausse de 3 TWh (+ 0,7 %) sur un an.

En pratique, RTE appelle à la concrétisation, d’ici 2030, de 60 % des projets prévus en termes de production d’hydrogène, de développement de centres de données et d’autres projets industriels, ce qui permettrait d’augmenter leur consommation à 15 TWh par an pour le premier secteur, 15 TWh par an pour le deuxième (contre 5 TWh aujourd’hui) et 113 TWh par an pour les derniers.

Comme les deux derniers consomment de l’électricité mais ne réduisent pas pour autant les émissions de CO₂ (tandis que l’hydrogène produit électriquement remplacerait, lui, l’hydrogène produit par extraction chimique de combustibles fossiles), cette évolution ne peut se faire sans une évolution des usages d’énergie fossile, notamment du côté des transports. En la matière, RTE appelle à une augmentation de 17 TWh de la consommation électrique associée aux voitures électriques (contre 15 TWh en 2024), ce qui reviendrait à atteindre 8 millions de véhicules d’ici 2030 (contre 2 millions l’an dernier).

Un tel scénario permettrait de résorber la surcapacité tout en mettant la France sur la voie de ses objectifs de décarbonation. Autrement dit, répète le gestionnaire public au fil de son rapport, la situation actuelle est « très avantageuse pour décarboner rapidement ».

Les coûts de la décarbonation lente

Le gestionnaire constate néanmoins que « la consommation d’électricité n’est pas, pour le moment, alignée sur les objectifs de décarbonation et de réindustrialisation de la France ». Il l’explique de deux manières : par la sous-estimation des progrès effectivement réalisés, le seul passage à des éclairages LED ayant par exemple permis de réduire la consommation électrique de 10 TWh entre 2010 et 2020, et par les effets non anticipés des crises sanitaires et énergétiques, depuis lesquelles la consommation électrique stagne.

Or, « si la hausse de la consommation ne peut être considérée comme un but en soi », seule une « augmentation nette de la consommation d’électricité nationale » permettra la décarbonation du pays, insiste RTE. Dans un scénario de décarbonation lente (dans lequel seulement 15 % des projets liés à l’hydrogène, 10 % des projets industriels et 30 % des projets de datacenters seraient concrétisés), comme nous ne savons pas stocker massivement l’électricité excédentaire, il faudrait limiter la production.

Côté nucléaire, RTE esquisse la possibilité de réduire la production du parc nucléaire de l’ordre de 50 TWh, « pour absence de débouché économique ». L’export vers d’autres nations européennes ne représente qu’une faible possibilité, puisque nos voisins subissent des trop-pleins similaires, en particulier du côté des énergies solaires et éoliennes. En la matière, RTE préconise de limiter la production de renouvelable, en particulier en milieu de journée, dans les moments les plus ensoleillés. Elle prévoit pouvoir économiser 30 gigawatts (GW) de cette manière.

Le gestionnaire public alerte néanmoins sur le fait qu’une telle réduction aurait un coût. Elle entraînerait « une forte érosion des revenus des producteurs sur les marchés, de l’ordre de - 20 Md€/an », réduction qui serait « partiellement compensée par les dispositifs de soutien public », mais qui créerait donc une « hausse des charges budgétaires associées ».

Elle s’inquiète aussi des effets de logiques de « stop and go » sur les filières industrielles, susceptibles de « brider les efforts des filières renouvelables pour relocaliser une partie de leur industrie manufacturière en France et en Europe ». À moyen terme, une telle logique pourrait par ailleurs mettre en péril la possibilité de maintenir ou d’accélérer l’électrification en 2035.

  •  

Intel vs Europe : 20 ans de procédure, une amende divisée par 4

On s’était dit rdv dans (2x) 10 ans
Intel vs Europe : 20 ans de procédure, une amende divisée par 4

1,06 milliard d’euros en 2009, puis 376 millions en 2023 et maintenant 237 millions d’euros. Intel multiplie les pourvois depuis près de 20 ans. L’entreprise reste condamnée pour abus de position dominante, mais elle parvient à diviser son amende par 4,4. L’affaire n’est pas forcément encore terminée car un nouveau pourvoi est possible.

Vous connaissez la série à rallonge Santa Barbara ? En Europe, nous en avons une version maison avec la condamnation par Intel à une amende de la Commission européenne pour abus de position dominante. Entre 2009 et 2025, les allers-retours sont nombreux avec la Cour de justice de l’Union européenne.

2009 : amende de 1,06 milliard d’euros de la Commission

Marty, prépare la DeLorean, nous allons en avoir vraiment besoin. L’affaire du jour remonte aux années 2000 avec des plaintes de son concurrent AMD (2000, 2003 et 2006) contre Intel pour des faits qui se sont déroulés entre 2002 et 2007.


Il reste 87% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

Face aux moqueries, McDonald’s retire sa pub de Noël générée par IA

Santa Slop
Face aux moqueries, McDonald’s retire sa pub de Noël générée par IA

McDonald’s Pays-Bas a récemment diffusé une publicité de Noël aux séquences générées par IA. La vidéo a rapidement suscité des sarcasmes sur les réseaux sociaux, conduisant à son retrait. Les justifications de l’agence en charge de la création n’ont pas arrangé la situation, illustrant les tensions que l’IA générative pourrait faire peser un jour sur l’industrie de la publicité.

Baptisée It’s the Most Terrible Time of The Year, la vidéo de Noël de McDonald’s Pays-Bas, se voulait l’incarnation du nouveau champ des possibles ouverts par l’IA. Produite par l’agence hollandaise TBWA/Neboko, la mise en ligne de cette campagne s’est en effet accompagnée d’une communication visant à souligner le caractère novateur de cette création publicitaire, fruit d’une collaboration « avec un réseau international de partenaires spécialisés en IA ».

De l’IA assumée, mais un peu trop visible

Le concept ? Une référence inversée à la célèbre chanson d’Andy Williams, pour souligner la façon dont les festivités de fin d’année peuvent se changer en autant de déconvenues, entre chutes sur un trottoir verglacé, cookies brûlés, guirlandes aux courts-circuits explosifs et paquets-cadeaux renversés… alors qu’il suffit bien sûr de passer les portes d’un restaurant McDonald’s pour être touché par la douce féérie de Noël.

Si votre jambe présente un tel angle, oubliez le réveillon de Noël, vous avez des soucis plus urgents – capture d’écran

Bref, le message est relativement classique, et la pub en question aurait sans doute fait l’objet d’une diffusion sans histoire si quelques détails n’étaient pas venus souligner de façon un peu trop flagrante le recours à des modèles d’IA générative, entre visages dignes de mannequins de cire, bras qui semble se désintégrer, ou chat qui saute selon une drôle de ligne droite avant de percuter puis de faire s’effondrer un sapin…

Le rythme haché, avec des scènes qui ne durent pas plus de trois ou quatre secondes, constituait si nécessaire un indice supplémentaire : les modèles spécialisés dans la vidéo peinent en effet à maintenir plus longtemps la cohérence visuelle sans artefacts visibles. Ici, il n’y avait cependant pas vraiment besoin de jouer les Sherlock, puisque le recours à l’IA a été publiquement assumé par l’agence en charge de la création.

De l’IA, oui, mais beaucoup de travail

L’annonce de la vidéo, puis son relais par des comptes spécialisés dans le suivi des campagnes de création publicitaire, a rapidement suscité quelques critiques sur les réseaux sociaux, avec des messages s’étonnant par exemple de la « créativité » revendiquée par l’agence. La vidéo initialement publiée sur YouTube a quant à elle reçu un ratio J’aime / Je n’aime pas très largement défavorable, ainsi que des commentaires peu amènes établissant des parallèles entre cette pub et les qualités gustatives des sandwichs de l’enseigne. Résultat des courses, la vidéo en question a été rapidement dépubliée, même s’il en subsiste de nombreux miroirs.

McDonald's has released an AI-generated Christmas ad

The studio behind it says they 'hardly slept' for several weeks while writing AI prompts and refining the shots — 'AI didn't make this film. We did'

Comments have been turned off on YouTube pic.twitter.com/Es5ROvI7n2

— Culture Crave 🍿 (@CultureCrave) December 8, 2025

L’affaire aurait sans doute pu en rester là si les prestataires en charge de la réalisation n’avaient pas vigoureusement défendu leur travail. Le studio The Sweetshop, responsable de la production via sa branche spécialisée dans l’IA, The Gardening.club, s’est d’abord exprimé dans un message, supprimé depuis, dont la teneur véhémente, reproduite par d’autres médias spécialisés, a certainement contribué à la formation d’un effet Streisand.

« Pendant sept semaines, nous n’avons quasiment pas dormi, avec jusqu’à dix de nos spécialistes internes en IA et post-production chez The Gardening Club travaillant en étroite collaboration avec les réalisateurs », défend le studio, avant de décrire un long processus de production, puis de post-production, avec des « retouches à l’échelle du pixel », des « milliers d’itérations », la correction d’effets physiques, la suppression d’artefacts, etc. Et de conclure, avec un joli sens de la formule :

« Je ne vois pas ce spot comme une simple curiosité ou une expérience saisonnière amusante. Pour moi, c’est la preuve de quelque chose de bien plus important : lorsque le savoir-faire et la technologie se conjuguent à une intention précise, ils peuvent créer une œuvre d’une véritable dimension cinématographique. Alors non, ce n’est pas l’IA qui a fait ce film. C’est nous. »

« L’avenir est là, et il ne s’annonce pas bien », réagit de façon ironique un utilisateur d’Instagram. Quoi que l’on pense de ce spot aux couleurs de McDonald’s, la position du studio souligne en effet un état de fait : l’IA générative s’est officiellement frayé un chemin dans le processus de production des agences de publicité, qui revendiquent d’ailleurs des moyens humains significatifs.

De l’IA et beaucoup de travail, mais des coûts en baisse

Ainsi, Coca-Cola aurait, via agences, fait plancher 100 personnes autour de l’assemblage de 70 000 segments vidéo pour parvenir à la réalisation de son propre spot de Noël « full IA », vilipendé par la presse comme par les internautes. « La publicité la plus fructueuse de l’histoire de Pepsi », ironise l’un d’entre eux sur YouTube, liké plus de 20 000 fois.

Interrogé début novembre, lors de la publication de cette vidéo, Coca-Cola a refusé de révéler quel budget avait été consacré à la production de cette campagne, dont la diffusion était prévue dans 140 pays. Son directeur marketing a cependant admis que la production avait été à la fois plus rapide et plus économique que si le spot avait été réalisé sans recours à l’IA.

Quels seront les effets sur les métiers de la création publicitaire ? « Il est raisonnable de conclure que la créativité IA est désormais la norme et non plus l’exception, laissait déjà entendre cet été le cabinet d’analyse Forrester. « Une agence a accéléré sa mise sur le marché de 80 % ou plus par rapport à ses projets sans IA. D’autres agences ont réduit leurs coûts de production de 40 à 50 %. Et les marques internationales qui intègrent l’IA à l’ensemble de leur stratégie marketing ont vu leurs performances publicitaires augmenter jusqu’à 70 % ».

En attendant de voir si les publicitaires du Pays-Bas ont toujours les moyens de venir manger chez McDo, l’enseigne pourra régler avec son agence un autre litige potentiel. Sur LinkedIn, où la boîte de production a reproduit son message de défense dans une version édulcorée, un directeur artistique français souligne, lien à l’appui, que le concept même de la publicité est une reprise éhontée d’un spot de Noël élaboré en 2018 par Publicis pour Orange.

  •  

USA : 5 ans d’historique de réseaux sociaux pour passer en tant que touriste français ?

Vos réseaux, s'il vous plaît ?
USA : 5 ans d’historique de réseaux sociaux pour passer en tant que touriste français ?

Les États-Unis restreignent de plus en plus le passage de leur frontière en obligeant le partage avec les autorités d’informations personnelles comme l’historique des réseaux sociaux. Les services des douanes américains envisagent de conditionner l’entrée de ressortissants de pays qui n’ont pas besoin de visa pour des séjours de tourisme ou pour affaires de moins de 90 jours au partage, entre autres, de 5 ans d’historique de réseaux sociaux.

La restriction des conditions d’accès au sol états-unien s’amplifie depuis le retour de Donald Trump au pouvoir. Dès avril, on apprenait que les autorités traquaient les propos des étudiants étrangers pour révoquer leurs visas.

Le Service des douanes et de la protection des frontières des États-Unis (U.S. Customs and Border Protection, CBP) envisage maintenant de demander systématiquement 5 ans d’historique de réseaux sociaux aux visiteurs touristiques ou pour affaires de ressortissants de pays comme le Royaume-Uni, la France ou la Norvège qui n’ont pas besoin de visa.

Un ajout envisagé dans un formulaire pour éviter la demande de visa

Le New York Times a en effet repéré cette proposition [PDF] faite par le service états-unien des douanes. Elle est ouverte pour 60 jours à des commentaires publics et doit ensuite être approuvée par le Bureau de la gestion et du budget de la Maison-Blanche.

Cela concerne de fait toutes les personnes visitant les États-Unis éligibles au programme d’exemption de visa (« Visa waiver »). Celui-ci, mis en place en 1986, permet à des ressortissants de 42 pays (dont la France) de « voyager aux États-Unis pour affaires ou pour le tourisme pour des séjours d’une durée maximale de 90 jours sans visa ».

Ici, la CBP propose d’inclure dans le formulaire du portail de Visa waiver l’obligation de fournir les identifiants utilisés sur leurs réseaux sociaux au cours des cinq dernières années, comme c’est déjà le cas pour les demandeurs de visa depuis 2016. L’objectif serait notamment de « distinguer les personnes qui suscitent des inquiétudes supplémentaires de celles dont les informations confirment leur admissibilité au voyage », précise la FAQ de l’Electronic System for Travel Authorization (ESTA).

D’autres données à « forte valeur ajoutée » pourront être collectées ensuite « lorsque c’est possible », comme les numéros de téléphones (personnels, professionnels ainsi que ceux des membres de sa famille : parents, conjoint, frères et sœurs, enfants) des cinq dernières années, les adresses emails (personnelles et professionnelles) des dix dernières années, les adresses IP et métadonnées des photos soumises par voie électronique, les données biométriques (visage, empreinte digitale, ADN et iris), ainsi que les noms, adresses, dates et lieux de naissance des membres de la famille.

Aggravation des atteintes aux libertés civiles

Selon le cabinet d’avocats Fragomen, si les modifications sont approuvées par le Bureau de la gestion et du budget, la CBP « peut mettre en œuvre les changements par étapes au cours des semaines et des mois à venir ».

Citée par le New York Times, l’avocate de l’Electronic Frontier Foundation, Sophia Cope, estime que ce changement « aggraverait les atteintes aux libertés civiles ». Elle ajoute que « cette mesure ne s’est pas avérée efficace pour trouver des terroristes et autres malfaiteurs mais elle a restreint la liberté d’expression et porté atteinte à la vie privée de voyageurs innocents, ainsi qu’à celle de leur famille, de leurs amis et de leurs collègues américains ».

  •  

[Dossier] Dans l’enfer des chargeurs USB pas chers chez AliExpress, Amazon et Cdiscount

Au feu les pompiers…
[Dossier] Dans l’enfer des chargeurs USB pas chers chez AliExpress, Amazon et Cdiscount

Nous avons acheté 24 chargeurs USB à moins de 20 euros chez AliExpress, Amazon et Cdiscount. Nous avons ensuite vérifié si les caractéristiques techniques annoncées étaient réelles. Résultats des courses : les mensonges sont nombreux et moins de 50 % des chargeurs tiennent leurs promesses. Un chargeur a atteint 127 °C, un autre a pris feu.

Tous les chargeurs ne se valent pas, loin de là ! Fin octobre, l’UFC-Que Choisir tirait la sonnette d’alarme sur la qualité des matériaux et la résistance mécanique. Chez Next, nous testons depuis plusieurs semaines des chargeurs vendus via la plateforme chinoise AliExpress, mais aussi via deux géants en France : Amazon (société américaine) et le français Cdiscount (Groupe Casino). Ils le sont en quasi-totalité via les marketplaces (donc des vendeurs tiers).

Quand on a perdu son chargeur initial ou que l’on souhaite en avoir un de plus dans sa chambre, son salon ou sa cuisine, en acheter un en ligne peut paraître pratique. Mais que valent-ils vraiment d’un point de vue technique ? Nous en avons testé plus d’une vingtaine. Entre fausses promesses et vrais risques, vous ne regarderez plus jamais votre chargeur comme avant !

Commençons par un tour d’horizon global de la situation, peu reluisante. Dans de prochaines actualités, nous publierons le détail de chaque chargeur, avec les différents protocoles de charge rapide supportés, la puissance qu’il est capable de tenir en fonction des tensions et nous mesurerons enfin la montée en température avec 30 minutes de charge à la puissance maximale. Mais déclarons-le d’emblée : le tableau est peu reluisant.

La température à laquelle peut monter un chargeur est un élément important, mais impossible à deviner avant de l’acheter et de le tester. Elle dépend des composants de l’appareil, de sa conception, de sa qualité de fabrication, des plastiques, etc. Dans tous les cas, ayez conscience que cela peut chauffer fort et rapidement. Soyez donc toujours prudents !

120 watts selon le fabricant, 10 watts selon nos mesures


Il reste 63% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ La Linux Foundation accouche d’une nouvelle fondation, cette fois pour les agents IA

La fondation Linux a cessé depuis longtemps d’être centrée sur Linux. Elle est aujourd’hui un vaste parapluie regroupant un nombre croissant de fondations « filles ». La Linux Foundation gère aujourd’hui plus de 900 projets, dont des briques très utilisées comme PyTorch, le noyau Linux, Xen ou encore l’architecture RISC-V.

Une nouvelle fondation fille a rejoint le clan : l’Agentic AI Foundation (AAIF). Objectif : façonner la manière dont les agents interagissent en s’assurant que tout le monde respecte un ensemble commun des règles.

La fondation accueille des « contributions fondatrices de projets techniques de premier plan », dont bien sûr le protocole MCP, créé par Anthropic et qui s’est rapidement imposé comme un standard. Il permet pour rappel aux agents d’exposer leurs capacités afin qu’ils puissent se reconnaitre et communiquer entre eux. Sont également présents le framework Goose de Block (Square, Cash App, Afterpay, TIDAL…) et la norme de facto AGENTS.md créée par OpenAI (l’équivalent d’un README pour les agents).

Des textes partent de trois groupes de personnes pour en faire un quatrième au-dessus d'eux.
Yasmine Boudiaf & LOTI / Better Images of AI / CC-BY 4.0

Sans trop de surprise, les membres Platinum (ceux apportant la plus grosse contribution financière) sont surtout les ténors du domaine : Amazon Web Services, Anthropic, Google, Microsoft et OpenAI. Mais on note aussi la présence de Bloomberg et de Cloudflare. Ce dernier y voit peut-être une manière de « réguler » ce domaine de l’intérieur, après avoir pesté plusieurs fois contre le comportement de certains acteurs, en particulier Perplexity. Parmi les membres Gold, on trouve nombre d’acteurs majeurs de la tech comme IBM, Oracle, Ericsson, Cisco, JetBrains ou encore SAP.

« L’avènement de l’IA agentique représente une nouvelle ère de prise de décision autonome et de coordination entre les systèmes d’IA qui transformera et révolutionnera des industries entières. L’AAIF offre une base neutre et ouverte pour garantir que cette capacité critique évolue de manière transparente, collaborative et de manière à favoriser l’adoption des principaux projets d’IA open source. Ses projets inauguraux, AGENTS.md, Goose et MCP, posent les bases d’un écosystème partagé d’outils, de standards et d’innovations communautaires », déclare la fondation dans son communiqué.

L’AAIF ajoute que dans le cadre de cette annonce, Obot.ai (membre Silver) a transmis à la fondation le patronage de ses évènements MCP Dev Summit et son podcast. Le prochain sommet aura lieu les 2 et 3 avril 2026 à New York. La fondation en profite pour ouvrir l’appel à interventions, l’inscription et les parrainages pour l’évènement.

  •  

Deep learning sur des photos d’enfants autistes : des articles scientifiques rétractés

Ethique en toc
Deep learning sur des photos d’enfants autistes : des articles scientifiques rétractés

Plusieurs recherches incluant l’entrainement de réseaux de neurones font l’objet d’une attention particulière, parfois plusieurs années après leur publication. En cause l’utilisation d’une base de données de photos posant des problèmes éthiques concernant le consentement des enfants ayant des troubles autistiques concernés. L’éditeur Springer Nature est en train de rétracter des dizaines d’articles scientifiques.

Des dizaines d’articles scientifiques sont actuellement scrutés, notamment par l’éditeur scientifique Springer Nature, pour une éventuelle rétractation. Certains, comme cette meta analyse sur les approches utilisant le deep learning pour prédire l’autisme publiée en 2024, ont déjà fait l’objet d’une rétractation récemment.

Des travaux scientifiques qui soulèvent des questions éthiques

Les chercheurs et éditeurs auraient pu commencer par interroger le bien-fondé de mettre en place une reconnaissance de traits autistiques sur le visage d’enfants en utilisant le deep learning. La littérature scientifique montre que ces questions n’ont pas arrêté nombre de chercheurs.

Mais une nouvelle question éthique apparait, mise au grand jour par The Transmitter. Ce média spécialisé en neurosciences vient de découvrir que plusieurs dizaines d’articles scientifiques sur le sujet s’appuient, en fait, sur une base de données de visages d’enfants créée en 2019 par Gerald Piosenka, un ingénieur à la retraite. Celui-ci l’avait mise en ligne sur la plateforme Kaggle rachetée en 2017 par Google, qui permet à la communauté des machine learning et deep learning de partager des données, codes, modèles, etc.

L’utilisation d’une base de données créée sans le consentement des enfants

Cette base de données contient plus de 2 900 photos d’enfants, dont la moitié est étiquetée en tant qu’autistes. Comme l’a repéré The Transmitter, Gerald Piosenka explique dans un commentaire posté en 2022 que Kaggle a supprimé la base de données parce qu’elle ne respectait pas ses conditions d’utilisation. Mais l’ingénieur l’a remis rapidement en ligne via Google Drive.

Dans la description de la base, Gerald Piosenka explique la manière dont il a procédé pour la créer : « J’ai cherché partout une base de données contenant des images faciales d’enfants autistes. À ma connaissance, il n’en existe aucune. J’ai donc dû développer cette base de données à partir de recherches sur Internet. J’ai principalement trouvé ces images sur des sites web consacrés à l’autisme. En général, j’ai dû télécharger une image particulière, qui était souvent une photo de groupe, puis recadrer manuellement l’image pour ne garder que le visage de l’enfant ».

Questionné par un utilisateur de Kaggle sur l’exclusion de certaines photos pour des questions de vie privée et sur l’obtention du consentement, Gerald Piosenka a répondu que « toutes les images ont été recueillies à partir de sites Web accessibles au public et de recherches Google. Aucune restriction en matière de confidentialité n’a été violée » et a justifié sa démarche en affirmant que sa motivation était « altruiste » et qu’ « en matière d’éthique, comment peut-on être plus éthique que d’essayer de favoriser le dépistage précoce et le traitement de l’autisme chez les enfants » sans prendre en compte le signalement sur le besoin de consentement.

Près de 40 articles scientifiques sont étudiés par Springer Nature pour une éventuelle rétractation selon un des conseillers en intégrité de la recherche de l’éditeur interrogé par The Transmitter. Le média a, de son côté, recensé au moins 90 articles (publiés aussi par d’autres éditeurs comme Wiley, IEEE, Elsevier, MDPI ou encore Cell Press) qui citent une version de la base de données.

  •  

☕️ Apple et Google vont fluidifier la transition entre appareils iOS et Android

Google diffuse depuis hier soir aux testeurs intéressés une nouvelle version Canary d’Android. Cette mouture, estampillée 2512 et potentiellement (très) instable, intègre plusieurs améliorations d’interface et nouvelles fonctions. Par exemple, des modifications liées à la cohérence graphique de l’interface, quelques nouvelles icônes, des animations plus rapides, etc.

La mise à jour inclut cependant une nouveauté faisant le tour des médias : une nouvelle fonction permettant de passer plus facilement d’un iPhone vers Android, dès l’assistant de configuration initial. Et il ne s’agit pas d’un « hack » comme la récente compatibilité avec AirDrop diffusée par Google, mais du résultat d’un travail commun des deux entreprises.

On manque encore de détails sur la fonction, mais elle comprend a priori les données et réglages d’applications, les réglages des notifications ainsi que les paramètres clés dans les réglages du système. Cette passation d’informations se fait au niveau du système et n’a pas besoin d’une application dédiée.

Cette fonction n’est disponible pour l’instant que pour les smartphones Pixel de Google et devrait être diffusée en version stable au cours d’une prochaine mise à jour trimestrielle. 9to5Google, à l’origine de l’information, indique cependant que l’accord se fait dans les deux sens : Apple va également proposer un processus équivalent dans iOS, pour reprendre les mêmes informations depuis un Pixel. La fonction serait ajoutée lors d’une prochaine bêta du cycle d’iOS 26, dans la version 26.3 ou 26.4 probablement.

L’ajout signale une détente progressive chez Apple, contrainte et forcée de s’ouvrir, que ce soit par la régulation (notamment en Europe) ou par pression populaire. Après avoir remporté la bataille sur le support du RCS dans iOS, Google a habilement lancé son support d’AirDrop, Apple se retrouvant « coincée » par une annonce en grande pompe, sous l’œil des régulateurs, dont une Commission européenne assumant le bras de fer.

  •  

SVOM : un sursaut gamma vieux de 13 milliards d’années « illumine » l’Univers

Lumos !
SVOM : un sursaut gamma vieux de 13 milliards d’années « illumine » l’Univers

Le satellite SVOM a détecté le 5ᵉ sursaut gamma le plus lointain jamais enregistré. Il est vieux de 13 milliards d’années et a donc été émis quand l’Univers n’avait que 730 millions d’années environ. Il permet d’en apprendre davantage sur le fonctionnement de notre Univers.

L’observatoire spatial SVOM (acronyme de Space-based multi-band astronomical Variable Objects Monitor) a été lancé en juin 2024 à bord d’une fusée Longue Marche 2C (il est en orbite à 625 km). C’est une mission franco-chinoise dont le but est de détecter des sursauts gamma.

Il s’agit généralement des traces laissées par un cataclysme galactique : l’explosion d’une étoile supermassive. Nous avons pour rappel déjà détaillé la mission SVOM et les sursauts gamma. Des informations sur SVOM sont aussi disponibles sur le site officiel.

Détection en mars, une alerte envoyée dans la demi-heure

Quelques mois après le début des opérations scientifiques, l’Observatoire de Paris annonce la « détection d’un sursaut gamma causé par une supernova qui a explosé il y a 13 milliards d’années […] Ce sursaut gamma a donc explosé au cœur de l’ère de la réionisation, alors que l’Univers n’avait que 730 millions d’années ». Les photons ont ainsi voyagé pendant 13 milliards d’années avant de nous arriver. Cet évènement est identifié sous la référence GRB 250314A : GRB pour Gamma-Ray Bursts et 250314 pour la date de détection, le 14 mars 2025. Parfois les scientifiques savent être efficaces.

L’observatoire de Paris ajoute que « GRB 250314A est le 3ᵉ sursaut gamma le plus lointain dont la distance a été déterminée par spectroscopie ». Le CEA précise pour sa part que, toutes méthodes confondues, c’est le « 5ᵉ GRB le plus lointain identifié. Le précédent GRB à très haut redshift (z > 7) avait été identifié il y a de cela environ 12 ans ! ».

Alerte générale ! Des télescopes du monde entier regardent, y compris le JWST

Il retrace aussi la diffusion d’une alerte par les scientifiques en mars dernier. Moins de 30 minutes après la détection de l’événement (et sa confirmation), « une circulaire pour alerter l’ensemble de la communauté » est envoyée. Ce type d’alerte permet aux observatoires et satellites d’observer la même région du ciel s’ils le peuvent. 19 circulaires ont ainsi été émises.

Dans les heures qui suivent, « l’observatoire spatial Neil Gehrels Swift et le satellite Einstein Probe, pointent leurs instruments vers la source. Une contrepartie X est localisée par le détecteur X a bord du Swift. Le Nordic Optical Telescope (NOT) découvre la contrepartie proche infrarouge dans la boîte d’erreur donnée par Swift. Les observations d’Einstein Probe confirment même la nature transitoire de la contrepartie X, un indice clé en faveur d’une rémanence du sursaut gamma ».

C’est le sursaut « le plus précis en termes de la lumière qu’on a récoltée et des mesures qu’on a faites », explique à l’AFP Bertrand Cordier (via Radio Canada), responsable scientifique du projet SVOM au Commissariat à l’énergie atomique et aux énergies alternatives (CEA).

Le CEA ajoute (via son institut de recherche sur les fois fondamentales de l’Univers, Irfu) que, « 110 jours après la découverte par SVOM, JWST [James Webb Space Telescope, ndlr] est allé chercher la galaxie hébergeant ce sursaut. Les premières analyses photométriques suggèrent qu’il pourrait être associé à une supernova issue de l’effondrement gravitationnel violent d’une étoile massive en fin de vie ressemblant fortement aux supernovas locales du même type. Ce résultat pourrait indiquer une étonnante continuité dans les processus d’explosion d’étoiles massives (> 20 masses solaires), depuis les débuts de l’Univers jusqu’à aujourd’hui ».

Le CEA ajoute qu’une nouvelle observation du JWST est « déjà programmée dans 9 mois [et] devrait confirmer la disparition de la supernova ».

« Illuminer tous les plans entre nous et le sursaut gamma »

Selon Radio Canada, Bertrand Cordier voudrait accélérer les collaborations internationales pour les prochaines détections (il en espère une ou deux par an avec SVOM). En mars, « il s’est écoulé 17 heures avant que le Très Grand Télescope (VLT), au Chili, ne se détourne. Pendant ce temps, l’intensité a décru. L’objectif, c’est d’être encore plus efficace. Si on arrive plus tôt, alors on aura des meilleures données ».

Vous vous demandez peut-être à quoi tout cela peut servir ? Nous l’expliquions dans cet article : une approche est d’utiliser « ces événements comme des sondes. Quand elles explosent, elles vont illuminer tous les plans entre nous et le sursaut gamma. C’est du coup une information considérable pour avoir les paramètres physiques de l’univers quand il était très jeune. C’est le seul moyen quasiment d’avoir l’information sur l’univers à ces moments-là et de voir peut-être ces premières générations étoiles ».

Le site officiel de SVOM y va aussi de sa comparaison : les sursauts gamma sont la « manifestation d’une explosion gigantesque, ces flashs de lumière sont considérés comme les éléments les plus brillants et les plus riches en énergie depuis le Big Bang. Ce sont des événements rares à l’échelle d’une galaxie et pourtant il serait possible d’en observer en moyenne une dizaine par jour ».

  •  

☕️ Index 01 : le fondateur de Pebble lance une bague dictaphone… jetable

Créateur de l’emblématique montre connectée Pebble, Eric Migicovsky a présenté mardi sa dernière création : une bague connectée faisant office de dictaphone.

Baptisée Pebble Index 01, disponible en trois coloris (argent, noir, or) et en plusieurs tailles, l’accessoire se veut une réponse simple à une problématique simple : enregistrer des notes au moment où l’idée survient, sans se soucier d’avoir à chercher son smartphone ou son bloc-notes. La bague présente un unique bouton, situé sur sa face supérieure, qui permet de déclencher un enregistrement audio, avec un clic sensible pour éviter les activations involontaires.

Les séquences enregistrées (jusqu’à cinq minutes peuvent être stockées sur la bague) sont ensuite transmises de façon chiffrée au smartphone de l’utilisateur via l’application Pebble, disponible en open source, sur Android ou iOS. C’est cette dernière qui se charge de les convertir en texte grâce à des modèles, eux aussi open source, exécutés en local.

Un bouton, une pile, un micro, un transmetteur Bluetooth

Si les performances ne sont pas suffisantes, une option payante permet d’accéder à un modèle text-to-speech exécuté dans le cloud. À ce niveau, Eric Migicovsky a pour l’instant fait le choix de Whisper en local, et de Wispr Flow pour les traitements à distance.

Le fondateur de Pebble, qui a relancé ses célèbres montres connectées en début d’année, promet une approche très ouverte de son hardware. La Pebble Index 01 doit notamment permettre de paramétrer ses propres actions sur le bouton (par exemple, le déclenchement à distance de l’appareil photo de son smartphone), ou même de programmer des interactions vocales grâce à MCP (Model Context Protocol).

« L’Index 01 est avant tout conçue pour vous aider à mémoriser des informations. Nous souhaitons qu’elle soit parfaitement fiable dans sa fonction principale. Cependant, nous laissons la possibilité de la personnaliser et de créer de nouvelles interactions et actions », résume Eric Migicovsky.

Sur le plan physique, la conception de la bague présente toutefois une contrainte de taille : elle ne dispose pas d’une batterie rechargeable mais d’une pile à l’oxyde d’argent non remplaçable. « L’ajout d’un circuit de charge et l’intégration d’un chargeur rendraient le produit plus volumineux et plus cher », justifie Migicovsky. Il affirme que son entreprise assurera le recyclage des produits renvoyés par les clients, sans préciser les modalités de retour ou de traitement.

La bague exploite l’application compagnon des nouvelles montres connectées Pebble

La durée de vie ne serait cependant pas un problème selon lui. La pile embarquée autorise en effet 12 à 15 heures d’enregistrement, ce qui offrirait une autonomie de plus de deux ans, dans un scénario dans lequel l’utilisateur procéderait à dix ou vingt enregistrements de trois à six secondes par jour.

La Pebble Index 01 est dès à présent proposée à la précommande pour 75 dollars, avec des livraisons prévues aux alentours de mars 2026. Son prix public s’établira ensuite à 99 dollars.

  •  

Trump autorise la vente de puces NVIDIA H200 en Chine… mais la Chine en veut-elle ?

Je t'aime moi non plus
Trump autorise la vente de puces NVIDIA H200 en Chine… mais la Chine en veut-elle ?

Donald Trump a fièrement annoncé lundi la fin de l’interdiction à l’export vers la Chine des puces dédiées à l’IA H200 de NVIDIA. Cette autorisation, qui exclut les modèles les plus récents, se fait cependant sous conditions, et au prix d’une taxe de 25 % prélevée par l’administration américaine. La déclaration du président intervient alors que des sénateurs tentent de durcir les conditions d’export de composants IA vers la Chine, et que cette dernière semble vouloir jouer la carte de la préférence nationale.

Comme souvent avec Donald Trump, l’annonce a précédé les textes officiels. Le président des États-Unis a déclaré lundi avoir informé son homologue Xi Jinping de sa décision d’autoriser à nouveau la vente de puces NVIDIA H200 vers la Chine. La levée des restrictions jusqu’ici en vigueur ne va cependant pas sans conditions : la vente ne sera possible qu’au profit d’entreprises dûment « approuvées », et la transaction devra intégrer le versement d’une taxe équivalente à 25 % du chiffre d’affaires généré au profit de l’administration états-unienne.

Donald Trump desserre la vis qu’il avait lui-même serrée

Quels seront les critères de sélection des entreprises chinoises susceptibles d’acheter ces composants, et quelles seront les éventuelles restrictions en matière de volumes, de délai de livraison ou d’usages finaux ? « Le département du Commerce finalise actuellement les détails, et la même approche s’appliquera à AMD, Intel et aux autres grandes sociétés américaines », promet Donald Trump.

Dans son message d’annonce, le président ne se prive pas, en revanche, d’égratigner son prédécesseur Joe Biden, dont l’administration a mis en place d’importantes restrictions à l’export sur les composants informatiques et électroniques, au nom de la sécurité nationale. « L’administration Biden a forcé nos grandes entreprises à dépenser des milliards de dollars pour fabriquer des produits « dégradés » dont personne ne voulait, une idée désastreuse qui a ralenti l’innovation et nui aux travailleurs américains », tacle Donald Trump, en référence aux puces H20, versions castrées des H200, que NVIDIA avait effectivement développées spécifiquement pour le marché chinois.

Ce faisant, le président oublie de rappeler qu’il a lui-même donné un tour de vis restreignant la commercialisation des H20 vers la Chine, en imposant à NVIDIA l’obtention d’une licence préalable. L’avantage concurrentiel des États-Unis serait quant à lui garanti par le fait que la vente des puces IA les plus récentes ou à venir, Blackwell puis Rubin, n’entre pas dans le cadre de l’accord.

Comme souvent, Donald Trump a utilisé son propre réseau social, Truth, pour diffuser la nouvelle – capture d’écran

NVIDIA a accueilli positivement la nouvelle. « Nous saluons la décision du président Trump, déclare un porte-parole cité par Techcrunch. L’ouverture du H200 aux clients commerciaux agréés, sélectionnés par le ministère du Commerce, constitue un juste équilibre, excellent pour l’Amérique. »

Une décision contraire aux positions du Congrès ?

À Washington, le Congrès devrait examiner de près les modalités décidées par le département du Commerce. Et pour cause : les représentants doivent prochainement examiner un projet de loi bipartisan (en l’occurrence, cosigné par deux sénateurs, l’un républicain, l’autre démocrate), déposé le 4 décembre dernier, qui vise précisément à durcir les possibilités d’export vers la Chine. Le texte préliminaire exige une suspension des ventes pour une durée de trente mois, valable notamment pour les puces IA de NVIDIA, dont l’actuelle Blackwell, mais aussi la génération H200 (Hopper) évoquée lundi par Trump.

Baptisé Secure and Feasible Exports (SAFE) Chips Act, le texte présente l’accès aux composants IA haut de gamme comme un enjeu majeur de sécurité nationale, mais aussi comme un levier pour conserver le leadership technologique et donc économique.

« Alors que la Chine s’efforce de combler son retard en matière d’IA, nous ne pouvons pas lui confier les clés technologiques de notre avenir (…). Ce projet de loi bipartisan protégera l’avantage américain en matière de puissance de calcul afin que les modèles d’IA de nouvelle génération les plus performants au monde soient développés sur le sol américain par des entreprises américaines et que l’infrastructure mondiale repose sur l’expertise technologique américaine », expose par exemple le sénateur démocrate du Delaware, Chris Coons.

Dans la présentation de leur texte, les deux sénateurs font valoir que la Chine a fait de l’IA générative un sujet stratégique aux ambitions duales, à la fois civiles et militaires, et soulignent qu’elle dépend, dans cette course, « de la contrebande ou des exportations légales de puces de pointe en provenance des États-Unis ».

L’achat par la Chine de puces haut de gamme par des voies détournées est communément admis comme une hypothèse plausible depuis le lancement retentissant des premiers modèles de DeepSeek. Pourtant, ces voies détournées n’empêchent pas les grands industriels chinois de travailler d’arrache-pied à la fabrication de leurs propres composants dédiés à l’IA.

Pékin partisan d’une préférence nationale ?

Résultat des courses ? La principale opposition à la décision de Donald Trump ne viendra peut-être pas du Congrès américain… mais de la Chine ! D’après le Financial Times, Pékin envisagerait en effet de mettre en place ses propres restrictions sur l’import de puces non chinoises. L’idée, non confirmée à ce stade, serait que les entreprises qui désirent acheter des H200 soient obligées de montrer patte blanche, et notamment de justifier en quoi la production nationale n’est pas capable de répondre à leur besoin.

Ce faisant, le gouvernement de Xi Jinping chercherait logiquement à doper la demande pour les puces IA produites en Chine, et ainsi à réduire sa dépendance aux technologies venues des États-Unis.

  •  

☕️ Firefox 146 supporte la mise à l’échelle fractionnée pour Wayland

La nouvelle mouture de Firefox apporte plusieurs évolutions notables. L’une des plus importantes est l’arrivée de la mise à l’échelle fractionnée pour Wayland. Dans les grandes lignes, c’est l’ensemble de l’affichage qui devrait être plus efficace et réactif sur les sessions Wayland. Un changement important, qui réjouit particulièrement Michael Larabel, de Phoronix.

Firefox 146 présente d’autres améliorations sous le capot. La version Mac contient ainsi désormais un processus GPU dédié, qui servira pour WebGPU, WebGL ainsi que le propre moteur WebRender du navigateur. Mozilla indique dans les notes de version que cet ajout permettra de redémarrer silencieusement le processus GPU en cas d’erreur fatale, plutôt que d’entrainer un plantage du navigateur. Sous Windows, le support de l’ancienne API Direct2D est supprimé (il reste disponible dans la version ESR).

Mozilla a également ajouté un système de sauvegarde sous Windows, à destination en particulier des personnes sous Windows 10. En plus du service de synchronisation habituel, Firefox peut maintenant lancer une sauvegarde une fois par jour. Le fichier comprend notamment les favoris et mots de passe, avec possibilité d’y glisser d’autres catégories de données. Il peut aussi être protégé par un mot de passe et est alors chiffré. Ce fichier peut ensuite servir pour une installation neuve du navigateur, y compris sur un autre appareil.

Parmi les autres nouveautés, signalons la disponibilité des Firefox Labs pour l’ensemble des utilisateurs, l’arrivée dans l’Union européenne d’un widget météo pour la page Nouvel onglet, une nouvelle version de la bibliothèque graphique Skia pour améliorer les performances et la compatibilité, ou encore le masquage automatique des propriétés CSS inutilisées dans l’Inspecteur pour réduire l’encombrement.

Enfin, Firefox 146 corrige treize failles de sécurité, dont cinq de gravité élevée.

  •  

Infomaniak, nouvel acteur sur la scène des chatbots avec Euria

« L’Europe doit investir »
Infomaniak, nouvel acteur sur la scène des chatbots avec Euria

Infomaniak vient de lancer son IA maison. L’entreprise suisse insiste particulièrement sur la dimension souveraine, sécurisée et autonome de son infrastructure, ainsi que sur la récupération de la chaleur générée pour chauffer des logements à Genève.

Infomaniak se présente comme un nouvel acteur dans la cour rapidement grandissante des fournisseurs de solutions IA. Le produit se nomme Euria, un chabot qui entre en concurrence directe avec ChatGPT, Claude et autre Mistral. Le nom est d’ailleurs l’acronyme de « Éthique, Universelle, Responsable, Indépendante et Autonome ». Après un lancement discret en juin dans kDrive, le chatbot prend ses aises.

Un modèle freemium et une tarification agressive

Le nouveau service est disponible via une page web, ou par l’application mobile sur Android et iOS. Comme souvent avec les chatbots, on trouve une version gratuite pour répondre aux questions, bloquée une fois un palier atteint (ce point n’est pas clairement précisé). Après quoi, il faudra l’une des formules payantes de la kSuite (à partir de 19 euros par an).

On note d’ailleurs qu’Infomaniak n’a pas créé de formule payante spécifique pour son nouveau service. On peut en outre utiliser Euria sans créer de compte, mais le chatbot en réclamera rapidement un après quelques requêtes (trois dans notre cas). On note dans l’ensemble des réponses assez rapides.

Euria est multimodal. Les demandes peuvent être faites textuellement ou par la voix, on peut lui envoyer des documents et autres fichiers, lui demander des transcriptions audio, d’interpréter des tableaux et autres graphiques, de lancer des recherches sur le web ou encore des raisonnements plus complexes. Infomaniak explique que le raisonnement et la recherche web sont utilisés automatiquement en fonction du contexte, mais on peut forcer la recherche en la demandant explicitement au chatbot. Des évolutions sont déjà prévues, dont la génération d’images, des agents et de la mémoire pour le contexte.

Infomaniak promet le respect des données

Côté sécurité et confidentialité, Infomaniak assure que des chiffrements sont appliqués « à toutes les étapes ». Il faut comprendre pendant le transport et au repos, mais Infomaniak peut accéder aux données sur ses serveurs. Point important, l’entreprise ajoute que les données traitées ne sont jamais utilisées « pour entraîner des modèles d’intelligence artificielle, établir des profils ou alimenter des systèmes tiers ».

Un mode éphémère est proposé pour aller plus loin, l’entreprise assurant alors qu’aucune trace n’est laissée et que rien ne peut être récupéré, y compris par Infomaniak. Tous les traitements ont lieu dans le datacenter D4 situé en Suisse, inauguré en début d’année.

Des modèles open source

Infomaniak n’a cependant pas développé de modèle maison. À la place, l’entreprise se sert de plusieurs modèles open source. Si l’annonce n’en parle pas, l’entreprise nous a répondu, par la voix de Thomas Jacobsen, son responsable communication et marketing : elle se sert de Mistral (Small 3.2) pour les images, Qwen3 (Alibaba) pour la partie texte, et de Whisper d’OpenAI pour l’audio.

« Notre stack évolue en permanence afin d’intégrer les meilleurs modèles open source disponibles au moment où ils deviennent pertinents. Nous contribuons et suivons de près l’évolution d’Apertus, et nous étudions déjà la possibilité d’adopter le prochain modèle de Mistral. Dans nos choix technologiques, l’impact écologique joue également un rôle essentiel : nous cherchons systématiquement le meilleur compromis entre performance et consommation de ressources »

Infomaniak en profite pour lancer un cri d’alarme à ce sujet : « À ce jour, aucun des modèles les plus performants n’est européen. Ce constat doit nous interpeller : l’Europe doit investir pour rattraper son retard et bâtir ses propres modèles d’IA souverains, éthiques et neutres en carbone. Plus les utilisateurs choisiront des acteurs locaux, plus nous aurons les moyens de construire cette indépendance technologique », a déclaré Marc Oehler, CEO d’Infomaniak.

Enfin, Infomaniak met en avant l’aspect écologique de son datacenter, utilisé par Euria, dont la chaleur est récupérée et réinjectée dans le réseau de chauffage urbain. L’objectif est d’atteindre la pleine puissance en 2028 et alors de chauffer jusqu’à 6 000 logements à Genève en hiver, de fournir jusqu’à 20 000 douches chaudes par jour et ainsi d’éviter la combustion de 3 600 tonnes de CO₂ en gaz naturel.

  •  

☕️ Bruxelles soupçonne Google de pratiques anticoncurrentielles concernant l’IA

La Commission européenne a ouvert une enquête sur les pratiques de Google sur le marché de l’IA qui pourraient être considérées comme anticoncurrentielles.

Dans un communiqué publié sur son site, elle explique que « l’enquête examinera notamment si Google fausse la concurrence en imposant des conditions générales abusives aux éditeurs et aux créateurs de contenu, ou en s’octroyant un accès privilégié à ce contenu, désavantageant ainsi les développeurs de modèles d’IA concurrents ».

Sont notamment concernés les résumés d’AI Overviews (accessibles dans de nombreux pays, notamment européens, mais pas en France) et l’utilisation des vidéos postées sur YouTube.

La Commission pointe le fait que Google se sert de contenus publiés sur le web pour son service AI Overviews et pour le mode IA de son moteur de recherche « sans rémunération appropriée pour les éditeurs et sans leur offrir la possibilité de refuser une telle utilisation de leurs contenus ». Elle explique qu’elle va enquêter pour déterminer dans quelle mesure ces outils de Google s’appuient sur ces contenus.

En juillet dernier, le réseau nommé « Alliance internationale des éditeurs indépendants » portait plainte devant la Commission contre Google pour ces mêmes raisons.

Mais la Commission va aussi chercher à savoir si Google utilise les vidéos uploadées par les utilisateurs de YouTube pour entrainer ses modèles d’IA sans leur consentement et sans compensation.

« Google ne rémunère pas les créateurs de contenu YouTube pour leur contenu et ne leur permet pas non plus de télécharger leur contenu sur YouTube sans autoriser Google à utiliser ces données. Parallèlement, les développeurs concurrents de modèles d’IA sont empêchés par les politiques de YouTube d’utiliser le contenu YouTube pour entraîner leurs propres modèles d’IA », affirme l’institution.

« Si elles sont avérées, les pratiques faisant l’objet de l’enquête pourraient enfreindre les règles de concurrence de l’UE qui interdisent l’abus de position dominante », prévient Bruxelles.

« Une société libre et démocratique repose sur la diversité des médias, le libre accès à l’information et un paysage créatif dynamique. Ces valeurs sont au cœur de notre identité européenne », affirme Teresa Ribera, commissaire européenne à la Concurrence. « L’IA apporte des innovations remarquables et de nombreux avantages aux citoyens et aux entreprises à travers l’Europe, mais ces progrès ne peuvent se faire au détriment des principes qui sont au cœur de nos sociétés », ajoute-t-elle.

Se prononçant sur la plainte des éditeurs, Google affirmait à Reuters que celle-ci « risque d’étouffer l’innovation dans un marché plus concurrentiel que jamais ». C’est toujours la même excuse servie par les géants américains quand il s’agit de régulation européenne.

« Google a rompu le pacte qui sous-tend l’Internet. L’accord prévoyait que les sites web seraient indexés, récupérés et affichés lorsqu’ils étaient pertinents par rapport à une requête. Tout le monde avait sa chance », proclame de son côté Tim Cowen, l’avocat des éditeurs, à l’agence de presse. « Aujourd’hui, Google donne la priorité à son IA Gemini et ajoute l’insulte à l’injure en exploitant le contenu des sites web pour entraîner Gemini. Gemini est le jumeau maléfique de Search », ajoute-t-il.

  •