Vue normale

Reçu — 11 décembre 2025 Next - Articles gratuits

La surveillance géolocalisée de l’ICE détourne les femmes enceintes des soins médicaux

11 décembre 2025 à 16:32
Smart ?
La surveillance géolocalisée de l’ICE détourne les femmes enceintes des soins médicaux

Aux États-Unis, les femmes enceintes sans-papiers peuvent être obligées de porter des montres connectées spéciales qui les surveillent en permanence. Certains personnels hospitaliers constatent, avec la massification des poursuites, que des patientes ont peur de les enlever lorsqu’une intervention le nécessite.

Dans le Colorado, des femmes enceintes ayant besoin de soins médicaux urgents ont peur quand le personnel médical des urgences veut leur enlever le dispositif de surveillance qui leur est imposé.

Le Guardian raconte qu’en septembre dernier, une femme enceinte de neuf mois est entrée dans les urgences obstétriques d’un hôpital du Colorado munie d’une montre connectée qu’elle ne voulait surtout pas enlever. Les médecins ont diagnostiqué qu’une césarienne était nécessaire pour que l’accouchement se passe le mieux possible. Mais pour faire cette césarienne, ils ont besoin d’utiliser un outil de cautérisation qui nécessite que la patiente enlève tout bijou ou objet métallique.

Une smartwatch très particulière

Le problème était que la montre connectée n’était pas commune. En effet, le Service de l’immigration et des douanes des États-Unis (ICE) avait imposé à cette femme de porter en permanence une montre VeriWatch de l’entreprise Bi Inc.

Celle-ci permet aux autorités de surveiller en permanence la personne qui la porte. Elle a d’autres fonctionnalités comme la vérification que la personne est encore en vie ou la reconnaissance faciale du porteur à des fins de contrôle.

Elle ne peut pas être retirée facilement mais elle n’est pas accompagnée non plus d’information concernant la sécurité de son port lors d’intervention médicale comme celle évoquée plus haut. De plus, l’ICE ne fournit aux hôpitaux états-uniens aucune information pour la contacter pour savoir quoi faire. Lorsque le personnel hospitalier a expliqué à la femme enceinte qu’il allait sans doute falloir couper le bracelet, elle a paniqué.

En arrivant à l’hôpital, elle avait aussi peur car la batterie était faible. Elle avait besoin de la recharger pour ne pas que les services d’immigration croient qu’elle essayait de se cacher. La notice de la montre, sur le site du fabricant [PDF], indique que la batterie a une durée de vie de 16 heures, avec une possibilité d’aller jusqu’à 32 heures si on utilise la batterie externe adaptée.

Finalement, selon le Guardian, la montre a été enlevée et la femme est repartie avec son bébé sans que l’ICE ne vienne à l’hôpital. Mais le personnel signale que c’est la troisième femme enceinte qui arrive avec ce dispositif de surveillance en quelques mois.

La massification de programmes « plus humains » que l’incarcération

De fait, le système carcéral du pays est saturé depuis longtemps et ce dispositif de surveillance n’est pas nouveau aux États-Unis. En effet, depuis 2004, comme l’explique le média Jezebel, un programme d’ « alternatives à la détention » existe, option « plus humaine » pour les personnes menacées d’expulsion considérées comme « à moindre risque ».

Pour la plupart, l’alternative consiste à mettre en place un bracelet électronique, comme cela existe en France. Depuis 2009, l’ICE n’utilise plus ce genre de bracelet pour les femmes enceintes à cause d’un taux de complication élevé et a penché pour ces montres connectées en 2023.

Mais, depuis son retour la tête des États-Unis, Donald Trump a intensifié la politique de traque massive de personnes étrangères qui ne peuvent pas prouver leur droit d’y résider, et se prépare à muscler encore le budget de l’ICE. Cette politique augmente mécaniquement le nombre de personnes concernées par les dispositifs de coercition mis en place par le système judiciaire étasunien.

Et, même si le taux de complication est moins élevé avec les montres qu’avec les bracelets, leur usage massif se double d’une absence d’information en cas de problème et de la peur des personnes concernées, qui amènent les personnels hospitaliers à constater des problèmes.

« Elle était en larmes à ce sujet. Elle avait cette peur profonde que l’ICE vienne à l’hôpital et lui enlève son bébé », explique l’un d’entre eux au Guardian, en parlant de la femme enceinte en question.

☕️ Windows on ARM : l’émulateur Prism prend en charge les instructions AVX et AVX2

11 décembre 2025 à 16:23

Le 5 décembre, Microsoft a déployé sans grand bruit une mise à jour pour l’ensemble des PC bâtis sur une puce Snapdragon X de Qualcomm, pour rappel au cœur de l’offre des ordinateurs Copilot+ de Microsoft.

Elle a apporté une nouvelle version à l’émulateur Prism, chargé de faire fonctionner les applications x86 sur des machines Arm en convertissant le code en arm64. Si ce composant fait globalement le travail, on retrouve bien sûr les limitations habituelles de ce type de technologie, dont des performances nettement plus faibles que pour des applications natives.

Certaines applications et jeux ne pouvaient en outre pas être installés. Ils réclament en effet des jeux d’instructions spécifiques, dont font partie AVX (Advanced Vector Extensions) et AVX2. Quand ils sont exploités, ils permettent une hausse significative des performances dans certains domaines, comme le traitement d’images, le rendu 3D, le codage vidéo ou encore les calculs scientifiques. Si AVX se concentrait sur les nombres en virgule flottante, les instructions AVX2 ont ajouté le support des entiers, élargissant d’autant plus le périmètre d’utilité.

Les instructions AVX sont arrivées en 2008 et ont donc eu largement le temps d’être supportées dans de nombreuses applications. Les jeux en font aujourd’hui un usage intensif. À tel point que beaucoup de ces programmes ne peuvent pas fonctionner sans.

C’est ce qu’a apporté la mise à jour de Prism, en plus d’extensions associées comme BMI, BFA et F16C. Microsoft cite le cas du séquenceur musical Ableton Live 12, qui affichait une erreur au lancement avec l’ancienne version de Prism. L’éditeur précise toutefois que l’application arrivera sous forme native dans le courant de l’année prochaine.

Microsoft précise que la nouvelle version a été déployée sur toutes les machines concernées, dès lors qu’elles ont au moins la version 24H2 de Windows 11, ce qui est en théorie le cas de tous les Copilot+. La nouvelle émulation est active par défaut pour les applications x86-64. Elle est coupée par défaut pour les applications 32 bits, mais peut être activée dans les paramètres de compatibilité.

Disney investit dans OpenAI et lui cède les droits sur 200 personnages de ses franchises phares

11 décembre 2025 à 15:34
Holy Wood
Disney investit dans OpenAI et lui cède les droits sur 200 personnages de ses franchises phares

The Walt Disney Company a annoncé jeudi un investissement d’un milliard de dollars dans OpenAI. Il s’accompagne d’un accord de licence sur trois ans autorisant l’éditeur de ChatGPT et surtout de l’IA générative vidéo Sora à exploiter l’image de plus de 200 personnages issus des grandes franchises de l’empire Disney, de Mickey à Marvel en passant par Star Wars, Cendrillon ou le Roi Lion.

Avalanche de vidéos de sabres laser à la physique approximative en vue ? The Walt Disney Company a annoncé jeudi concéder à OpenAI le droit d’utiliser plus de 200 personnages issus de son immense catalogue cinématographique, en vue de nourrir son IA générative dédiée à la vidéo, Sora.

Le meilleur de Disney dispo dans Sora et ChatGPT

Le contrat prend la forme d’un accord de licence portant sur trois ans, selon les termes duquel Sora « pourra générer de courtes vidéos sociales à la demande des utilisateurs (…) en s’appuyant sur un ensemble de plus de 200 personnages animés, masqués et créatures de Disney, Marvel, Pixar et Star Wars, comprenant costumes, accessoires, véhicules et environnements emblématiques. »

Si les modèles Sora sont présentés comme les principaux bénéficiaires du contrat, celui-ci englobe également la création d’images au sein de ChatGPT, qui acceptera donc de traiter les prompts faisant allusion à des personnages de Disney.

Outre l’intégration aux modèles génératifs, Disney concède également à OpenAI l’autorisation de distribuer les contenus IA produits à partir de sa propriété intellectuelle. Une façon de garantir que les internautes utilisateurs de Sora auront bien le droit de diffuser les vidéos en question sur les réseaux sociaux.

L’accord n’intègre en revanche ni l’image, ni la voix des acteurs humains ayant pu incarner ou doubler les personnages en question, prennent bien soin de préciser les deux entreprises, qui affirment par ailleurs leur ambition de défendre aussi bien « la sécurité des utilisateurs » que « les droits des créateurs ».

Un accord à tiroirs ?

Pour quel montant Disney, poids lourd mondial du divertissement, a-t-il accepté de laisser OpenAI exploiter de la sorte ses personnages, et ce alors que Sora 2 n’est pas exempt de défauts quant à des usages détournés ? La dimension financière de cet accord de licence est dissimulée au sein d’un contrat à plus grande échelle, qui conduit Disney à devenir à la fois client et investisseur d’OpenAI.

« Dans le cadre de cet accord, Disney investira 1 milliard de dollars en actions dans OpenAI et recevra des bons de souscription lui permettant d’acquérir des actions supplémentaires », indiquent les deux entreprises.

Disney s’engage dans le même temps à exploiter les outils d’OpenAI, à la fois via API, dans le développement de ses propres services, dont le service de streaming Disney+, mais aussi en interne, avec un déploiement programmé de ChatGPT auprès de ses salariés.

« L’essor rapide de l’intelligence artificielle marque un tournant important pour notre secteur, et grâce à cette collaboration avec OpenAI, nous étendrons de manière réfléchie et responsable la portée de nos récits grâce à l’IA générative, tout en respectant et en protégeant les créateurs et leurs œuvres », résume Bob Iger, CEO de The Walt Disney Company, dans un communiqué.

Après la presse ou la musique, le cinéma

Cet accord d’une ampleur inédite souligne qu’après les grands quotidiens de la presse (en France, le Monde est partenaire d’OpenAI) ou les majors de la musique, les poids lourds du cinéma acceptent eux aussi de s’associer avec les acteurs de l’IA générative, plutôt que de devoir ferrailler en justice contre ces derniers. Jusqu’ici, Disney avait privilégié la voie du contentieux, comme en témoignent les poursuites engagées à l’encontre de MidJourney en juin dernier. En signant avec OpenAI, le groupe montre à l’ensemble du secteur qu’il est possible de trouver un terrain d’entente, ce qui suscitera sans doute d’autres accords entre studios hollywoodiens et acteurs de l’IA, même si tout le monde n’a pas le pouvoir de négociation d’un Disney.

OpenAI n’avait pas attendu de signer un contrat similaire pour utiliser le style des studios Ghibli.

☕️ Guillaume Poupard rejoint Orange pour piloter la « confiance et souveraineté »

11 décembre 2025 à 13:58

Ancien patron de l’ANSSI, Guillaume Poupard s’apprête à quitter la direction générale adjointe de Docaposte au profit d’un poste à la tête d’Orange, en tant que Chief Trust Officer, soit responsable de la « confiance et souveraineté » à compter du 1er février 2026. L’opérateur a annoncé jeudi après-midi ce recrutement d’une personnalité emblématique du secteur français de la cybersécurité, confirmant l’information sortie la veille par l’Informé.

Guillaume Poupard sera rattaché directement à Christel Heydemann, directrice générale du groupe, et aura pour mission « de définir et d’incarner la stratégie d’Orange en matière de souveraineté et de confiance », indique un communiqué. À ce titre, il contribuera « à accélérer le développement d’offres innovantes en cybersécurité (B2C et B2B), cloud et IA de confiance, en étroite collaboration avec Orange Business et Orange Cyberdéfense ».

Cet ingénieur général de l’armement et docteur en cryptologie a précédemment occupé la tête de l’Agence nationale de la sécurité des systèmes d’information (ANSSI), de 2014 à 2022, date à laquelle il a quitté ses fonctions pour rejoindre Docaposte, la branche des activités numériques du groupe La Poste. À l’ANSSI, Guillaume Poupard a été remplacé par Vincent Strubel, qui dirige toujours l’agence aujourd’hui.

Guillaume Poupard en 2022 lors des Assises de la sécurité – crédit SG pour Next

Dans sa guerre contre l’inclusivité, Trump abandonne la police de caractères Calibri

11 décembre 2025 à 11:00
Police de la police
Dans sa guerre contre l’inclusivité, Trump abandonne la police de caractères Calibri

L’administration Biden avait fait de Calibri la police de caractères officielle du gouvernement étatsunien pour des raisons de lisibilité et d’inclusivité. Opposé à toute mesure en ce sens, l’actuel secrétaire d’État, Marco Rubio, remet en place le Times New Roman.

Marco Rubio, le secrétaire d’État américain, a ordonné aux diplomates de son pays de ne plus utiliser la police de caractère Calibri et de repasser au Times New Roman.

Selon le New York Times, le mémo envoyé par le responsable des Affaires étrangères du pays indique : « Retour à la tradition : police Times New Roman 14 points obligatoire pour tous les documents du département ».

Annulation d’une décision de l’administration Biden pour plus d’inclusivité

Il annule, de fait, une décision prise sous Joe Biden qui avait changé la police de caractère officiellement utilisée par la diplomatie étatsunienne en 2023 pour Calibri, une police sans empattement (serif en anglais).

Créée par Microsoft en 2004, elle avait été jugée plus accessible pour les lecteurs en situation de handicap, notamment les personnes malvoyantes ou dyslexiques, par l’administration fédérale précédente. Comme l’écrivait TechCrunch à l’époque, Microsoft avait pris cette décision de remplacer le Times New Roman par Calibri dès 2007 pour sa police par défaut.

Marco Rubio a affirmé, selon le New York Times, que ce changement « ne figurait pas parmi les cas les plus illégaux, immoraux, radicaux ou inutiles » des politiques de diversité, équité, inclusion et accessibilité de son pays. Mais, selon lui, ce changement de police de caractères était un échec car les « cas de correction de documents pour des raisons d’accessibilité » n’ont pas diminué. Et il estime que « le passage à Calibri n’a rien apporté d’autre que la dégradation de la correspondance officielle du département ».

Dans un article sur l’accessibilité des polices de caractères publié sur Medium en 2020, Gareth Ford Williams, alors responsable de l’expérience utilisateur et de l’accessibilité à la BBC, expliquait : « Pour les enfants ou les adultes qui apprennent à lire ou qui ont des difficultés en lecture, les formes moins complexes des polices sans empattement peuvent faciliter la reconnaissance des caractères. Les polices avec empattement offrent une lisibilité plus fluide aux lecteurs avancés grâce à la forme plus claire des lettres ».

Tradition, formalité et cérémonial

Pour le retour au Times New Roman, le secrétaire d’État met en avant une perception des polices avec empattement « comme évoquant la tradition, la formalité et le cérémonial ».

Cette modification dans les usages officiels de l’administration états-unienne marque symboliquement un nouveau coup contre les politiques de diversité, d’équité et d’inclusion mises en place auparavant aux États-Unis. Dès février dernier, l’administration Trump interdisait à plusieurs agences d’utiliser certains mots comme « racisme », « biais », « genre » ou « sexualité ». Elle a ensuite imposé aux entreprises qui travaillent avec elle, comme SAP, d’abandonner ce genre de politiques. Récemment, la fondation Python a refusé une subvention de 1,5 million de dollars car les conditions assorties mentionnaient l’interdiction de toute politique DEI.

☕️ Linux : l’environnement Cinnamon 6.6 disponible avec son nouveau menu principal

11 décembre 2025 à 10:30

L’équipe de Linux Mint a publié la version 6.6 finale de l’environnement Cinnamon, qui équipe par défaut la distribution populaire.

Le plus gros changement, qui avait été « teasé » par l’équipe au début du printemps, est un menu principal repensé. Il permet la configuration des emplacements et favoris, la bascule entre des icônes symboliques ou complètes (colorées) et embarque de nombreux changements visuels. Par exemple, le panneau latéral est plus large, les dossiers les plus courants y sont épinglés, les boutons d’alimentation (arrêt, déconnexion, verrouillage) sont placés en bas à gauche, etc.

Cinnamon 6.6 présente d’autres nouveautés. Par exemple, une simplification de la gestion des claviers physiques et virtuels avec un bouton pour changer rapidement de disposition, une meilleure visibilité des suggestions ou encore un effet de fondu quand le clavier virtuel apparait ou disparait.

Signalons aussi du neuf dans les Paramètres, avec notamment le nouveau panneau pour les informations système, l’arrivée du Thunderbolt ou encore la possibilité de définir manuellement les plages horaires pour les thèmes clairs et sombres. L’applet NetworkManager peut afficher plusieurs connexions VPN actives, Workspace Switcher peut ajouter des icônes aux fenêtres, Imprimante n’apparait que lors d’une impression, une jauge apparait quand on change le volume sonore, Alt+Tab n’affiche que les fenêtres présentes sur l’écran utilisé, les animations sont plus fluides, etc.

Cinnamon 6.6 sera l’environnement par défaut de la future version 22.3 de Linux Mint, nommée Zena. Elle doit arriver à la fin du mois ou début janvier. Pour les autres systèmes avec Cinnamon, la mise à jour de l’environnement dépendra de la philosophie de la distribution utilisée. Beaucoup ne changent pas de version majeure ou même intermédiaire avant la révision suivante. À noter que la version 6.6 est prête aussi bien pour l’édition standard de Linux Mint que pour LMDE, l’édition basée sur Debian.

Vibe coding : avec Devstral 2, Mistral vise la couronne de la rentabilité

11 décembre 2025 à 09:45
« Pas le top, mais pas cher »
Vibe coding : avec Devstral 2, Mistral vise la couronne de la rentabilité

Mistral part plus frontalement à l’assaut de Claude Code et autre ChatGPT Codex. La startup française a lancé ce 9 décembre deux modèles dédiés au développement, dont une version légère fonctionnant sur du matériel grand public.

Mistral a lancé en juin dernier son outil Code, dédié au vibe coding. La semaine dernière, elle présentait ses modèles Mistral 3, déclinés en de nombreuses variantes.

La licorne veut doubler la mise avec sa nouvelle génération Devstral 2 dédiée aux développeurs, plus particulièrement au fonctionnement autonome agentique. Elle lance également un outil en ligne de commande, Vibe CLI, pour faciliter l’automatisation du code par le langage naturel.

Mistral joue la rentabilité

La nouvelle famille Devstral 2 se compose de deux modèles, un grand et un petit, ouverts et sous licence libre (une version modifiée de la licence MIT pour le grand, Apache 2.0 pour le petit). Le grand, avec ses 123 milliards de paramètres, est mis en avant. Mistral annonce un score de 72,2 % sur le test SWE-bench Verified, ce qui le classe parmi les meilleurs modèles, devant Claude 4.5 Sonnet (70,60 %) et derrière Claude 4.5 Opus (74,40 %) et Gemini 3 Pro (74,20 %). Sur le site du test, les scores des modèles Devstral 2 ne sont pas encore présents.

Mistral braque surtout les projecteurs sur la rentabilité de son modèle. Elle le présente comme « jusqu’à 7 fois plus rentable que Claude Sonnet pour des tâches réelles ». En outre, le modèle est actuellement gratuit via l’API Mistral. Après cette période de grâce, la tarification sera de 0,40 dollar par million de jetons en entrée et de 2 dollars en sortie. C’est d’ailleurs de là que vient la comparaison avec Sonnet, puisque la tarification de ce dernier est respectivement de 3 et 15 dollars.

Devstral 2 peut fonctionner localement, mais Mistral recommande quand même la présence d’au moins quatre puces H100 pour son déploiement. Sa fenêtre de contexte est de 256 000 jetons. « Devstral 2 permet d’explorer les bases de code et d’orchestrer les modifications sur plusieurs fichiers tout en maintenant un contexte au niveau de l’architecture. Il suit les dépendances du framework, détecte les défaillances et réessaie avec des corrections – résolvant des défis comme la correction de bugs et la modernisation des systèmes hérités. Le modèle peut être affiné pour prioriser des langages spécifiques ou optimiser pour de grandes bases de code d’entreprise », indique Mistral dans son communiqué.

Crédits : Mistral

Petit pimousse

Cependant, c’est bien Devstral 2 Small qui a attiré le plus l’attention. Il dispose de 24 milliards de paramètres et affiche, selon Mistral, un score de 68 % sur SWE-bench Verified. Lui aussi est pour l’instant disponible gratuitement via l’API. Après quoi, la tarification sera de 0,10 dollar par million de jetons en entrée et 0,30 dollar en sortie. Là aussi, la fenêtre de contexte est de 256 000 jetons. La communication de Mistral sur ce petit modèle est claire : il n’égale pas les gros modèles, mais il est 28 fois plus petit que DeepSeek 3.2.

Devstral 2 Small a attiré rapidement les commentaires, et pour cause : son installation locale peut se faire sur du matériel accessible au grand public. Une recherche « devstral » sur X montre rapidement un grand nombre de publications louant les résultats obtenus pour un modèle local. Dogac, par exemple, a testé les modèles dans un benchmark personnalisé et retrouve globalement les résultats donnés par Mistral. D’autres, comme N8Programs et Thadée Tyl, louent ses performances. Ce dernier affirme que Devstral 2 devient le meilleur modèle pour le développement sous la barre des 150 milliards de paramètres, et que Devstral 2 Small fait presque jeu égal avec Magistral 1.2 sans posséder de capacités de raisonnement.

Dans l’ensemble, les résultats obtenus par les deux modèles vont dans le sens de ce que nous déclarait récemment Horacio Gonzalez (Clever Cloud). Pour le responsable, on pouvait être optimiste sur les modèles locaux et open source, car leur progression est tout aussi rapide – même avec un décalage – que les modèles fermés en ligne. Une progression suffisante pour ne pas avoir à craindre une trop grande dépendance limitée à quelques gros acteurs du domaine.

Mistral Vibe CLI

Mistral a profité de son annonce pour lancer un nouvel outil, nommé Vibe CLI, également sous licence Apache. Il s’utilise en ligne de commande, similaire à des produits concurrents comme Claude Code et OpenAI Codex. Vibe CLI sert à interagir avec les modèles Mistral dans un terminal, avec des capacités d’analyse de structure de fichiers, de modifications sur plusieurs fichiers, de commandes shell, de recherche de code ou encore de contrôle de version.

Mistral insiste en particulier sur la prise en charge d’un « contexte conscient » du projet. La structure des fichiers et le statut Git sont ainsi analysés automatiquement. L’entreprise assure que le raisonnement se fait sur l’ensemble des fichiers et pas uniquement celui en cours d’édition. L’historique est décrit comme persistant, avec autocomplétion et thèmes personnalisables.

Crédits : @cedric_chee

« Vous pouvez exécuter Vibe CLI de manière programmatique pour le scripting, désactiver l’auto-approbation pour l’exécution de l’outil, configurer des modèles locaux et des fournisseurs via un simple config.toml, et contrôler les permissions des outils pour correspondre à votre flux de travail », indique Mistral, confirmant que son outil fonctionne avec des installations locales de ses modèles.

Sur le fonctionnement en ligne, certains notent des latences, conséquence probablement du lancement frais. D’autres ont testé Mistral Vibe en local avec le modèle Devstral 2 Small, comme N8Programs sur un Mac équipé d’une puce M3 Max. Le nombre de cœurs n’est pas précisé, mais la puce en contient au moins 14 sur la partie CPU et 30 sur la partie GPU. On trouve également des avis plus nuancés, notamment sur les performances de Devstral 2, avec des bons et mauvais points.

☕️ Deloitte de nouveau accusé d’avoir rendu un rapport en partie généré par IA

11 décembre 2025 à 08:22

Fin novembre, au Canada, le gouvernement de Terre-Neuve-et-Labrador a dû demander à Deloitte de reprendre son travail après y avoir trouvé des citations erronées.

Pour 1,6 million de dollars canadiens (près d’1 million d’euros), d’après le média The Independent, la société de consultants avait rendu un rapport de 526 pages proposant un plan de dotation pour le secteur de la santé de la province canadienne.

Dans au moins deux cas, les noms de chercheurs réels ont été mentionnés alors que ces derniers n’étaient pas les auteurs des articles fictifs cités. 
Parmi eux, Martha McLeod, professeure émérite à l’Université du nord de la Colombie-Britannique, a déclaré ses citations « fausses » et « potentiellement générées par IA ».

Le but du rapport incluant lesdites citations est de proposer une série de mesures relatives aux soins à distance, aux incitations financières, de rétention et au recrutement de personnel de santé, ou encore aux répercussions de la pandémie de Covid-19 sur le personnel de santé.

Deloitte a reconnu la présence de citations erronées, tout en indiquant que l’intelligence artificielle n’avait « pas été utilisée pour la rédaction du rapport », mais simplement utilisée « de manière sélective pour étayer certaines citations de recherche ». 


Moins de deux mois avant cette affaire, Deloitte reconnaissait avoir rendu un rapport partiellement généré par IA au gouvernement australien et s’engageait à rembourser une partie des 439 000 dollars australiens (245 500 euros) déboursés pour obtenir cet audit du système informatique dédié à automatiser les sanctions dans le système social local.

☕️ En France, 80 % des abonnements sur le fixe passent par la fibre

11 décembre 2025 à 08:00

Chaque trimestre, le régulateur des télécoms publie son observatoire du marché des services fixes à haut et très haut débit : « Fin septembre 2025, la France compte 26,3 millions d’abonnements à la fibre optique, soit 80 % du nombre total d’abonnements internet à usage fixe », soit 610 000 de plus en trois mois.

Le déploiement de la fibre aussi va bon train puisqu’elle couvre désormais 93,5 % des locaux. 430 000 locaux supplémentaires ont été rendus raccordables à la fibre, un chiffre en baisse trimestre après trimestre (le pic était fin 2020). Une chute logique : seules les lignes difficiles/coûteuses restent à raccorder, soit environ 3 millions.

Voici le détail :

  • 220 000 dans les RIP (Réseaux d’Initiative Publique), reste 1 410 000,
  • 30 000 dans les AMEL (appels à manifestation d’engagements locaux), reste 75 000,
  • 20 000 dans les zones très denses, reste 470 000.

Comme toujours, tous les détails se trouvent sur le site de l’Arcep. Vous pouvez également consulter une carte des déploiements fibre sur Ma connexion Internet.

Qualcomm se renforce dans RISC-V avec Ventana, Intel dans l’IA avec SambaNova

11 décembre 2025 à 07:32
C’est la samba des dollars
Qualcomm se renforce dans RISC-V avec Ventana, Intel dans l’IA avec SambaNova

En l’espace de quelques jours, deux rachats par des géants des puces ont été annoncés. Le premier concerne Qualcomm qui se renforce dans l’architecture ouverte RISC-V avec le rachat de Ventana. Le deuxième avec Intel qui aurait signé un accord (non engageant) avec SambaNova, une start-up à la mode dans le monde de l’IA.

Qualcomm veut renforcer ses cœurs Oryon avec RISC-V

Dans le but d’approfondir son expertise dans les processeurs RISC-V, Qualcomm vient d’annoncer le rachat de Ventana Micro Systems. « L’équipe de Ventana viendra compléter le développement en cours de Qualcomm sur RISC-V et ses CPU Oryon », explique l’entreprise dans un communiqué. Oryon est pour rappel le nom de ses cœurs CPU, aussi bien pour les smartphones que les ordinateurs portables Arm.

Ventana a été fondée en 2018 et fait partie du comité de pilotage technique de RISC-V. Elle a lancé son premier processeur en 2023 : Veyron. Il est gravé avec une technologie 5 nm, dispose de 16 cœurs et fonctionne jusqu’à 3,6 GHz. Veyron 2 est prévu pour début 2026 avec jusqu’à 32 cœurs, puis ce sera au tour de Veyron 3.

Qualcomm a pour rappel lancé en 2023 une alliance autour de RISC-V avec quatre autres géants : Robert Bosch GmbH, Infineon Technologies AG, Nordic Semiconductor et NXP Semiconductors. Le but est de développer une alternative libre et ouverte à Arm, avec qui Qualcomm a de nombreux différends.

Pour rappel, l’architecture RISC-V propose un jeu d’instructions ouvert et libre, de 32 à 128 bits. Chacun peut y ajouter ses propres instructions et elle peut prendre en charge un très grand nombre de cœurs, ce qui est particulièrement utile dans un monde où l’IA règne en maitre ou presque.

Un accord entre Intel et SambaNova ?

Dans le même temps, Intel aurait trouvé un accord avec SambaNova pour la racheter, c’est du moins ce qu’affirment des sources à Wired. « Le détail des conditions n’est pas connu. L’accord n’est pas contraignant, ce qui signifie qu’il n’est pas encore finalisé et pourrait être dissout sans pénalité », expliquent nos confrères.

Nous parlions de SambaNova récemment, à l’occasion de l’OVH Summit, qui faisait la part belle à l’intelligence artificielle et à l’inférence. C’était en effet une des principales annonces de l’hébergeur : la mise à « disposition de nouvelles infrastructures IA avec SambaNova ».

L’hébergeur « déploiera de nouveaux accélérateurs dédiés à l’inférence à grande échelle (RDU), avec des offres de très grande capacité de calcul en utilisation « low latency » et « batch », permettant des cas d’usage demandant de la performance pour la parallélisation de threads à l’échelle ».

Liaison dangereuse de Lip-Bu Tan, le CEO d’Intel

En 2021, SambaNova avait levé 676 millions de dollars via SoftBank, Temasek et GIC. « Ils viennent rejoindre les investisseurs existants BlackRock, Intel Capital, Google Ventures, Walden International et WRVI. Au total, la start-up a levé 1 Md$ pour une valorisation estimée à 5 Md$ », expliquait Le Monde Informatique.

SambaNoba et Intel se connaissent très bien par l’intermédiaire de… Lip-Bu Tan. Il est à la fois le CEO d’Intel et le président (chairman) de SambaNova. Aucune des parties prenantes n’a souhaité répondre à nos confrères.

Reuters rappelle qu’une histoire similaire s’est déjà déroulée l’été dernier, avec la start-up Rivos dont Lip-Bu Tan est aussi président. Lip-Bu Tan avait proposé à Intel de racheter Rivos, « mais il n’avait pas eu de chance. Le conseil a déclaré à Tan qu’il avait un conflit en représentant à la fois les intérêts de Rivos et ceux d’Intel, et qu’il manquait d’une stratégie en matière d’intelligence artificielle pour justifier un accord », ont affirmé des sources à nos confrères.

C’est finalement Meta qui aurait remporté la mise, faisant grimper les enchères. Reuters n’a pas pu calculer le montant que le CEO d’Intel a personnellement gagné en tant qu’actionnaire de Rivos. Néanmoins, toujours selon nos confrères, la société de capital-risque de Lip-Bu Tan (Walden Catalyst) parle d’un « remarquable succès ».

Ce n’est pas la première fois que les multiples casquettes de Lip-Bu Tan font parler. En août, Donald Trump avait carrément appelé à la démission le nouveau CEO d’Intel suite à une lettre du sénateur républicain de l’Arkansas Tom Cotton. Il y posait « des questions sur les liens du nouveau CEO Lip-Bu Tan avec des entreprises chinoises et une récente affaire pénale impliquant son ancienne société Cadence Design ».

Quelques jours plus tard, le même président des États-Unis vantait l‘« histoire incroyable » du CEO d’Intel et ne parlait plus de démission. Pour nos confrères américains, « le CEO d’Intel avait réussi à courtiser le président Trump ».

❌