Vue lecture

Epic gagne en grande partie son appel contre Apple, qui sauve sa « commission »

Epic gagne en grande partie son appel contre Apple, qui sauve sa « commission »

Deux annonces importantes pour Epic Games ces dernières heures. Tout d’abord, Fortnite est de retour sur le Google Play aux États-Unis. Epic et Google continuent de travailler pour faire valider leur accord. Toujours aux États-Unis, Apple perd en grande partie son appel contre Epic, mais gagne quand même la possibilité de faire payer des commissions « raisonnables ».

Epic et Google toujours main dans la main

Via un message sur X, Fortnite annonce le retour de son jeu dans le Google Play aux États-Unis. Les smartphones Android peuvent donc de nouveau le télécharger via la boutique officielle. Le mois dernier, Google avait proposé au juge des modifications en profondeur du Play Store, avec le soutien d’Epic.

Ce retour fait « suite au respect par Google de l’injonction du tribunal. Nous continuons de collaborer avec Google afin d’obtenir l’approbation du tribunal pour notre accord », explique Epic Games. Tim Sweeney (cofondateur et CEO d’Epic) lance un « grand merci à Google pour son soutien exceptionnel ». Fortnite reste toujours disponible dans l’Epic Games Store partout dans le monde.

Apple vs Epic : la cour d’appel confirme en « grande partie »

Changeons de crémerie pour aller sur les iPhone. Comme l’explique Engadget, « la 9e Cour d’appel des États-Unis a en grande partie confirmé une décision antérieure pour outrage au tribunal concernant les frais qu’Apple prélevait sur les systèmes de paiement tiers ». Ce n’est pas une victoire sur toute la ligne pour autant et Apple sauve une partie de ses revenus.

En effet, la décision va néanmoins dans le sens d’Apple sur un point important pour l’entreprise : « les juges ont décidé d’annuler la décision interdisant à Apple de percevoir des commissions sur ces paiements externes ». TechCrunch (qui publie aussi la décision dans son intégralité) ajoute que cette décision permet à Apple de « demander aux développeurs de ne pas rendre les liens vers leurs systèmes de paiements plus grands ou plus visibles que ceux d’Apple ».

Voici le détail de la décision :

  • « Apple peut interdire aux développeurs de placer des boutons, liens ou autres dans des polices plus visibles, des tailles plus grandes, en plus grande quantité et à des endroits plus visibles que ceux utilisés par Apple,
  • Apple peut interdire aux développeurs d’utiliser un langage qui enfreint ses conditions générales de contenu, si de telles normes existent,
  • Apple n’est pas expressément empêchée d’exclure les développeurs participant aux programmes VPP et NPP,
  • Apple n’est pas empêchée d’imposer une commission ou des frais sur les achats effectués par les consommateurs dans une application iOS en dehors de l’Apple Store. »

La commission doit être « raisonnable », précise Reuters, sans définir ce qui est raisonnable… Tim Sweeney se félicite dans tous les cas, affirmant ainsi que les développeurs vont éviter de payer des « giant junk fees » (frais abusifs exorbitants, en VF).

2020 – 2025 : cinq ans de procédures

Les débuts de cette bataille juridique remontent pour rappel en 2021, quand la juge Yvonne Gonzalez Rogers ordonnait à Apple de supprimer ses règles « interdisant aux développeurs d’informer les utilisateurs des alternatives au système d’achat intégré d’Apple ».

En mai dernier, Apple se prenait de plein fouet les foudres de la juge qui affirmait qu’Apple avait « délibérément choisi de ne pas se conformer à l’injonction de la Cour » et qu’un de ses vice-présidents avait menti sous serment. Quelques semaines plus tard, la justice refusait à Apple un sursis en attendant que l’appel ait lieu.

Fortnite est, pour rappel, de nouveau disponible sur l’App Store iOS depuis mai dernier. Tim Sweeney affirme que, depuis son retour, « Fortnite est devenu le deuxième jeu iOS le plus téléchargé aux États-Unis en 2025 ».

Après cinq ans de bataille judiciaire, le jeu phare d’Epic est donc disponible dans les boutiques officielles sur Android et iOS aux États-Unis.

  •  

Le Cyber Panorama veut recenser les offres françaises souveraines de cybersécurité

Le Cyber Panorama veut recenser les offres françaises souveraines de cybersécurité

Le CESIN et Hexatrust lancent un panorama pour recenser les offres souveraines en matière de cybersécurité pour la France. La liste sera régulièrement mise à jour et devrait s’étendre à toute l’Europe.

Jamais la question de la souveraineté numérique n’a autant été débattue. Largement alimentée par l’attitude peu consensuelle de la Maison-Blanche depuis le retour de Donald Trump à la présidence américaine, elle revient constamment sur le devant de la scène. 

En juillet, nous avions rassemblé les principales pour en offrir une vue de synthèse. Fin octobre, la Cour des comptes fustigeait la mauvaise gestion de cette question, soulignant notamment le manque de cohérence dans les décisions gouvernementales. Mais le sujet est loin d’être nouveau : en octobre 2021, Jean-Paul Smets estimait déjà que la France avait « tout d’un pays colonisé ».

Dans ce contexte, le CESIN (Club des Experts de la Sécurité de l’Information et du Numérique) et Hexatrust, deux associations centrées sur la cybersécurité, ont uni leurs forces. Elles proposent un Cyber Panorama : un « outil opérationnel pour guider les organisations vers des solutions souveraines ».

Sérieux déséquilibre

Cette initiative a été lancée le 9 décembre. Le Cyber Panorama recense ainsi 320 noms environ d’acteurs français proposant des solutions souveraines. Dans le communiqué, on peut lire que le projet est né du constat alarmant que les organisations européennes éprouvent des difficultés majeures à identifier des alternatives crédibles aux solutions extra-européennes, majoritairement américaines. Et pour cause : selon un rapport du Cigref en avril dernier, 83 % des achats de technologies en Europe se font auprès d’acteurs extra-européens.

L’outil sert plusieurs objectifs. D’abord, réduire certains risques, toujours les mêmes sur ce thème : dépendance critique à des technologies étrangères (essentiellement américaines), exposition non maitrisée aux risques liés à l’extraterritorialité juridique (dont le fameux Cloud Act) et vulnérabilité stratégique face aux tensions géopolitiques.

Ensuite, le Cyber Panorama peut être abordé sous l’angle économique : en achetant des produits européens, les capitaux restent en Europe. C’était le cœur du rapport du Cigref, qui abordait aussi les nombreux emplois que la réorientation créerait. Jean-Noël de Galzain, président d’Hexatrust, insiste sur ce point : porter la part des achats purement européens à 30 % représenterait un chiffre d’affaires de 690 milliards d’euros d’ici dix ans, et jusqu’à 500 000 emplois.

Les acteurs sont déjà là

Le communiqué commun du CESIN et d’Hexatrust le clame haut et fort : l’Europe a déjà tout ce qu’il faut. Le problème majeur, pour les deux associations, est surtout que les organisations européennes ne savent pas qui sont ces acteurs. Le Cyber Panorama se propose donc de les recenser.

Le critère de souveraineté n’est pas expliqué dans le communiqué du Cyber Panorama. Selon le MagIT, qui assistait à la présentation, il est requis que le siège de l’entreprise et ses équipes de développement soient situés en France. Les cabinets de conseil, sociétés de services et intégrateurs ont été mis de côté. Sur le sujet du capital en revanche, les deux associations se seraient plus souples, acceptant qu’une part puisse provenir d’une société extra-européenne.

La structure de l’offre est fondée sur le NIST Cybersecurity Framework, référentiel largement utilisé venant des États-Unis. « Nous avons voulu opter pour une nomenclature qui parle à tout le monde », a déclaré Alain Bouillé, délégué général du CESIN. Elle établit six grandes fonctions : Gouverner, Identifier, Protéger, Détecter, Répondre et Récupérer. Chaque fonction est ensuite divisée en catégories plus spécifiques correspondant aux différents domaines de la cybersécurité (surveillance, sécurité des données, sensibilisation, etc.).

Pour l’instant, il s’agit d’une liste statique de noms. Prochainement, tout sera rassemblé au sein d’une interface web dynamique permettant de filtrer les acteurs selon ce que l’on cherche. Le CESIN et Hexatrust précisent que la liste sera régulièrement mise à jour, de sorte que les résultats devraient toujours être « frais ».

Une dimension européenne à venir

La liste des 320 acteurs est d’ailleurs présentée comme « une première étape ». Dans une future version, les deux associations ambitionnent d’ajouter les suites bureautiques et collaboratives, ainsi que les solutions de « Cloud de Confiance », dont les offres labellisées SecNumCloud, et Digital Workplace. Une nouvelle catégorie « Héberger » fera son apparition.

À plus long terme, l’outil devrait référencer les solutions européennes et devenir un outil utilisable par les autres. Les deux associations espèrent en outre que l’outil favorisera l’émergence d’une BITC (Base Industrielle et Technologique de Cybersécurité), équivalente numérique de la BITD (Base Industrielle et Technologique de Défense).

L’outil devrait avoir au moins le mérite d’accroitre la visibilité des acteurs mentionnés. Selon un baromètre publié en septembre (pdf) par Hexatrust et EY, 40 % des entreprises interrogées n’effectuent aucune veille des solutions françaises existantes.

  •  

La surveillance géolocalisée de l’ICE détourne les femmes enceintes des soins médicaux

Smart ?
La surveillance géolocalisée de l’ICE détourne les femmes enceintes des soins médicaux

Aux États-Unis, les femmes enceintes sans-papiers peuvent être obligées de porter des montres connectées spéciales qui les surveillent en permanence. Certains personnels hospitaliers constatent, avec la massification des poursuites, que des patientes ont peur de les enlever lorsqu’une intervention le nécessite.

Dans le Colorado, des femmes enceintes ayant besoin de soins médicaux urgents ont peur quand le personnel médical des urgences veut leur enlever le dispositif de surveillance qui leur est imposé.

Le Guardian raconte qu’en septembre dernier, une femme enceinte de neuf mois est entrée dans les urgences obstétriques d’un hôpital du Colorado munie d’une montre connectée qu’elle ne voulait surtout pas enlever. Les médecins ont diagnostiqué qu’une césarienne était nécessaire pour que l’accouchement se passe le mieux possible. Mais pour faire cette césarienne, ils ont besoin d’utiliser un outil de cautérisation qui nécessite que la patiente enlève tout bijou ou objet métallique.

Une smartwatch très particulière

Le problème était que la montre connectée n’était pas commune. En effet, le Service de l’immigration et des douanes des États-Unis (ICE) avait imposé à cette femme de porter en permanence une montre VeriWatch de l’entreprise Bi Inc.

Celle-ci permet aux autorités de surveiller en permanence la personne qui la porte. Elle a d’autres fonctionnalités comme la vérification que la personne est encore en vie ou la reconnaissance faciale du porteur à des fins de contrôle.

Elle ne peut pas être retirée facilement mais elle n’est pas accompagnée non plus d’information concernant la sécurité de son port lors d’intervention médicale comme celle évoquée plus haut. De plus, l’ICE ne fournit aux hôpitaux états-uniens aucune information pour la contacter pour savoir quoi faire. Lorsque le personnel hospitalier a expliqué à la femme enceinte qu’il allait sans doute falloir couper le bracelet, elle a paniqué.

En arrivant à l’hôpital, elle avait aussi peur car la batterie était faible. Elle avait besoin de la recharger pour ne pas que les services d’immigration croient qu’elle essayait de se cacher. La notice de la montre, sur le site du fabricant [PDF], indique que la batterie a une durée de vie de 16 heures, avec une possibilité d’aller jusqu’à 32 heures si on utilise la batterie externe adaptée.

Finalement, selon le Guardian, la montre a été enlevée et la femme est repartie avec son bébé sans que l’ICE ne vienne à l’hôpital. Mais le personnel signale que c’est la troisième femme enceinte qui arrive avec ce dispositif de surveillance en quelques mois.

La massification de programmes « plus humains » que l’incarcération

De fait, le système carcéral du pays est saturé depuis longtemps et ce dispositif de surveillance n’est pas nouveau aux États-Unis. En effet, depuis 2004, comme l’explique le média Jezebel, un programme d’ « alternatives à la détention » existe, option « plus humaine » pour les personnes menacées d’expulsion considérées comme « à moindre risque ».

Pour la plupart, l’alternative consiste à mettre en place un bracelet électronique, comme cela existe en France. Depuis 2009, l’ICE n’utilise plus ce genre de bracelet pour les femmes enceintes à cause d’un taux de complication élevé et a penché pour ces montres connectées en 2023.

Mais, depuis son retour la tête des États-Unis, Donald Trump a intensifié la politique de traque massive de personnes étrangères qui ne peuvent pas prouver leur droit d’y résider, et se prépare à muscler encore le budget de l’ICE. Cette politique augmente mécaniquement le nombre de personnes concernées par les dispositifs de coercition mis en place par le système judiciaire étasunien.

Et, même si le taux de complication est moins élevé avec les montres qu’avec les bracelets, leur usage massif se double d’une absence d’information en cas de problème et de la peur des personnes concernées, qui amènent les personnels hospitaliers à constater des problèmes.

« Elle était en larmes à ce sujet. Elle avait cette peur profonde que l’ICE vienne à l’hôpital et lui enlève son bébé », explique l’un d’entre eux au Guardian, en parlant de la femme enceinte en question.

  •  

☕️ Windows on ARM : l’émulateur Prism prend en charge les instructions AVX et AVX2

Le 5 décembre, Microsoft a déployé sans grand bruit une mise à jour pour l’ensemble des PC bâtis sur une puce Snapdragon X de Qualcomm, pour rappel au cœur de l’offre des ordinateurs Copilot+ de Microsoft.

Elle a apporté une nouvelle version à l’émulateur Prism, chargé de faire fonctionner les applications x86 sur des machines Arm en convertissant le code en arm64. Si ce composant fait globalement le travail, on retrouve bien sûr les limitations habituelles de ce type de technologie, dont des performances nettement plus faibles que pour des applications natives.

Certaines applications et jeux ne pouvaient en outre pas être installés. Ils réclament en effet des jeux d’instructions spécifiques, dont font partie AVX (Advanced Vector Extensions) et AVX2. Quand ils sont exploités, ils permettent une hausse significative des performances dans certains domaines, comme le traitement d’images, le rendu 3D, le codage vidéo ou encore les calculs scientifiques. Si AVX se concentrait sur les nombres en virgule flottante, les instructions AVX2 ont ajouté le support des entiers, élargissant d’autant plus le périmètre d’utilité.

Les instructions AVX sont arrivées en 2008 et ont donc eu largement le temps d’être supportées dans de nombreuses applications. Les jeux en font aujourd’hui un usage intensif. À tel point que beaucoup de ces programmes ne peuvent pas fonctionner sans.

C’est ce qu’a apporté la mise à jour de Prism, en plus d’extensions associées comme BMI, BFA et F16C. Microsoft cite le cas du séquenceur musical Ableton Live 12, qui affichait une erreur au lancement avec l’ancienne version de Prism. L’éditeur précise toutefois que l’application arrivera sous forme native dans le courant de l’année prochaine.

Microsoft précise que la nouvelle version a été déployée sur toutes les machines concernées, dès lors qu’elles ont au moins la version 24H2 de Windows 11, ce qui est en théorie le cas de tous les Copilot+. La nouvelle émulation est active par défaut pour les applications x86-64. Elle est coupée par défaut pour les applications 32 bits, mais peut être activée dans les paramètres de compatibilité.

  •  

Disney investit dans OpenAI et lui cède les droits sur 200 personnages de ses franchises phares

Holy Wood
Disney investit dans OpenAI et lui cède les droits sur 200 personnages de ses franchises phares

The Walt Disney Company a annoncé jeudi un investissement d’un milliard de dollars dans OpenAI. Il s’accompagne d’un accord de licence sur trois ans autorisant l’éditeur de ChatGPT et surtout de l’IA générative vidéo Sora à exploiter l’image de plus de 200 personnages issus des grandes franchises de l’empire Disney, de Mickey à Marvel en passant par Star Wars, Cendrillon ou le Roi Lion.

Avalanche de vidéos de sabres laser à la physique approximative en vue ? The Walt Disney Company a annoncé jeudi concéder à OpenAI le droit d’utiliser plus de 200 personnages issus de son immense catalogue cinématographique, en vue de nourrir son IA générative dédiée à la vidéo, Sora.

Le meilleur de Disney dispo dans Sora et ChatGPT

Le contrat prend la forme d’un accord de licence portant sur trois ans, selon les termes duquel Sora « pourra générer de courtes vidéos sociales à la demande des utilisateurs (…) en s’appuyant sur un ensemble de plus de 200 personnages animés, masqués et créatures de Disney, Marvel, Pixar et Star Wars, comprenant costumes, accessoires, véhicules et environnements emblématiques. »

Si les modèles Sora sont présentés comme les principaux bénéficiaires du contrat, celui-ci englobe également la création d’images au sein de ChatGPT, qui acceptera donc de traiter les prompts faisant allusion à des personnages de Disney.

Outre l’intégration aux modèles génératifs, Disney concède également à OpenAI l’autorisation de distribuer les contenus IA produits à partir de sa propriété intellectuelle. Une façon de garantir que les internautes utilisateurs de Sora auront bien le droit de diffuser les vidéos en question sur les réseaux sociaux.

L’accord n’intègre en revanche ni l’image, ni la voix des acteurs humains ayant pu incarner ou doubler les personnages en question, prennent bien soin de préciser les deux entreprises, qui affirment par ailleurs leur ambition de défendre aussi bien « la sécurité des utilisateurs » que « les droits des créateurs ».

Un accord à tiroirs ?

Pour quel montant Disney, poids lourd mondial du divertissement, a-t-il accepté de laisser OpenAI exploiter de la sorte ses personnages, et ce alors que Sora 2 n’est pas exempt de défauts quant à des usages détournés ? La dimension financière de cet accord de licence est dissimulée au sein d’un contrat à plus grande échelle, qui conduit Disney à devenir à la fois client et investisseur d’OpenAI.

« Dans le cadre de cet accord, Disney investira 1 milliard de dollars en actions dans OpenAI et recevra des bons de souscription lui permettant d’acquérir des actions supplémentaires », indiquent les deux entreprises.

Disney s’engage dans le même temps à exploiter les outils d’OpenAI, à la fois via API, dans le développement de ses propres services, dont le service de streaming Disney+, mais aussi en interne, avec un déploiement programmé de ChatGPT auprès de ses salariés.

« L’essor rapide de l’intelligence artificielle marque un tournant important pour notre secteur, et grâce à cette collaboration avec OpenAI, nous étendrons de manière réfléchie et responsable la portée de nos récits grâce à l’IA générative, tout en respectant et en protégeant les créateurs et leurs œuvres », résume Bob Iger, CEO de The Walt Disney Company, dans un communiqué.

Après la presse ou la musique, le cinéma

Cet accord d’une ampleur inédite souligne qu’après les grands quotidiens de la presse (en France, le Monde est partenaire d’OpenAI) ou les majors de la musique, les poids lourds du cinéma acceptent eux aussi de s’associer avec les acteurs de l’IA générative, plutôt que de devoir ferrailler en justice contre ces derniers. Jusqu’ici, Disney avait privilégié la voie du contentieux, comme en témoignent les poursuites engagées à l’encontre de MidJourney en juin dernier. En signant avec OpenAI, le groupe montre à l’ensemble du secteur qu’il est possible de trouver un terrain d’entente, ce qui suscitera sans doute d’autres accords entre studios hollywoodiens et acteurs de l’IA, même si tout le monde n’a pas le pouvoir de négociation d’un Disney.

OpenAI n’avait pas attendu de signer un contrat similaire pour utiliser le style des studios Ghibli.

  •  

On a testé 12 chargeurs USB à moins de 20 euros… et on s’est fait peur !

Chaud devant !
On a testé 12 chargeurs USB à moins de 20 euros… et on s’est fait peur !

Sur les marketplaces des plateformes comme AliExpress, Amazon et Cdiscount, on trouve pléthore de chargeurs USB à moins de 20 euros. Que valent-ils vraiment d’un point de vue technique ? Nous en avons testé plus d’une dizaine. Entre fausses promesses et vrais risques, vous ne regarderez plus jamais votre chargeur comme avant !

Charger son smartphone, sa tablette, son ordinateur ou n’importe quel produit avec un port USB est très facile : on branche, ça charge. Le côté « universel » de l’Universal Serial Bus (USB) tient bien sa promesse. Par contre, ça se complique rapidement quand on veut « des watts », c’est-à-dire de la charge rapide.

Nous avons acheté sur les marketplaces d’AliExpress, d’Amazon et de Cdiscount plus d’une vingtaine de chargeurs pour vérifier les promesses. Dans cette première partie, attaquons nos expérimentations avec les modèles les plus chers (entre 10 et 20 euros), dont le prix n’est pas forcément gage de qualité.

Demain, on se retrouvera pour la troisième et dernière partie avec de nouveau 12 chargeurs, mais à moins de 10 euros cette fois-ci.

En attendant, seule une petite poignée de chargeurs de cette première sélection s’en sortent correctement. Et par s’en sortir correctement, on entend éviter que le boîtier ne dépasse les 80 °C, et être capable de tenir la puissance de charge annoncée, rien de plus !

Notre protocole de test (version express)

Nous détaillerons plus longuement le protocole dans un prochain article, mais voici de premières informations sur nos outils et notre méthodologie. Pour vérifier les types de charges rapides supportées, nous utilisons le testeur PowerZ KM003C.

Pour tester la charge comme en condition réelle, on utilise la plateforme DL24P d’Atorch, qui peut absorber jusqu’à 180 watts (W). C’est moins que la puissance maximale du protocole Power Delivery (240 W), mais largement suffisant pour nos tests.

Nous avons toujours utilisé les deux mêmes câbles USB pour l’ensemble de nos tests : un certifié 240 W en Type-C vers Type-C (50 cm) et un autre de bonne facture avec un connecteur Type-A et un autre Type-C (1 m). Nous verrons dans un prochain dossier qu’un câble USB peut avoir des conséquences importantes.

Toutes les mesures sont réalisées au moins deux fois pour vérifier qu’il n’y a pas d’incohérence, sauf la montée en charge de 30 minutes pour le relevé de la température qui n’est fait qu’une seule fois. Nous avons validé le fonctionnement avec un chargeur de 140 W et une ancienne référence de chez Anker que nous avions au labo (qui tiennent leurs promesses, eux).

Commençons avec un chargeur Qoltec qui a obtenu de bons résultats. Ne vous habituez pas, cela va vite changer…

Qoltec 50132 30W : PD à 30 W confirmé et bonne tenue des tensions


Il reste 95% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ Guillaume Poupard rejoint Orange pour piloter la « confiance et souveraineté »

Ancien patron de l’ANSSI, Guillaume Poupard s’apprête à quitter la direction générale adjointe de Docaposte au profit d’un poste à la tête d’Orange, en tant que Chief Trust Officer, soit responsable de la « confiance et souveraineté » à compter du 1er février 2026. L’opérateur a annoncé jeudi après-midi ce recrutement d’une personnalité emblématique du secteur français de la cybersécurité, confirmant l’information sortie la veille par l’Informé.

Guillaume Poupard sera rattaché directement à Christel Heydemann, directrice générale du groupe, et aura pour mission « de définir et d’incarner la stratégie d’Orange en matière de souveraineté et de confiance », indique un communiqué. À ce titre, il contribuera « à accélérer le développement d’offres innovantes en cybersécurité (B2C et B2B), cloud et IA de confiance, en étroite collaboration avec Orange Business et Orange Cyberdéfense ».

Cet ingénieur général de l’armement et docteur en cryptologie a précédemment occupé la tête de l’Agence nationale de la sécurité des systèmes d’information (ANSSI), de 2014 à 2022, date à laquelle il a quitté ses fonctions pour rejoindre Docaposte, la branche des activités numériques du groupe La Poste. À l’ANSSI, Guillaume Poupard a été remplacé par Vincent Strubel, qui dirige toujours l’agence aujourd’hui.

Guillaume Poupard en 2022 lors des Assises de la sécurité – crédit SG pour Next
  •  

[Édito] Et si on arrêtait avec cette hypocrisie autour de l’IA ?

IA plus qu’à !
[Édito] Et si on arrêtait avec cette hypocrisie autour de l’IA ?

L’intelligence artificielle est un outil largement utilisé, qui inquiète autant qu’elle fascine. Elle provoque des échanges musclés entre internautes, qui ont parfois bien du mal à se comprendre. Une des causes : la sémantique. L’arrivée des grands modèles de langage et des chatbots a rebattu les cartes et exacerbé les tensions. Ceux qui l’utilisent y réfléchissent certainement à deux fois avant de le dire.

Il y a un peu plus d’un an, nous avions publié un édito sur l’intelligence artificielle, avec une question en trame de fond : est-elle intelligente ou artificielle ? Une chose est sûre, la réponse n’est pas binaire. C’est les deux à la fois et cela varie suivant les points de vue.

De l’algorithme aux intelligences artificielles puis aux IA génératives

La frontière entre algorithmes et IA est de plus en plus poreuse, tandis que la notion même d’intelligence artificielle est mouvante. Un rappel important : l’intelligence artificielle n’est pas nouvelle, loin de là puisqu’elle a plus de 75 ans. Citons, par exemple, l’article « L’ordinateur et l’intelligence » d’Alan Turing en 1950, dans lequel il est question du fameux test de Turing.

Le premier logiciel d’intelligence artificielle remonte à 1956 avec le Logic Theorist : « Il réalise tout seul des démonstrations de théorèmes mathématiques », expliquait le CEA. En 1957, le psychologue Frank Rosenblatt invente le premier logiciel d’apprentissage grâce à un neurone : le Perceptron. Il y a ensuite les « hivers de l’IA » dans les années 70/80 et 80/90. L’explosion de l’intelligence artificielle est arrivée avec la montée en puissance des ordinateurs et surtout des GPU particulièrement à l’aise avec ce genre de calculs.

Il y a déjà plus de quatre ans, soit avant l’arrivée des IA génératives, Alexei Grinbaum (physicien et philosophe) expliquait que le terme IA « désigne un comportement produit par une machine dont on peut raisonnablement estimer que, s’il avait été le fruit d’une action humaine, il aurait exigé de l’intelligence de la part de l’agent concerné […] L’apprentissage machine n’est qu’un outil d’IA parmi d’autres mais, en pratique, ces deux termes sont de plus en plus fréquemment synonymes ». Aujourd’hui tout se mélange sous une seule appellation : IA.

Ceux qui étaient généralement présentés comme des algorithmes ont donc été promus au rang d’intelligence artificielle. Pour distinguer les nouvelles IA – ou systèmes, un terme moins marketing mais plus adapté – « capables de créer des contenus (texte, code informatique, images, musique, audio, vidéos, etc.) », on parle d’intelligences artificielles génératives, rappelle la CNIL. Ces différences ne sont pas toujours comprises.

Cachez ces avantages que je ne saurais voir

Sur les réseaux sociaux et dans de nombreuses discussions, la question de son utilisation cristallise les échanges, peu importe le projet ou presque. Faut-il ou non l’utiliser ? Faut-il clouer au pilori les personnes qui le font ? Y a-t-il une bonne et une mauvaise catégorie d’intelligence artificielle ? Les débats sont nombreux, les peurs et les incompréhensions aussi, tout comme les avantages. Il ne faut pas les oublier. Ce n’est pas une généralité pour autant. Sur LinkedIn par exemple, les discussions autour de l’IA sont souvent différentes, plus apaisées et dans l’(auto)congratulation.

Régulièrement, ceux qui reconnaissent utiliser l’intelligence artificielle se font prendre à partie publiquement. D’autres l’utilisent sans le dire et passent à travers les mailles du filet de la polémique. On arrive dans une situation absurde où ceux qui cachent la vérité ou mentent – volontairement ou par omission – s’en sortent mieux que ceux qui l’indiquent.

L’intelligence artificielle permet des améliorations importantes dans de nombreux domaines, y compris la santé, l’automatisation de tâches fastidieuses ou répétitives afin de « consacrer davantage de temps à des tâches plus créatives ou plus centrées sur l’humain », des opérations de sauvetage (notamment en milieu hostile), la prédiction de défaillances techniques, la lutte contre le changement climatique, etc.

Pour la Commission européenne aussi, cela ne fait pas de doute : « Les technologies de l’IA apportent de nombreux avantages à la société et à l’économie ». Ils sont rarement mis en avant et, quand c’est le cas, ils finissent trop souvent ensevelis sous des montagnes de critiques. Quand ils ressortent dans la bouche de certains professionnels, c’est souvent pour finir lynchés dans les commentaires. Les exemples sont nombreux.


Il reste 82% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

Dans sa guerre contre l’inclusivité, Trump abandonne la police de caractères Calibri

Police de la police
Dans sa guerre contre l’inclusivité, Trump abandonne la police de caractères Calibri

L’administration Biden avait fait de Calibri la police de caractères officielle du gouvernement étatsunien pour des raisons de lisibilité et d’inclusivité. Opposé à toute mesure en ce sens, l’actuel secrétaire d’État, Marco Rubio, remet en place le Times New Roman.

Marco Rubio, le secrétaire d’État américain, a ordonné aux diplomates de son pays de ne plus utiliser la police de caractère Calibri et de repasser au Times New Roman.

Selon le New York Times, le mémo envoyé par le responsable des Affaires étrangères du pays indique : « Retour à la tradition : police Times New Roman 14 points obligatoire pour tous les documents du département ».

Annulation d’une décision de l’administration Biden pour plus d’inclusivité

Il annule, de fait, une décision prise sous Joe Biden qui avait changé la police de caractère officiellement utilisée par la diplomatie étatsunienne en 2023 pour Calibri, une police sans empattement (serif en anglais).

Créée par Microsoft en 2004, elle avait été jugée plus accessible pour les lecteurs en situation de handicap, notamment les personnes malvoyantes ou dyslexiques, par l’administration fédérale précédente. Comme l’écrivait TechCrunch à l’époque, Microsoft avait pris cette décision de remplacer le Times New Roman par Calibri dès 2007 pour sa police par défaut.

Marco Rubio a affirmé, selon le New York Times, que ce changement « ne figurait pas parmi les cas les plus illégaux, immoraux, radicaux ou inutiles » des politiques de diversité, équité, inclusion et accessibilité de son pays. Mais, selon lui, ce changement de police de caractères était un échec car les « cas de correction de documents pour des raisons d’accessibilité » n’ont pas diminué. Et il estime que « le passage à Calibri n’a rien apporté d’autre que la dégradation de la correspondance officielle du département ».

Dans un article sur l’accessibilité des polices de caractères publié sur Medium en 2020, Gareth Ford Williams, alors responsable de l’expérience utilisateur et de l’accessibilité à la BBC, expliquait : « Pour les enfants ou les adultes qui apprennent à lire ou qui ont des difficultés en lecture, les formes moins complexes des polices sans empattement peuvent faciliter la reconnaissance des caractères. Les polices avec empattement offrent une lisibilité plus fluide aux lecteurs avancés grâce à la forme plus claire des lettres ».

Tradition, formalité et cérémonial

Pour le retour au Times New Roman, le secrétaire d’État met en avant une perception des polices avec empattement « comme évoquant la tradition, la formalité et le cérémonial ».

Cette modification dans les usages officiels de l’administration états-unienne marque symboliquement un nouveau coup contre les politiques de diversité, d’équité et d’inclusion mises en place auparavant aux États-Unis. Dès février dernier, l’administration Trump interdisait à plusieurs agences d’utiliser certains mots comme « racisme », « biais », « genre » ou « sexualité ». Elle a ensuite imposé aux entreprises qui travaillent avec elle, comme SAP, d’abandonner ce genre de politiques. Récemment, la fondation Python a refusé une subvention de 1,5 million de dollars car les conditions assorties mentionnaient l’interdiction de toute politique DEI.

  •  

☕️ Linux : l’environnement Cinnamon 6.6 disponible avec son nouveau menu principal

L’équipe de Linux Mint a publié la version 6.6 finale de l’environnement Cinnamon, qui équipe par défaut la distribution populaire.

Le plus gros changement, qui avait été « teasé » par l’équipe au début du printemps, est un menu principal repensé. Il permet la configuration des emplacements et favoris, la bascule entre des icônes symboliques ou complètes (colorées) et embarque de nombreux changements visuels. Par exemple, le panneau latéral est plus large, les dossiers les plus courants y sont épinglés, les boutons d’alimentation (arrêt, déconnexion, verrouillage) sont placés en bas à gauche, etc.

Cinnamon 6.6 présente d’autres nouveautés. Par exemple, une simplification de la gestion des claviers physiques et virtuels avec un bouton pour changer rapidement de disposition, une meilleure visibilité des suggestions ou encore un effet de fondu quand le clavier virtuel apparait ou disparait.

Signalons aussi du neuf dans les Paramètres, avec notamment le nouveau panneau pour les informations système, l’arrivée du Thunderbolt ou encore la possibilité de définir manuellement les plages horaires pour les thèmes clairs et sombres. L’applet NetworkManager peut afficher plusieurs connexions VPN actives, Workspace Switcher peut ajouter des icônes aux fenêtres, Imprimante n’apparait que lors d’une impression, une jauge apparait quand on change le volume sonore, Alt+Tab n’affiche que les fenêtres présentes sur l’écran utilisé, les animations sont plus fluides, etc.

Cinnamon 6.6 sera l’environnement par défaut de la future version 22.3 de Linux Mint, nommée Zena. Elle doit arriver à la fin du mois ou début janvier. Pour les autres systèmes avec Cinnamon, la mise à jour de l’environnement dépendra de la philosophie de la distribution utilisée. Beaucoup ne changent pas de version majeure ou même intermédiaire avant la révision suivante. À noter que la version 6.6 est prête aussi bien pour l’édition standard de Linux Mint que pour LMDE, l’édition basée sur Debian.

  •  

Vibe coding : avec Devstral 2, Mistral vise la couronne de la rentabilité

« Pas le top, mais pas cher »
Vibe coding : avec Devstral 2, Mistral vise la couronne de la rentabilité

Mistral part plus frontalement à l’assaut de Claude Code et autre ChatGPT Codex. La startup française a lancé ce 9 décembre deux modèles dédiés au développement, dont une version légère fonctionnant sur du matériel grand public.

Mistral a lancé en juin dernier son outil Code, dédié au vibe coding. La semaine dernière, elle présentait ses modèles Mistral 3, déclinés en de nombreuses variantes.

La licorne veut doubler la mise avec sa nouvelle génération Devstral 2 dédiée aux développeurs, plus particulièrement au fonctionnement autonome agentique. Elle lance également un outil en ligne de commande, Vibe CLI, pour faciliter l’automatisation du code par le langage naturel.

Mistral joue la rentabilité

La nouvelle famille Devstral 2 se compose de deux modèles, un grand et un petit, ouverts et sous licence libre (une version modifiée de la licence MIT pour le grand, Apache 2.0 pour le petit). Le grand, avec ses 123 milliards de paramètres, est mis en avant. Mistral annonce un score de 72,2 % sur le test SWE-bench Verified, ce qui le classe parmi les meilleurs modèles, devant Claude 4.5 Sonnet (70,60 %) et derrière Claude 4.5 Opus (74,40 %) et Gemini 3 Pro (74,20 %). Sur le site du test, les scores des modèles Devstral 2 ne sont pas encore présents.

Mistral braque surtout les projecteurs sur la rentabilité de son modèle. Elle le présente comme « jusqu’à 7 fois plus rentable que Claude Sonnet pour des tâches réelles ». En outre, le modèle est actuellement gratuit via l’API Mistral. Après cette période de grâce, la tarification sera de 0,40 dollar par million de jetons en entrée et de 2 dollars en sortie. C’est d’ailleurs de là que vient la comparaison avec Sonnet, puisque la tarification de ce dernier est respectivement de 3 et 15 dollars.

Devstral 2 peut fonctionner localement, mais Mistral recommande quand même la présence d’au moins quatre puces H100 pour son déploiement. Sa fenêtre de contexte est de 256 000 jetons. « Devstral 2 permet d’explorer les bases de code et d’orchestrer les modifications sur plusieurs fichiers tout en maintenant un contexte au niveau de l’architecture. Il suit les dépendances du framework, détecte les défaillances et réessaie avec des corrections – résolvant des défis comme la correction de bugs et la modernisation des systèmes hérités. Le modèle peut être affiné pour prioriser des langages spécifiques ou optimiser pour de grandes bases de code d’entreprise », indique Mistral dans son communiqué.

Crédits : Mistral

Petit pimousse

Cependant, c’est bien Devstral 2 Small qui a attiré le plus l’attention. Il dispose de 24 milliards de paramètres et affiche, selon Mistral, un score de 68 % sur SWE-bench Verified. Lui aussi est pour l’instant disponible gratuitement via l’API. Après quoi, la tarification sera de 0,10 dollar par million de jetons en entrée et 0,30 dollar en sortie. Là aussi, la fenêtre de contexte est de 256 000 jetons. La communication de Mistral sur ce petit modèle est claire : il n’égale pas les gros modèles, mais il est 28 fois plus petit que DeepSeek 3.2.

Devstral 2 Small a attiré rapidement les commentaires, et pour cause : son installation locale peut se faire sur du matériel accessible au grand public. Une recherche « devstral » sur X montre rapidement un grand nombre de publications louant les résultats obtenus pour un modèle local. Dogac, par exemple, a testé les modèles dans un benchmark personnalisé et retrouve globalement les résultats donnés par Mistral. D’autres, comme N8Programs et Thadée Tyl, louent ses performances. Ce dernier affirme que Devstral 2 devient le meilleur modèle pour le développement sous la barre des 150 milliards de paramètres, et que Devstral 2 Small fait presque jeu égal avec Magistral 1.2 sans posséder de capacités de raisonnement.

Dans l’ensemble, les résultats obtenus par les deux modèles vont dans le sens de ce que nous déclarait récemment Horacio Gonzalez (Clever Cloud). Pour le responsable, on pouvait être optimiste sur les modèles locaux et open source, car leur progression est tout aussi rapide – même avec un décalage – que les modèles fermés en ligne. Une progression suffisante pour ne pas avoir à craindre une trop grande dépendance limitée à quelques gros acteurs du domaine.

Mistral Vibe CLI

Mistral a profité de son annonce pour lancer un nouvel outil, nommé Vibe CLI, également sous licence Apache. Il s’utilise en ligne de commande, similaire à des produits concurrents comme Claude Code et OpenAI Codex. Vibe CLI sert à interagir avec les modèles Mistral dans un terminal, avec des capacités d’analyse de structure de fichiers, de modifications sur plusieurs fichiers, de commandes shell, de recherche de code ou encore de contrôle de version.

Mistral insiste en particulier sur la prise en charge d’un « contexte conscient » du projet. La structure des fichiers et le statut Git sont ainsi analysés automatiquement. L’entreprise assure que le raisonnement se fait sur l’ensemble des fichiers et pas uniquement celui en cours d’édition. L’historique est décrit comme persistant, avec autocomplétion et thèmes personnalisables.

Crédits : @cedric_chee

« Vous pouvez exécuter Vibe CLI de manière programmatique pour le scripting, désactiver l’auto-approbation pour l’exécution de l’outil, configurer des modèles locaux et des fournisseurs via un simple config.toml, et contrôler les permissions des outils pour correspondre à votre flux de travail », indique Mistral, confirmant que son outil fonctionne avec des installations locales de ses modèles.

Sur le fonctionnement en ligne, certains notent des latences, conséquence probablement du lancement frais. D’autres ont testé Mistral Vibe en local avec le modèle Devstral 2 Small, comme N8Programs sur un Mac équipé d’une puce M3 Max. Le nombre de cœurs n’est pas précisé, mais la puce en contient au moins 14 sur la partie CPU et 30 sur la partie GPU. On trouve également des avis plus nuancés, notamment sur les performances de Devstral 2, avec des bons et mauvais points.

  •  

☕️ Deloitte de nouveau accusé d’avoir rendu un rapport en partie généré par IA

Fin novembre, au Canada, le gouvernement de Terre-Neuve-et-Labrador a dû demander à Deloitte de reprendre son travail après y avoir trouvé des citations erronées.

Pour 1,6 million de dollars canadiens (près d’1 million d’euros), d’après le média The Independent, la société de consultants avait rendu un rapport de 526 pages proposant un plan de dotation pour le secteur de la santé de la province canadienne.

Dans au moins deux cas, les noms de chercheurs réels ont été mentionnés alors que ces derniers n’étaient pas les auteurs des articles fictifs cités. 
Parmi eux, Martha McLeod, professeure émérite à l’Université du nord de la Colombie-Britannique, a déclaré ses citations « fausses » et « potentiellement générées par IA ».

Le but du rapport incluant lesdites citations est de proposer une série de mesures relatives aux soins à distance, aux incitations financières, de rétention et au recrutement de personnel de santé, ou encore aux répercussions de la pandémie de Covid-19 sur le personnel de santé.

Deloitte a reconnu la présence de citations erronées, tout en indiquant que l’intelligence artificielle n’avait « pas été utilisée pour la rédaction du rapport », mais simplement utilisée « de manière sélective pour étayer certaines citations de recherche ». 


Moins de deux mois avant cette affaire, Deloitte reconnaissait avoir rendu un rapport partiellement généré par IA au gouvernement australien et s’engageait à rembourser une partie des 439 000 dollars australiens (245 500 euros) déboursés pour obtenir cet audit du système informatique dédié à automatiser les sanctions dans le système social local.

  •  

☕️ En France, 80 % des abonnements sur le fixe passent par la fibre

Chaque trimestre, le régulateur des télécoms publie son observatoire du marché des services fixes à haut et très haut débit : « Fin septembre 2025, la France compte 26,3 millions d’abonnements à la fibre optique, soit 80 % du nombre total d’abonnements internet à usage fixe », soit 610 000 de plus en trois mois.

Le déploiement de la fibre aussi va bon train puisqu’elle couvre désormais 93,5 % des locaux. 430 000 locaux supplémentaires ont été rendus raccordables à la fibre, un chiffre en baisse trimestre après trimestre (le pic était fin 2020). Une chute logique : seules les lignes difficiles/coûteuses restent à raccorder, soit environ 3 millions.

Voici le détail :

  • 220 000 dans les RIP (Réseaux d’Initiative Publique), reste 1 410 000,
  • 30 000 dans les AMEL (appels à manifestation d’engagements locaux), reste 75 000,
  • 20 000 dans les zones très denses, reste 470 000.

Comme toujours, tous les détails se trouvent sur le site de l’Arcep. Vous pouvez également consulter une carte des déploiements fibre sur Ma connexion Internet.

  •  

Le dossier médical partagé obligatoire pour les soignants sous peine de sanctions

Errance et traçabilité
Le dossier médical partagé obligatoire pour les soignants sous peine de sanctions

L’Assemblée nationale a validé le 9 décembre le projet de loi de financement de la Sécurité sociale (PLFSS) pour 2026. Parmi les nombreuses mesures qu’il contient, une très forte incitation à l’utilisation du dossier médical partagé (Mon Espace Santé) par les professionnels, sous peine d’amende.

Tard dans la soirée du 9 décembre, les députés ont validé le PLFSS 2026. Il s’en est fallu de peu. Le Premier ministre, Sébastien Lecornu, a salué une « majorité de compromis et de responsabilité ». La version votée est très différente de la copie initiale du 14 octobre, comme l’a résumé Caducée.net.

La partie du texte consacrée à Mon Espace Santé n’a cependant que peu changé. Le texte met l’accent sur une intensification de l’usage, mais pas par les usagers. Devant des chiffres en croissance constante, ce sont cette fois les professionnels qui sont pointés du doigt.

Un dossier médical partagé, pour quoi faire ?

L’idée centrale derrière un dossier médical en ligne est son partage entre les différents professionnels de santé, dans l’objectif de réduire drastiquement « l’errance médicale » (ou nomadisme médical). Cette dernière se manifeste quand le manque de communication entre médecins et autres praticiens entraîne la multiplication d’examens déjà réalisés, avec à la clé une hausse importante de la facture pour l’Assurance maladie (et les mutuelles).


Il reste 82% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

Qualcomm se renforce dans RISC-V avec Ventana, Intel dans l’IA avec SambaNova

C’est la samba des dollars
Qualcomm se renforce dans RISC-V avec Ventana, Intel dans l’IA avec SambaNova

En l’espace de quelques jours, deux rachats par des géants des puces ont été annoncés. Le premier concerne Qualcomm qui se renforce dans l’architecture ouverte RISC-V avec le rachat de Ventana. Le deuxième avec Intel qui aurait signé un accord (non engageant) avec SambaNova, une start-up à la mode dans le monde de l’IA.

Qualcomm veut renforcer ses cœurs Oryon avec RISC-V

Dans le but d’approfondir son expertise dans les processeurs RISC-V, Qualcomm vient d’annoncer le rachat de Ventana Micro Systems. « L’équipe de Ventana viendra compléter le développement en cours de Qualcomm sur RISC-V et ses CPU Oryon », explique l’entreprise dans un communiqué. Oryon est pour rappel le nom de ses cœurs CPU, aussi bien pour les smartphones que les ordinateurs portables Arm.

Ventana a été fondée en 2018 et fait partie du comité de pilotage technique de RISC-V. Elle a lancé son premier processeur en 2023 : Veyron. Il est gravé avec une technologie 5 nm, dispose de 16 cœurs et fonctionne jusqu’à 3,6 GHz. Veyron 2 est prévu pour début 2026 avec jusqu’à 32 cœurs, puis ce sera au tour de Veyron 3.

Qualcomm a pour rappel lancé en 2023 une alliance autour de RISC-V avec quatre autres géants : Robert Bosch GmbH, Infineon Technologies AG, Nordic Semiconductor et NXP Semiconductors. Le but est de développer une alternative libre et ouverte à Arm, avec qui Qualcomm a de nombreux différends.

Pour rappel, l’architecture RISC-V propose un jeu d’instructions ouvert et libre, de 32 à 128 bits. Chacun peut y ajouter ses propres instructions et elle peut prendre en charge un très grand nombre de cœurs, ce qui est particulièrement utile dans un monde où l’IA règne en maitre ou presque.

Un accord entre Intel et SambaNova ?

Dans le même temps, Intel aurait trouvé un accord avec SambaNova pour la racheter, c’est du moins ce qu’affirment des sources à Wired. « Le détail des conditions n’est pas connu. L’accord n’est pas contraignant, ce qui signifie qu’il n’est pas encore finalisé et pourrait être dissout sans pénalité », expliquent nos confrères.

Nous parlions de SambaNova récemment, à l’occasion de l’OVH Summit, qui faisait la part belle à l’intelligence artificielle et à l’inférence. C’était en effet une des principales annonces de l’hébergeur : la mise à « disposition de nouvelles infrastructures IA avec SambaNova ».

L’hébergeur « déploiera de nouveaux accélérateurs dédiés à l’inférence à grande échelle (RDU), avec des offres de très grande capacité de calcul en utilisation « low latency » et « batch », permettant des cas d’usage demandant de la performance pour la parallélisation de threads à l’échelle ».

Liaison dangereuse de Lip-Bu Tan, le CEO d’Intel

En 2021, SambaNova avait levé 676 millions de dollars via SoftBank, Temasek et GIC. « Ils viennent rejoindre les investisseurs existants BlackRock, Intel Capital, Google Ventures, Walden International et WRVI. Au total, la start-up a levé 1 Md$ pour une valorisation estimée à 5 Md$ », expliquait Le Monde Informatique.

SambaNoba et Intel se connaissent très bien par l’intermédiaire de… Lip-Bu Tan. Il est à la fois le CEO d’Intel et le président (chairman) de SambaNova. Aucune des parties prenantes n’a souhaité répondre à nos confrères.

Reuters rappelle qu’une histoire similaire s’est déjà déroulée l’été dernier, avec la start-up Rivos dont Lip-Bu Tan est aussi président. Lip-Bu Tan avait proposé à Intel de racheter Rivos, « mais il n’avait pas eu de chance. Le conseil a déclaré à Tan qu’il avait un conflit en représentant à la fois les intérêts de Rivos et ceux d’Intel, et qu’il manquait d’une stratégie en matière d’intelligence artificielle pour justifier un accord », ont affirmé des sources à nos confrères.

C’est finalement Meta qui aurait remporté la mise, faisant grimper les enchères. Reuters n’a pas pu calculer le montant que le CEO d’Intel a personnellement gagné en tant qu’actionnaire de Rivos. Néanmoins, toujours selon nos confrères, la société de capital-risque de Lip-Bu Tan (Walden Catalyst) parle d’un « remarquable succès ».

Ce n’est pas la première fois que les multiples casquettes de Lip-Bu Tan font parler. En août, Donald Trump avait carrément appelé à la démission le nouveau CEO d’Intel suite à une lettre du sénateur républicain de l’Arkansas Tom Cotton. Il y posait « des questions sur les liens du nouveau CEO Lip-Bu Tan avec des entreprises chinoises et une récente affaire pénale impliquant son ancienne société Cadence Design ».

Quelques jours plus tard, le même président des États-Unis vantait l‘« histoire incroyable » du CEO d’Intel et ne parlait plus de démission. Pour nos confrères américains, « le CEO d’Intel avait réussi à courtiser le président Trump ».

  •  

Voitures, datacenters : RTE appelle à accélérer l’électrification des usages

Electric feel
Voitures, datacenters : RTE appelle à accélérer l’électrification des usages

Dans son bilan prévisionnel annuel, RTE se fait l’avocat de l’accélération de l’électrification des usages pour assurer un meilleur équilibre entre consommation et production d’électricité.

Il faut accélérer l’électrification de la société française. C’est le constat principal que dresse RTE, le réseau public de transport d’électricité, dans son bilan prévisionnel 2025 – 2035.

Parmi ses missions, le gestionnaire doit anticiper l’équilibre entre l’offre et la demande d’électricité. Dans cet exercice annuel, RTE s’était penché en 2023 sur les stratégies permettant d’atteindre la neutralité carbone en 2050, scénarios qui permettraient d’obtenir des « bénéfices stratégiques et climatiques considérables », à commencer par une moindre dépendance aux sources d’énergie fossile et la réduction des pollutions associées à leur usage.

En cette fin 2025, RTE constate que la consommation électrique est « demeurée atone » depuis la pandémie de Covid-19 (elle reste inférieure de 6 % à son niveau de 2019), quand la production d’énergies renouvelables (hydraulique comprise) et nucléaire ont progressé. Le gestionnaire actualise donc ses prévisions, tout en détaillant les enjeux posés par l’actuelle surcapacité électrique de la France.

Si cette dernière n’est pas neuve – « dès la seconde partie des années 1980, la production d’électricité française est devenue structurellement excédentaire par rapport à la consommation » –, l’épisode de surcapacité actuel pourrait devenir préoccupant, notamment pour le poids qu’il créerait sur les dépenses publiques. Étudiant divers scénarios de décarbonation, RTE plaide pour une accélération de l’électrification des usages et pour la concrétisation de la majorité des projets industriels prévus, notamment dans l’industrie des centres de données.

Promotion de la décarbonation rapide

La stratégie de décarbonation de la France est autant un enjeu climatique que géostratégique, rappelle le document. À l’heure actuelle, l’import d’énergies fossiles (pétrole, gaz et charbon) constitue toujours près de 60 % de l’énergie finale consommée en France. Elles pèsent pour 50 à 70 milliards d’euros dans les factures nationales annuelles. Du côté de l’électricité, la France a battu son record historique d’exportations avec 89 TWh en 2024.

Pour répondre à ces enjeux, RTE a développé ses capacités de production électrique en rétablissant les capacités nucléaires à la suite de la pandémie, mais aussi en accélérant celles de production d’énergies renouvelables. Et de souligner : vu l’état du réseau comme de la production, « les risques de conflits d’usage entre filières à électrifier sont écartés ». À court terme, le problème réside plutôt dans la relative stabilité de la consommation électrique.

RTE se penche donc sur deux scénarios : un de décarbonation rapide, qui conduirait à une augmentation toute aussi rapide de la consommation électrique, pour parvenir à 510 térawattheures (TWh) en 2030 et 580 TWh en 2035. Un autre, de « décarbonation lente », prévoit tout de même une augmentation de la consommation électrique, mais de 25 TWh seulement par rapport à la consommation actuelle, pour n’atteindre que 470 TWh en 2030 et 505 TWh en 2035. En 2024, la consommation française (corrigée des aléas météorologiques) était de 449 TWh, en hausse de 3 TWh (+ 0,7 %) sur un an.

En pratique, RTE appelle à la concrétisation, d’ici 2030, de 60 % des projets prévus en termes de production d’hydrogène, de développement de centres de données et d’autres projets industriels, ce qui permettrait d’augmenter leur consommation à 15 TWh par an pour le premier secteur, 15 TWh par an pour le deuxième (contre 5 TWh aujourd’hui) et 113 TWh par an pour les derniers.

Comme les deux derniers consomment de l’électricité mais ne réduisent pas pour autant les émissions de CO₂ (tandis que l’hydrogène produit électriquement remplacerait, lui, l’hydrogène produit par extraction chimique de combustibles fossiles), cette évolution ne peut se faire sans une évolution des usages d’énergie fossile, notamment du côté des transports. En la matière, RTE appelle à une augmentation de 17 TWh de la consommation électrique associée aux voitures électriques (contre 15 TWh en 2024), ce qui reviendrait à atteindre 8 millions de véhicules d’ici 2030 (contre 2 millions l’an dernier).

Un tel scénario permettrait de résorber la surcapacité tout en mettant la France sur la voie de ses objectifs de décarbonation. Autrement dit, répète le gestionnaire public au fil de son rapport, la situation actuelle est « très avantageuse pour décarboner rapidement ».

Les coûts de la décarbonation lente

Le gestionnaire constate néanmoins que « la consommation d’électricité n’est pas, pour le moment, alignée sur les objectifs de décarbonation et de réindustrialisation de la France ». Il l’explique de deux manières : par la sous-estimation des progrès effectivement réalisés, le seul passage à des éclairages LED ayant par exemple permis de réduire la consommation électrique de 10 TWh entre 2010 et 2020, et par les effets non anticipés des crises sanitaires et énergétiques, depuis lesquelles la consommation électrique stagne.

Or, « si la hausse de la consommation ne peut être considérée comme un but en soi », seule une « augmentation nette de la consommation d’électricité nationale » permettra la décarbonation du pays, insiste RTE. Dans un scénario de décarbonation lente (dans lequel seulement 15 % des projets liés à l’hydrogène, 10 % des projets industriels et 30 % des projets de datacenters seraient concrétisés), comme nous ne savons pas stocker massivement l’électricité excédentaire, il faudrait limiter la production.

Côté nucléaire, RTE esquisse la possibilité de réduire la production du parc nucléaire de l’ordre de 50 TWh, « pour absence de débouché économique ». L’export vers d’autres nations européennes ne représente qu’une faible possibilité, puisque nos voisins subissent des trop-pleins similaires, en particulier du côté des énergies solaires et éoliennes. En la matière, RTE préconise de limiter la production de renouvelable, en particulier en milieu de journée, dans les moments les plus ensoleillés. Elle prévoit pouvoir économiser 30 gigawatts (GW) de cette manière.

Le gestionnaire public alerte néanmoins sur le fait qu’une telle réduction aurait un coût. Elle entraînerait « une forte érosion des revenus des producteurs sur les marchés, de l’ordre de - 20 Md€/an », réduction qui serait « partiellement compensée par les dispositifs de soutien public », mais qui créerait donc une « hausse des charges budgétaires associées ».

Elle s’inquiète aussi des effets de logiques de « stop and go » sur les filières industrielles, susceptibles de « brider les efforts des filières renouvelables pour relocaliser une partie de leur industrie manufacturière en France et en Europe ». À moyen terme, une telle logique pourrait par ailleurs mettre en péril la possibilité de maintenir ou d’accélérer l’électrification en 2035.

  •  

Intel vs Europe : 20 ans de procédure, une amende divisée par 4

On s’était dit rdv dans (2x) 10 ans
Intel vs Europe : 20 ans de procédure, une amende divisée par 4

1,06 milliard d’euros en 2009, puis 376 millions en 2023 et maintenant 237 millions d’euros. Intel multiplie les pourvois depuis près de 20 ans. L’entreprise reste condamnée pour abus de position dominante, mais elle parvient à diviser son amende par 4,4. L’affaire n’est pas forcément encore terminée car un nouveau pourvoi est possible.

Vous connaissez la série à rallonge Santa Barbara ? En Europe, nous en avons une version maison avec la condamnation par Intel à une amende de la Commission européenne pour abus de position dominante. Entre 2009 et 2025, les allers-retours sont nombreux avec la Cour de justice de l’Union européenne.

2009 : amende de 1,06 milliard d’euros de la Commission

Marty, prépare la DeLorean, nous allons en avoir vraiment besoin. L’affaire du jour remonte aux années 2000 avec des plaintes de son concurrent AMD (2000, 2003 et 2006) contre Intel pour des faits qui se sont déroulés entre 2002 et 2007.


Il reste 87% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

Face aux moqueries, McDonald’s retire sa pub de Noël générée par IA

Santa Slop
Face aux moqueries, McDonald’s retire sa pub de Noël générée par IA

McDonald’s Pays-Bas a récemment diffusé une publicité de Noël aux séquences générées par IA. La vidéo a rapidement suscité des sarcasmes sur les réseaux sociaux, conduisant à son retrait. Les justifications de l’agence en charge de la création n’ont pas arrangé la situation, illustrant les tensions que l’IA générative pourrait faire peser un jour sur l’industrie de la publicité.

Baptisée It’s the Most Terrible Time of The Year, la vidéo de Noël de McDonald’s Pays-Bas, se voulait l’incarnation du nouveau champ des possibles ouverts par l’IA. Produite par l’agence hollandaise TBWA/Neboko, la mise en ligne de cette campagne s’est en effet accompagnée d’une communication visant à souligner le caractère novateur de cette création publicitaire, fruit d’une collaboration « avec un réseau international de partenaires spécialisés en IA ».

De l’IA assumée, mais un peu trop visible

Le concept ? Une référence inversée à la célèbre chanson d’Andy Williams, pour souligner la façon dont les festivités de fin d’année peuvent se changer en autant de déconvenues, entre chutes sur un trottoir verglacé, cookies brûlés, guirlandes aux courts-circuits explosifs et paquets-cadeaux renversés… alors qu’il suffit bien sûr de passer les portes d’un restaurant McDonald’s pour être touché par la douce féérie de Noël.

Si votre jambe présente un tel angle, oubliez le réveillon de Noël, vous avez des soucis plus urgents – capture d’écran

Bref, le message est relativement classique, et la pub en question aurait sans doute fait l’objet d’une diffusion sans histoire si quelques détails n’étaient pas venus souligner de façon un peu trop flagrante le recours à des modèles d’IA générative, entre visages dignes de mannequins de cire, bras qui semble se désintégrer, ou chat qui saute selon une drôle de ligne droite avant de percuter puis de faire s’effondrer un sapin…

Le rythme haché, avec des scènes qui ne durent pas plus de trois ou quatre secondes, constituait si nécessaire un indice supplémentaire : les modèles spécialisés dans la vidéo peinent en effet à maintenir plus longtemps la cohérence visuelle sans artefacts visibles. Ici, il n’y avait cependant pas vraiment besoin de jouer les Sherlock, puisque le recours à l’IA a été publiquement assumé par l’agence en charge de la création.

De l’IA, oui, mais beaucoup de travail

L’annonce de la vidéo, puis son relais par des comptes spécialisés dans le suivi des campagnes de création publicitaire, a rapidement suscité quelques critiques sur les réseaux sociaux, avec des messages s’étonnant par exemple de la « créativité » revendiquée par l’agence. La vidéo initialement publiée sur YouTube a quant à elle reçu un ratio J’aime / Je n’aime pas très largement défavorable, ainsi que des commentaires peu amènes établissant des parallèles entre cette pub et les qualités gustatives des sandwichs de l’enseigne. Résultat des courses, la vidéo en question a été rapidement dépubliée, même s’il en subsiste de nombreux miroirs.

McDonald's has released an AI-generated Christmas ad

The studio behind it says they 'hardly slept' for several weeks while writing AI prompts and refining the shots — 'AI didn't make this film. We did'

Comments have been turned off on YouTube pic.twitter.com/Es5ROvI7n2

— Culture Crave 🍿 (@CultureCrave) December 8, 2025

L’affaire aurait sans doute pu en rester là si les prestataires en charge de la réalisation n’avaient pas vigoureusement défendu leur travail. Le studio The Sweetshop, responsable de la production via sa branche spécialisée dans l’IA, The Gardening.club, s’est d’abord exprimé dans un message, supprimé depuis, dont la teneur véhémente, reproduite par d’autres médias spécialisés, a certainement contribué à la formation d’un effet Streisand.

« Pendant sept semaines, nous n’avons quasiment pas dormi, avec jusqu’à dix de nos spécialistes internes en IA et post-production chez The Gardening Club travaillant en étroite collaboration avec les réalisateurs », défend le studio, avant de décrire un long processus de production, puis de post-production, avec des « retouches à l’échelle du pixel », des « milliers d’itérations », la correction d’effets physiques, la suppression d’artefacts, etc. Et de conclure, avec un joli sens de la formule :

« Je ne vois pas ce spot comme une simple curiosité ou une expérience saisonnière amusante. Pour moi, c’est la preuve de quelque chose de bien plus important : lorsque le savoir-faire et la technologie se conjuguent à une intention précise, ils peuvent créer une œuvre d’une véritable dimension cinématographique. Alors non, ce n’est pas l’IA qui a fait ce film. C’est nous. »

« L’avenir est là, et il ne s’annonce pas bien », réagit de façon ironique un utilisateur d’Instagram. Quoi que l’on pense de ce spot aux couleurs de McDonald’s, la position du studio souligne en effet un état de fait : l’IA générative s’est officiellement frayé un chemin dans le processus de production des agences de publicité, qui revendiquent d’ailleurs des moyens humains significatifs.

De l’IA et beaucoup de travail, mais des coûts en baisse

Ainsi, Coca-Cola aurait, via agences, fait plancher 100 personnes autour de l’assemblage de 70 000 segments vidéo pour parvenir à la réalisation de son propre spot de Noël « full IA », vilipendé par la presse comme par les internautes. « La publicité la plus fructueuse de l’histoire de Pepsi », ironise l’un d’entre eux sur YouTube, liké plus de 20 000 fois.

Interrogé début novembre, lors de la publication de cette vidéo, Coca-Cola a refusé de révéler quel budget avait été consacré à la production de cette campagne, dont la diffusion était prévue dans 140 pays. Son directeur marketing a cependant admis que la production avait été à la fois plus rapide et plus économique que si le spot avait été réalisé sans recours à l’IA.

Quels seront les effets sur les métiers de la création publicitaire ? « Il est raisonnable de conclure que la créativité IA est désormais la norme et non plus l’exception, laissait déjà entendre cet été le cabinet d’analyse Forrester. « Une agence a accéléré sa mise sur le marché de 80 % ou plus par rapport à ses projets sans IA. D’autres agences ont réduit leurs coûts de production de 40 à 50 %. Et les marques internationales qui intègrent l’IA à l’ensemble de leur stratégie marketing ont vu leurs performances publicitaires augmenter jusqu’à 70 % ».

En attendant de voir si les publicitaires des Pays-Bas ont toujours les moyens de venir manger chez McDo, l’enseigne pourra régler avec son agence un autre litige potentiel. Sur LinkedIn, où la boîte de production a reproduit son message de défense dans une version édulcorée, un directeur artistique français souligne, lien à l’appui, que le concept même de la publicité est une reprise éhontée d’un spot de Noël élaboré en 2018 par Publicis pour Orange.

  •