Vue lecture

Mistral lance sa nouvelle famille Mistral 3 et vante ses petits modèles

Small si beautiful
Mistral lance sa nouvelle famille Mistral 3 et vante ses petits modèles

Après le lancement de nouvelles versions majeures chez pratiquement tous les acteurs de l’IA générative, Mistral dégaine sa famille de modèles ouverts Mistral 3. Bien que celle-ci comprenne un modèle multimodal, ce sont surtout les plus petits qui sont mis en avant.

L’entreprise française n’en démord pas : lancer des modèles géants n’est pas nécessairement ce qu’il y a de mieux pour les entreprises. Elle reste centrée sur sa stratégie de publication de modèles à poids ouvert, dans l’idée que le monde professionnel va s’en emparer, les personnaliser, les distiller ou les entrainer sur ses propres données.

Mistral veut régner sur les modèles ouverts

Dans l’annonce, on remarque tout de suite que les comparaisons se font uniquement avec d’autres modèles ouverts, comme DeepSeek (en version 3.1 ou 3.2 selon les cas, étrangement) ou Kimi-K2. Sans trop de surprises dans le cadre de ce type d’annonce, les modèles Mistral 3 arrivent premiers dans la plupart des benchmarks, toujours à prendre avec des pincettes.

L’entreprise donne quelques informations supplémentaires sur son grand modèle Large 3. Par exemple, qu’il a été entrainé depuis zéro sur une infrastructure comprenant 3 000 GPU H200 de NVIDIA. Il s’agit également du premier modèle de type MoE (mixture-of-experts) de Mistral. Dans une version proposée au format NVFP4 (construite avec llm-compressor), Mistral affirme que son modèle peut fonctionner « efficacement » sur un nœud comportant huit puces A100 ou H100.

Cette approche permet pour rappel de dispatcher les requêtes vers des réseaux plus spécialisés du type de calcul lors de l’évaluation. Le principal avantage est une réduction de la consommation, le modèle n’activant qu’une partie des neurones pour traiter la demande (41 milliards de paramètres actifs sur 675 milliards au total). C’est le modèle présenté comme idéal pour les opérations lourdes, comme le développement et la création de contenus.

Mistral Large 3 se classe actuellement deuxième sur LMArena dans la catégorie des modèles ouverts sans capacités de raisonnement. La société ajoute que le développement de la nouvelle famille s’est fait en partenariat avec NVIDIA, aboutissant notamment à une « inférence efficace » pour TensorRT-LLM et SGLang.

La « petite » famille

Bien que Mistral aborde ses nouveautés du jour avec le modèle Large, ce sont surtout les petits modèles que la société met en avant. La série Ministral 3 comprend ainsi des variantes à 3, 8 et 14 milliards de paramètres, conçues pour l’informatique en périphérie (edge) et le fonctionnement local, toujours sous licence Apache 2.0. Tous ces modèles ont également des variantes de raisonnement, la version 14B atteignant par exemple 85 % sur le test AIME 25. Cette version, la plus volumineuse des trois, peut fonctionner sur une machine embarquant 24 Go de mémoire et un seul GPU.

Mistral semble particulièrement fière de ses petits modèles, assurant qu’ils offrent « le meilleur rapport coût/performance de tous les modèles open source » actuellement. Les versions classiques (sans raisonnement) sont au niveau ou dépassent les modèles concurrents, selon l’entreprise, tout en consommant « souvent » moins de jetons.

En tout, cette famille comprend trois modèles, les trois tailles étant disponibles dans des variantes Base (modèles de fondation pré-entrainés), Instruct (conçus surtout pour les chatbots) et Reasoning. Tous prennent en charge la vision, sont multilingues et fonctionnent avec des fenêtres allant de 128 000 à 256 000 jetons.

Guillaume Lample, fondateur de Mistral, a mis en avant la vision de l’entreprise auprès de plusieurs médias, dont TechCrunch et le Financial Times : « Nos clients sont parfois contents de débuter avec un très grand modèle de langage qu’ils n’ont pas besoin de peaufiner. Mais quand ils le déploient, ils réalisent que c’est cher et lent. Ils viennent alors nous voir pour affiner de petits modèles, afin de gérer leurs cas d’usage. Dans la pratique, la grande majorité des cas d’usage d’entreprises sont des choses que les petits modèles peuvent résoudre, surtout si vous les affinez ».

Comme le rappellent d’ailleurs nos confrères, cette orientation marquée vers les petits modèles capables de fonctionner localement rapproche l’entreprise de « l’IA physique ». Elle travaille par exemple avec Stellantis sur un assistant IA embarqué, avec la société allemande de défense Helsing sur des modèles vision-langage-action pour des drones, ou encore très récemment avec la Home Team Science and Technology Agency (HTX) de Singapour sur des modèles spécialisés pour robots.

  •  

Mistral lance sa nouvelle famille Mistral 3 et vante ses petits modèles

Small si beautiful
Mistral lance sa nouvelle famille Mistral 3 et vante ses petits modèles

Après le lancement de nouvelles versions majeures chez pratiquement tous les acteurs de l’IA générative, Mistral dégaine sa famille de modèles ouverts Mistral 3. Bien que celle-ci comprenne un modèle multimodal, ce sont surtout les plus petits qui sont mis en avant.

L’entreprise française n’en démord pas : lancer des modèles géants n’est pas nécessairement ce qu’il y a de mieux pour les entreprises. Elle reste centrée sur sa stratégie de publication de modèles à poids ouvert, dans l’idée que le monde professionnel va s’en emparer, les personnaliser, les distiller ou les entrainer sur ses propres données.

Mistral veut régner sur les modèles ouverts

Dans l’annonce, on remarque tout de suite que les comparaisons se font uniquement avec d’autres modèles ouverts, comme DeepSeek (en version 3.1 ou 3.2 selon les cas, étrangement) ou Kimi-K2. Sans trop de surprises dans le cadre de ce type d’annonce, les modèles Mistral 3 arrivent premiers dans la plupart des benchmarks, toujours à prendre avec des pincettes.

L’entreprise donne quelques informations supplémentaires sur son grand modèle Large 3. Par exemple, qu’il a été entrainé depuis zéro sur une infrastructure comprenant 3 000 GPU H200 de NVIDIA. Il s’agit également du premier modèle de type MoE (mixture-of-experts) de Mistral. Dans une version proposée au format NVFP4 (construite avec llm-compressor), Mistral affirme que son modèle peut fonctionner « efficacement » sur un nœud comportant huit puces A100 ou H100.

Cette approche permet pour rappel de dispatcher les requêtes vers des réseaux plus spécialisés du type de calcul lors de l’évaluation. Le principal avantage est une réduction de la consommation, le modèle n’activant qu’une partie des neurones pour traiter la demande (41 milliards de paramètres actifs sur 675 milliards au total). C’est le modèle présenté comme idéal pour les opérations lourdes, comme le développement et la création de contenus.

Mistral Large 3 se classe actuellement deuxième sur LMArena dans la catégorie des modèles ouverts sans capacités de raisonnement. La société ajoute que le développement de la nouvelle famille s’est fait en partenariat avec NVIDIA, aboutissant notamment à une « inférence efficace » pour TensorRT-LLM et SGLang.

La « petite » famille

Bien que Mistral aborde ses nouveautés du jour avec le modèle Large, ce sont surtout les petits modèles que la société met en avant. La série Ministral 3 comprend ainsi des variantes à 3, 8 et 14 milliards de paramètres, conçues pour l’informatique en périphérie (edge) et le fonctionnement local, toujours sous licence Apache 2.0. Tous ces modèles ont également des variantes de raisonnement, la version 14B atteignant par exemple 85 % sur le test AIME 25. Cette version, la plus volumineuse des trois, peut fonctionner sur une machine embarquant 24 Go de mémoire et un seul GPU.

Mistral semble particulièrement fière de ses petits modèles, assurant qu’ils offrent « le meilleur rapport coût/performance de tous les modèles open source » actuellement. Les versions classiques (sans raisonnement) sont au niveau ou dépassent les modèles concurrents, selon l’entreprise, tout en consommant « souvent » moins de jetons.

En tout, cette famille comprend trois modèles, les trois tailles étant disponibles dans des variantes Base (modèles de fondation pré-entrainés), Instruct (conçus surtout pour les chatbots) et Reasoning. Tous prennent en charge la vision, sont multilingues et fonctionnent avec des fenêtres allant de 128 000 à 256 000 jetons.

Guillaume Lample, fondateur de Mistral, a mis en avant la vision de l’entreprise auprès de plusieurs médias, dont TechCrunch et le Financial Times : « Nos clients sont parfois contents de débuter avec un très grand modèle de langage qu’ils n’ont pas besoin de peaufiner. Mais quand ils le déploient, ils réalisent que c’est cher et lent. Ils viennent alors nous voir pour affiner de petits modèles, afin de gérer leurs cas d’usage. Dans la pratique, la grande majorité des cas d’usage d’entreprises sont des choses que les petits modèles peuvent résoudre, surtout si vous les affinez ».

Comme le rappellent d’ailleurs nos confrères, cette orientation marquée vers les petits modèles capables de fonctionner localement rapproche l’entreprise de « l’IA physique ». Elle travaille par exemple avec Stellantis sur un assistant IA embarqué, avec la société allemande de défense Helsing sur des modèles vision-langage-action pour des drones, ou encore très récemment avec la Home Team Science and Technology Agency (HTX) de Singapour sur des modèles spécialisés pour robots.

  •  

Noctua explique toutes ses dénominations, et ça ne fait pas de mal !

Le 23 octobre 2005, Noctua voyait le jour et lançait son tout premier radiateur CPU sur le marché : le NH-U12. Nous sommes désormais 20 ans plus tard et la firme s'est imposée comme étant une référence mondiale de l'aircooling, probablement même LA référence mondiale. Au fil de toute ces années, l'e...

  •  

Test Creative Aurvana Ace 3 : la somme de toute la gamme Aurvana !

On teste aujourd’hui les Ace 3 de la gamme Aurvana de chez Creative ! Ces écouteurs sans-fil ont l’air d’être sur le papier la somme des précédents Aurvana Ace 2 et Aurvana Ace Mimi que nous avions déjà tous deux testés par le passé. Les Ace reprennent le meilleur des deux mondes : toujours sur la base des drivers dynamiques de 10mm xMEMS, on a l’étendu des codecs audios supportés par le Ace 2, la prise en charge de la technologie de personnalisation du son du Ace Mimi et au passage, on upgrade la norme Bluetooth 5.3 vers le 5.4. Et ce cumul des deux mondes ne vient pas surcharger la facture : les Aurvana Ace 3 remplacent les Ace 2 et sont lancés au même prix de sortie de leurs ainés, à savoir 149€. À voir maintenant dans ce test si le rapport qualité-prix est à la hauteur !
  •  

Aujourd'hui, Belgique pour Sébatien et moi même, podcast et tournage

Ce jour, Sébastien et moi même sommes en Belgique, chez FlowUP, avec Mathis et Gauthier de French Hardware pour des tournages. Le premier tournage, que nosu avons fait ce matin, est un podcast qui sera à découvrir prochainement. Au programme, des discussions autour du hardware tout simplement, l'occasion d'en savoir plus sur eux et sur nous. Pour le second tournage, qui va avoir lui cette après-midi, nous vous proposerons le 4 ème épisode de Qui est le meilleur monteur PC en partenariat avec be quiet!. […]

Lire la suite
  •  

IIYAMA GB3290QSU le 32 pouces QHD 240 Hz qui vise l'essentiel

Le IIYAMA GB3290QSU est un moniteur de 32 pouces équipé d'une dalle IPS en définition QHD (2560 x 1440). Il offre un taux de rafraîchissement de 240 Hz, un temps de réponse de 1 ms (MPRT) et une luminosité maximale de 400 cd/m². Il affiche un contraste de 1000:1 et couvre 100 % du sRGB, 84 % de l'Adobe RGB et 93 % du DCI-P3. Côté connectique, il dispose de deux ports HDMI 2.1, d'un DisplayPort 1.4, de deux ports USB Type-A, de deux ports USB Type-C, d'une prise jack et d'une alimentation intégrée sans bloc externe. L'écran propose également un pied en métal avec finition plastique noire et un design modernisé. […]

Lire la suite
  •  

Pour les fêtes, Windows 11 Pro à 20 euros !!!

Le mois de décembre débute, c'est la dernière ligne droite avant les fêtes de fin d'année.Et donc, pourquoi pas un nouvel OS pour Noël ? En plus, vous le savez, Microsoft a officiellement mis fin au support de Windows 10. Il est donc plus que temps de passer à Windows 11. Bonne nouvelle : grâce à notre partenaire GVGMALL, pas besoin de vous ruiner pour obtenir une licence authentique, ni d'endurer le fameux message Windows non activé en bas de l'écran. Pourquoi ? Parce que GVGMALL.com propose des clés OEM authentiques à des tarifs ultra-avantageux : - Windows 11 dès 20 U+20AC - Licences Office dès 27 U+20AC Avec le code promo CCVIP, profitez en plus de -30 % de réduction sur vos achats. Et malin : pour économiser quelques euros supplémentaires, vous pouvez aussi acheter une licence Windows 10 puis faire l'upgrade gratuit vers Windows 11. Offres spéciales avec le code promo CCVIP Voici les meilleurs deals disponibles chez GVGMALL : - Windows 11 Pro OEM Lifetime - 20 U+20AC - Windows 10 Pro OEM Lifetime - 15 U+20AC - Windows 11 Home OEM Lifetime - 19 U+20AC - Windows 10 Home OEM Lifetime - 13 U+20AC - Microsoft Office 2016 Lifetime - 27 U+20AC - Microsoft Office 2019 Lifetime - 52 U+20AC - Windows 10 Enterprise LTSC 2021 - 11 U+20AC - Windows 10 Pro OEM + Office 2016 - 34 U+20AC - Windows 10 Pro OEM + Office 2019 - 52 U+20AC - Windows 11 Home + Office 2021 Pro Plus - 88 U+20AC - Windows 11 Pro OEM + Office 2021 Pro Plus - 87 U+20AC […]

Lire la suite
  •  

[Tribune] Digital omnibus : comment simplifier sans renoncer au modèle européen ?

Digital double decker bus
[Tribune] Digital omnibus : comment simplifier sans renoncer au modèle européen ?

Comment simplifier les textes européens sans renoncer aux spécificités du modèle européen ? Dans cette tribune, la CEO de RS Strategy et spécialiste des régulations européennes Rayna Stamboliyska détaille les enjeux du Digital Omnibus.

Cet article vous est proposé par une contributrice extérieure. Rayna Stamboliyska est CEO de RS Strategy et l’autrice de La face cachée d’internet (Larousse, 2017).


Le Digital Omnibus cristallise les tensions au cœur du projet numérique européen. Entre l’urgence de la compétitivité face aux géants américains et chinois, et la préservation d’un modèle européen fondé sur la protection des droits fondamentaux, l’Europe doit inventer une troisième voie.

La vraie question n’est pas tant « faut-il simplifier ? » que « comment simplifier sans renoncer à ce qui fait la spécificité et, même, la force du modèle européen ? ». Les prochains mois de débats parlementaires et au Conseil seront déterminants pour l’avenir de la gouvernance numérique européenne.

Le rapport Draghi : un électrochoc pour l’Europe

En septembre 2024, le rapport de Mario Draghi sur la compétitivité européenne a posé un diagnostic sans concession : l’Union européenne fait face à un « défi existentiel » en matière de compétitivité (y compris dans le domaine du numérique) et d’innovation. L’ancien président de la BCE identifie trois déficits critiques : l’innovation inachevée (l’Europe n’arrive pas à transformer ses innovations en succès commerciaux, contrairement aux États-Unis et à la Chine) ; un environnement réglementaire contraignant (le poids administratif freine particulièrement les start-ups européennes dans leur phase de phase de croissance et changement d’échelle) ; et la fragmentation du marché unique (les incohérences entre États membres multiplient les coûts de conformité).

Le rapport Draghi pointe spécifiquement le RGPD comme exemple de cette fragmentation, notant que les coûts de gestion des données sont plus élevés pour les entreprises européennes que pour leurs homologues américaines et que les exigences du RGPD empêchent le développement d’approches innovantes dans, par exemple, le secteur de la santé. Si le diagnostic sur la complexité est partagé, la solution proposée soulève des interrogations fondamentales sur l’équilibre entre la protection des droits et la compétitivité économique.

La Boussole de compétitivité de la Commission : une feuille de route ambitieuse

En réponse au rapport Draghi, la Commission s’est fixé l’objectif de réduire la charge administrative d’au moins 25 % pour toutes les entreprises et d’au moins 35 % pour les PME. Ces pourcentages sont devenus incantatoires, tant leur mention est fréquente, et ce, malgré l’absence d’éléments permettant de comprendre ce que cette réduction de 25 % traduit concrètement.

Cette ambition de compétitivité se traduit par une série de paquets de simplification, nommés « omnibus ». Le Digital Omnibus constitue la quatrième itération, spécifiquement dédiée au numérique.

Un Digital Omnibus pensé pour favoriser l’innovation sur les tâches administratives

Dans la législation européenne, un instrument “omnibus” désigne une initiative législative regroupant plusieurs modifications ou révisions de textes existants dans une seule et même proposition. Son objectif est de simplifier, harmoniser ou adapter le cadre réglementaire. Sur le plan juridique, il n’y a aucune différence de nature entre un règlement omnibus et un règlement de l’UE comme un autre (applicabilité directe, caractère obligatoire, etc.). Sur le plan pratique, un règlement “normal” crée ou refond un cadre donné, alors qu’un règlement “omnibus” est un paquet unique de retouches sur plusieurs textes, visant la simplification ou l’harmonisation plutôt que la création de règles entièrement nouvelles.

Le Digital Omnibus, présenté le 19 novembre 2025, propose des modifications de la législation numérique européenne touchant aux données, à la cybersécurité et à l’intelligence artificielle. L’initiative se compose de deux propositions législatives distinctes visant à modifier en parallèle plusieurs textes européens majeurs.

Objectif affiché : permettre aux entreprises européennes de consacrer moins de temps aux tâches administratives et davantage à l’innovation, tout en maintenant un niveau élevé de protection des citoyens. Parmi les principaux textes concernés, le règlement sur l’intelligence artificielle (AI Act), d’abord, auquel un texte entier est dédié. Ce dernier propose un nouveau mécanisme et de nouvelles dates butoirs pour l’application des obligations relatives aux systèmes d’IA à haut risque, une base légale pour le traitement de quantités limitées de données spécifiques pour des enjeux d’équité, de détection et de correction de biais, ou encore des simplifications étendues pour les PME et entreprises de tailles intermédiaires.

Le Digital Omnibus propose ensuite de modifier, entre autres, le RGPD (notamment en implémentant une définition opérationnelle des données à caractère personnel et non personnel, et en incluant la création et l’amélioration de systèmes d’IA dans les traitements de données sur la base de l’intérêt légitime) , la directive ePrivacy, le règlement sur la gouvernance des données DGA, le Data Act, la directive NIS2, la directive REC, le règlement sur la résilience opérationnelle du secteur financier (DORA) et le règlement eIDAS2 sur l’identité numérique. Sur les textes relatifs à la cybersécurité (NIS2, DORA, eIDAS2, REC) et le RGPD, l’Omnibus prévoit notamment la création d’un « point d’entrée unique » développé et maintenu par l’ENISA pour permettre aux entités de notifier les incidents de cybersécurité en une seule fois.

Enjeux de méthode et de légitimité de l’approche omnibus

Le processus a été critiqué – et continue de l’être – pour son absence d’évaluation d’impact et de collecte de preuves, abandonnant les principes de standards minimaux pour l’élaboration de la législation européenne. De plus, l’amplitude des propositions de « simplification » amenées par le Digital Omnibus manque de soutien politique préalable, les deux autres co-législateurs – le Conseil de l’UE et le Parlement européen – ayant déjà exprimé des réserves sérieuses.

Côté Conseil, les États membres ont explicitement demandé de ne pas rouvrir le RGPD. Dans leurs retours, les limites de l’exercice que l’instrument omnibus devrait porter sont explicites ; aucune de ces limites n’est respectée dans la proposition Digital Omnibus que la Commission a publiée. Pire encore, la position du Conseil contenait des recommandations à la fois adaptées à l’instrument omnibus et directement utiles aux organisations concernées : des modifications techniques, des compléments et des lignes directrices, ainsi que des recommandations d’outils pour faciliter la mise en œuvre ; aucune de ces recommandations n’a été incluse dans la proposition de la Commission.

De leur côté, les groupes S&D, Renew et Verts/ALE du Parlement européen ont appelé la Commission à mettre fin à ces modifications majeures. De leur côté, les groupes PPE et ECR se sont déjà exprimés en faveur. On s’attend donc à une fracture inédite majeure qui s’installe : la division du Parlement en deux grandes “familles”, à savoir la droite traditionnelle et les extrêmes droites d’un côté, et le centre, les socialistes et les écolos de l’autre. Cette fracture est déjà apparue lors du vote de l’Omnibus I sur l’environnement le 13 novembre dernier. Que le PPE soit soutenu par les groupes parlementaires d’extrême droite (ECR et Patriots for Europe) est une première ; si vous avez entendu parler du “cordon sanitaire” pulvérisé, c’est à cette alliance qu’il s’applique. L’anticipation (anxieuse) de beaucoup est que le Digital Omnibus soit soutenu par la même alliance, ce qui cimenterait une division profonde et lourde de conséquences.

Pour ne rien arranger à l’affaire, l’absence d’étude d’impact interroge. En effet, un règlement omnibus est soumis au même régime d’étude d’impact qu’un règlement “classique”. Ce n’est pas le fait qu’il s’agisse d’un “omnibus” qui compte, mais l’ampleur et la nature des effets attendus. De par la nature de l’instrument omnibus, l’étude d’impact est en général attendue politiquement (montrer les allègements de charges, les effets pour les entreprises, etc.) et peut être ciblée sur certains aspects (par exemple, la réduction des coûts de conformité) plutôt que de refaire de zéro l’analyse de toutes les politiques déjà existantes. Vu les tensions et oppositions fortes des deux autres co-législateurs, on aurait pu s’attendre à lire l’analyse d’impact détaillée et circonstanciée du Digital Omnibus par la Commission. Il n’en est rien : il n’y en a aucune ; la Commission insiste sur le fait que les modifications apportées ne justifient pas l’effort. Ce qui interroge sur la compréhension de la véritable portée de ces modifications.

Divergence sur le diagnostic, comme sur les solutions

Le débat autour du Digital Omnibus se structure autour de diverses questions empiriques et normatives.

Sur la charge administrative réelle, la Commission évoque des « coûts de conformité » sans quantification détaillée par type et taille d’entreprise ni par secteur d’activité. Les données disponibles restent parcellaires : certaines études sectorielles suggèrent des coûts disproportionnés pour les PME, mais les méthodologies varient considérablement. La question reste ouverte : quels coûts proviennent de la législation elle-même versus de son application fragmentée par les États membres ?

Sur l’accès aux données pour l’IA, l’argument selon lequel l’Europe « manquerait la révolution de l’IA » est avancé notamment dans le rapport Draghi, qui pointe un retard en matière d’adoption et de développement. Cependant, plusieurs facteurs sont en jeu : volume de données disponibles, qualité des données, infrastructures de calcul, compétences, investissements. Isoler la législation sur les données comme facteur limitant principal ou, encore, ajourner l’application des restrictions sur les modèles IA à hauts risques pour les droits fondamentaux est ainsi une réponse assez curieusement inadaptée à ces défis.

Sur la question de la réglementation comme avantage ou handicap pour l’innovation, deux lectures s’affrontent en particulier sur les effets du RGPD : celle qui le qualifie d’obstacle, et celle qui y voit un catalyseur. Les données empiriques sur l’impact net du RGPD sur l’innovation européenne restent contestées, avec des études montrant des résultats contradictoires selon les secteurs et méthodologies. Plus largement, le distinguo entre exigences et mise en œuvre entre ce que demande le « niveau UE » et ce que fait le « niveau national » est rarement exploré ; comme mentionné dans cet article de Bruegel, au niveau de l’UE, il existe des préoccupations concernant une sous-application – et non une sur-application – des règles au niveau national.

En définitive, la question est moins de savoir si ces facteurs jouent un rôle que de déterminer leur poids relatif par rapport aux enjeux réglementaires. Le réglementaire arrive en 4e position des obstacles perçus à l’innovation, d’après la Banque européenne d’investissement, devancé par le manque de personnel qualifié disponible, les coûts énergétiques et l’incertitude. Ainsi, un relatif consensus existe sur d’autres facteurs critiques : fragmentation persistante du marché unique (au niveau de l’application), accès au capital-risque, pénurie de compétences adaptées, différences dans l’écosystème entrepreneurial.

Le processus législatif à venir

Les propositions suivront la procédure législative ordinaire sur une période extrêmement réduite (6 mois, voire moins si la Règle 170 de procédure d’urgence est invoquée par le Parlement européen), avec des amendements substantiels probables avant l’adoption de tout texte final.

Par ailleurs, le Digital Omnibus n’est qu’une première étape. La Commission lance parallèlement un « test de résistance » du cadre réglementaire numérique, le Digital Fitness Check, pour identifier d’autres domaines de simplification, avec une consultation ouverte jusqu’au 11 mars 2026.

La confiance comme infrastructure économique

Les modifications proposées soulèvent une question fondamentale : la confiance des citoyens (qui sont également consommateurs) dans l’utilisation de leurs données et dans le bon fonctionnement des outils numériques du quotidien constitue-t-elle un actif ou une contrainte pour les entreprises européennes ?

Les enquêtes Eurobaromètre montrent systématiquement que les citoyens européens valorisent fortement la protection de leurs données et se disent plus enclins à utiliser des services qui la garantissent. Cette confiance, construite notamment autour du RGPD, représente potentiellement un avantage distinctif face à des modèles où les utilisateurs se méfient structurellement des acteurs économiques.

Les entreprises européennes qui ont investi dans la conformité sérieuse, notamment au RGPD, ont développé une relation de confiance avec leurs clients. Un affaiblissement perçu du cadre de protection pourrait éroder cet actif, sans pour autant créer un avantage face aux acteurs extra-européens qui continueraient à bénéficier du même accès au marché européen. La vraie compétitivité pourrait résider dans la capacité à innover avec des standards élevés de protection, plutôt que malgré eux.

Concrètement, pour les entreprises établies ayant investi dans la conformité, le digital omnibus crée un risque de voir leur investissement dans la confiance dévalué si les standards s’affaiblissent, sans avantage compétitif différenciant face aux nouveaux entrants. Pour les PME et start-ups européennes, il existe un besoin de clarification et d’harmonisation réelles plutôt que de déréglementation. Ces dernières ont l’opportunité de se différencier par des pratiques respectueuses comme argument commercial.

Les régulateurs, eux, doivent faire face au défi de maintenir la crédibilité de l’application des règles tout en facilitant l’interprétation, avec un besoin de coordination accrue entre autorités nationales pour éviter la re-fragmentation.

Enfin, les attentes des citoyens et consommateurs en matière de protection ne disparaissent pas avec la simplification réglementaire. Leur méfiance risque de s’accroître si le cadre est perçu comme affaibli, ce qui pourrait avoir un impact sur l’adoption de nouveaux services numériques.

  •  

[Tribune] Digital omnibus : comment simplifier sans renoncer au modèle européen ?

Digital double decker bus
[Tribune] Digital omnibus : comment simplifier sans renoncer au modèle européen ?

Comment simplifier les textes européens sans renoncer aux spécificités du modèle européen ? Dans cette tribune, la CEO de RS Strategy et spécialiste des régulations européennes Rayna Stamboliyska détaille les enjeux du Digital Omnibus.

Cet article vous est proposé par une contributrice extérieure. Rayna Stamboliyska est CEO de RS Strategy et l’autrice de La face cachée d’internet (Larousse, 2017).


Le Digital Omnibus cristallise les tensions au cœur du projet numérique européen. Entre l’urgence de la compétitivité face aux géants américains et chinois, et la préservation d’un modèle européen fondé sur la protection des droits fondamentaux, l’Europe doit inventer une troisième voie.

La vraie question n’est pas tant « faut-il simplifier ? » que « comment simplifier sans renoncer à ce qui fait la spécificité et, même, la force du modèle européen ? ». Les prochains mois de débats parlementaires et au Conseil seront déterminants pour l’avenir de la gouvernance numérique européenne.

Le rapport Draghi : un électrochoc pour l’Europe

En septembre 2024, le rapport de Mario Draghi sur la compétitivité européenne a posé un diagnostic sans concession : l’Union européenne fait face à un « défi existentiel » en matière de compétitivité (y compris dans le domaine du numérique) et d’innovation. L’ancien président de la BCE identifie trois déficits critiques : l’innovation inachevée (l’Europe n’arrive pas à transformer ses innovations en succès commerciaux, contrairement aux États-Unis et à la Chine) ; un environnement réglementaire contraignant (le poids administratif freine particulièrement les start-ups européennes dans leur phase de phase de croissance et changement d’échelle) ; et la fragmentation du marché unique (les incohérences entre États membres multiplient les coûts de conformité).

Le rapport Draghi pointe spécifiquement le RGPD comme exemple de cette fragmentation, notant que les coûts de gestion des données sont plus élevés pour les entreprises européennes que pour leurs homologues américaines et que les exigences du RGPD empêchent le développement d’approches innovantes dans, par exemple, le secteur de la santé. Si le diagnostic sur la complexité est partagé, la solution proposée soulève des interrogations fondamentales sur l’équilibre entre la protection des droits et la compétitivité économique.

La Boussole de compétitivité de la Commission : une feuille de route ambitieuse

En réponse au rapport Draghi, la Commission s’est fixé l’objectif de réduire la charge administrative d’au moins 25 % pour toutes les entreprises et d’au moins 35 % pour les PME. Ces pourcentages sont devenus incantatoires, tant leur mention est fréquente, et ce, malgré l’absence d’éléments permettant de comprendre ce que cette réduction de 25 % traduit concrètement.

Cette ambition de compétitivité se traduit par une série de paquets de simplification, nommés « omnibus ». Le Digital Omnibus constitue la quatrième itération, spécifiquement dédiée au numérique.

Un Digital Omnibus pensé pour favoriser l’innovation sur les tâches administratives

Dans la législation européenne, un instrument “omnibus” désigne une initiative législative regroupant plusieurs modifications ou révisions de textes existants dans une seule et même proposition. Son objectif est de simplifier, harmoniser ou adapter le cadre réglementaire. Sur le plan juridique, il n’y a aucune différence de nature entre un règlement omnibus et un règlement de l’UE comme un autre (applicabilité directe, caractère obligatoire, etc.). Sur le plan pratique, un règlement “normal” crée ou refond un cadre donné, alors qu’un règlement “omnibus” est un paquet unique de retouches sur plusieurs textes, visant la simplification ou l’harmonisation plutôt que la création de règles entièrement nouvelles.

Le Digital Omnibus, présenté le 19 novembre 2025, propose des modifications de la législation numérique européenne touchant aux données, à la cybersécurité et à l’intelligence artificielle. L’initiative se compose de deux propositions législatives distinctes visant à modifier en parallèle plusieurs textes européens majeurs.

Objectif affiché : permettre aux entreprises européennes de consacrer moins de temps aux tâches administratives et davantage à l’innovation, tout en maintenant un niveau élevé de protection des citoyens. Parmi les principaux textes concernés, le règlement sur l’intelligence artificielle (AI Act), d’abord, auquel un texte entier est dédié. Ce dernier propose un nouveau mécanisme et de nouvelles dates butoirs pour l’application des obligations relatives aux systèmes d’IA à haut risque, une base légale pour le traitement de quantités limitées de données spécifiques pour des enjeux d’équité, de détection et de correction de biais, ou encore des simplifications étendues pour les PME et entreprises de tailles intermédiaires.

Le Digital Omnibus propose ensuite de modifier, entre autres, le RGPD (notamment en implémentant une définition opérationnelle des données à caractère personnel et non personnel, et en incluant la création et l’amélioration de systèmes d’IA dans les traitements de données sur la base de l’intérêt légitime) , la directive ePrivacy, le règlement sur la gouvernance des données DGA, le Data Act, la directive NIS2, la directive REC, le règlement sur la résilience opérationnelle du secteur financier (DORA) et le règlement eIDAS2 sur l’identité numérique. Sur les textes relatifs à la cybersécurité (NIS2, DORA, eIDAS2, REC) et le RGPD, l’Omnibus prévoit notamment la création d’un « point d’entrée unique » développé et maintenu par l’ENISA pour permettre aux entités de notifier les incidents de cybersécurité en une seule fois.

Enjeux de méthode et de légitimité de l’approche omnibus

Le processus a été critiqué – et continue de l’être – pour son absence d’évaluation d’impact et de collecte de preuves, abandonnant les principes de standards minimaux pour l’élaboration de la législation européenne. De plus, l’amplitude des propositions de « simplification » amenées par le Digital Omnibus manque de soutien politique préalable, les deux autres co-législateurs – le Conseil de l’UE et le Parlement européen – ayant déjà exprimé des réserves sérieuses.

Côté Conseil, les États membres ont explicitement demandé de ne pas rouvrir le RGPD. Dans leurs retours, les limites de l’exercice que l’instrument omnibus devrait porter sont explicites ; aucune de ces limites n’est respectée dans la proposition Digital Omnibus que la Commission a publiée. Pire encore, la position du Conseil contenait des recommandations à la fois adaptées à l’instrument omnibus et directement utiles aux organisations concernées : des modifications techniques, des compléments et des lignes directrices, ainsi que des recommandations d’outils pour faciliter la mise en œuvre ; aucune de ces recommandations n’a été incluse dans la proposition de la Commission.

De leur côté, les groupes S&D, Renew et Verts/ALE du Parlement européen ont appelé la Commission à mettre fin à ces modifications majeures. De leur côté, les groupes PPE et ECR se sont déjà exprimés en faveur. On s’attend donc à une fracture inédite majeure qui s’installe : la division du Parlement en deux grandes “familles”, à savoir la droite traditionnelle et les extrêmes droites d’un côté, et le centre, les socialistes et les écolos de l’autre. Cette fracture est déjà apparue lors du vote de l’Omnibus I sur l’environnement le 13 novembre dernier. Que le PPE soit soutenu par les groupes parlementaires d’extrême droite (ECR et Patriots for Europe) est une première ; si vous avez entendu parler du “cordon sanitaire” pulvérisé, c’est à cette alliance qu’il s’applique. L’anticipation (anxieuse) de beaucoup est que le Digital Omnibus soit soutenu par la même alliance, ce qui cimenterait une division profonde et lourde de conséquences.

Pour ne rien arranger à l’affaire, l’absence d’étude d’impact interroge. En effet, un règlement omnibus est soumis au même régime d’étude d’impact qu’un règlement “classique”. Ce n’est pas le fait qu’il s’agisse d’un “omnibus” qui compte, mais l’ampleur et la nature des effets attendus. De par la nature de l’instrument omnibus, l’étude d’impact est en général attendue politiquement (montrer les allègements de charges, les effets pour les entreprises, etc.) et peut être ciblée sur certains aspects (par exemple, la réduction des coûts de conformité) plutôt que de refaire de zéro l’analyse de toutes les politiques déjà existantes. Vu les tensions et oppositions fortes des deux autres co-législateurs, on aurait pu s’attendre à lire l’analyse d’impact détaillée et circonstanciée du Digital Omnibus par la Commission. Il n’en est rien : il n’y en a aucune ; la Commission insiste sur le fait que les modifications apportées ne justifient pas l’effort. Ce qui interroge sur la compréhension de la véritable portée de ces modifications.

Divergence sur le diagnostic, comme sur les solutions

Le débat autour du Digital Omnibus se structure autour de diverses questions empiriques et normatives.

Sur la charge administrative réelle, la Commission évoque des « coûts de conformité » sans quantification détaillée par type et taille d’entreprise ni par secteur d’activité. Les données disponibles restent parcellaires : certaines études sectorielles suggèrent des coûts disproportionnés pour les PME, mais les méthodologies varient considérablement. La question reste ouverte : quels coûts proviennent de la législation elle-même versus de son application fragmentée par les États membres ?

Sur l’accès aux données pour l’IA, l’argument selon lequel l’Europe « manquerait la révolution de l’IA » est avancé notamment dans le rapport Draghi, qui pointe un retard en matière d’adoption et de développement. Cependant, plusieurs facteurs sont en jeu : volume de données disponibles, qualité des données, infrastructures de calcul, compétences, investissements. Isoler la législation sur les données comme facteur limitant principal ou, encore, ajourner l’application des restrictions sur les modèles IA à hauts risques pour les droits fondamentaux est ainsi une réponse assez curieusement inadaptée à ces défis.

Sur la question de la réglementation comme avantage ou handicap pour l’innovation, deux lectures s’affrontent en particulier sur les effets du RGPD : celle qui le qualifie d’obstacle, et celle qui y voit un catalyseur. Les données empiriques sur l’impact net du RGPD sur l’innovation européenne restent contestées, avec des études montrant des résultats contradictoires selon les secteurs et méthodologies. Plus largement, le distinguo entre exigences et mise en œuvre entre ce que demande le « niveau UE » et ce que fait le « niveau national » est rarement exploré ; comme mentionné dans cet article de Bruegel, au niveau de l’UE, il existe des préoccupations concernant une sous-application – et non une sur-application – des règles au niveau national.

En définitive, la question est moins de savoir si ces facteurs jouent un rôle que de déterminer leur poids relatif par rapport aux enjeux réglementaires. Le réglementaire arrive en 4e position des obstacles perçus à l’innovation, d’après la Banque européenne d’investissement, devancé par le manque de personnel qualifié disponible, les coûts énergétiques et l’incertitude. Ainsi, un relatif consensus existe sur d’autres facteurs critiques : fragmentation persistante du marché unique (au niveau de l’application), accès au capital-risque, pénurie de compétences adaptées, différences dans l’écosystème entrepreneurial.

Le processus législatif à venir

Les propositions suivront la procédure législative ordinaire sur une période extrêmement réduite (6 mois, voire moins si la Règle 170 de procédure d’urgence est invoquée par le Parlement européen), avec des amendements substantiels probables avant l’adoption de tout texte final.

Par ailleurs, le Digital Omnibus n’est qu’une première étape. La Commission lance parallèlement un « test de résistance » du cadre réglementaire numérique, le Digital Fitness Check, pour identifier d’autres domaines de simplification, avec une consultation ouverte jusqu’au 11 mars 2026.

La confiance comme infrastructure économique

Les modifications proposées soulèvent une question fondamentale : la confiance des citoyens (qui sont également consommateurs) dans l’utilisation de leurs données et dans le bon fonctionnement des outils numériques du quotidien constitue-t-elle un actif ou une contrainte pour les entreprises européennes ?

Les enquêtes Eurobaromètre montrent systématiquement que les citoyens européens valorisent fortement la protection de leurs données et se disent plus enclins à utiliser des services qui la garantissent. Cette confiance, construite notamment autour du RGPD, représente potentiellement un avantage distinctif face à des modèles où les utilisateurs se méfient structurellement des acteurs économiques.

Les entreprises européennes qui ont investi dans la conformité sérieuse, notamment au RGPD, ont développé une relation de confiance avec leurs clients. Un affaiblissement perçu du cadre de protection pourrait éroder cet actif, sans pour autant créer un avantage face aux acteurs extra-européens qui continueraient à bénéficier du même accès au marché européen. La vraie compétitivité pourrait résider dans la capacité à innover avec des standards élevés de protection, plutôt que malgré eux.

Concrètement, pour les entreprises établies ayant investi dans la conformité, le digital omnibus crée un risque de voir leur investissement dans la confiance dévalué si les standards s’affaiblissent, sans avantage compétitif différenciant face aux nouveaux entrants. Pour les PME et start-ups européennes, il existe un besoin de clarification et d’harmonisation réelles plutôt que de déréglementation. Ces dernières ont l’opportunité de se différencier par des pratiques respectueuses comme argument commercial.

Les régulateurs, eux, doivent faire face au défi de maintenir la crédibilité de l’application des règles tout en facilitant l’interprétation, avec un besoin de coordination accrue entre autorités nationales pour éviter la re-fragmentation.

Enfin, les attentes des citoyens et consommateurs en matière de protection ne disparaissent pas avec la simplification réglementaire. Leur méfiance risque de s’accroître si le cadre est perçu comme affaibli, ce qui pourrait avoir un impact sur l’adoption de nouveaux services numériques.

  •  

Scoped User Access In Linux 6.19 To Reduce Speculation Barriers & Its Performance Hit

Merged yesterday to the Linux 6.19 Git codebase was the "core/uaccess" pull that introduces new scoped user-mode access with auto-cleanup functionality. This can reduce the number of speculation barriers encountered when needing to access user-mode memory and thereby avoiding some of the performance penalties incurred by speculation barriers...
  •  

AES-GCM Optimizations Land In Linux 6.19 - Benefiting AMD Zen 3, AVX-512 CPUs Too

Google engineer Eric Biggers who is known for his many Linux crypto subsystem performance optimizations has seen his latest pull requests land in Linux 6.19. Notable among them are some AES-GCM optimizations benefiting AMD Zen 3 processors and separately AVX-512 processors also benefit too from this latest round of optimization work...
  •  

La hausse de la mémoire vive va impacter tout le secteur

On suit l’évolution de la hausse de la mémoire vive depuis plusieurs semaines en se focalisant surtout sur la flambée des prix de ces produits particuliers. On a également pu observer un impact sur d’autres appareils comme les MiniPC, les portables et les cartes de développement. Car évidemment, c’est enfoncer une porte ouverte de le dire, mais tous les appareils qui contiennent de la mémoire vive, vont augmenter leurs tarifs.

C'était le bon temps, avant la hausse de la mémoire vive

C’était le bon temps, avant la hausse de la mémoire vive

Ce que certains ne réalisent peut être pas encore, c’est que la hausse de la mémoire vive va pareillement impacter les composants qui n’en contiennent pas ou pas encore. WCCFTech relate ainsi une baisse de 40 à 50% des ventes de cartes mères par rapport à 2024. Baisse tout à fait compréhensible puisque si le budget alloué pour une mise à jour technique n’est plus respecté avec la hausse de la mémoire vive, c’est tout un projet qui tombe à l’eau. Personne ne va acheter une carte mère en cette fin 2025 en espérant une baisse des tarifs de la DDR dans la foulée.

Si on peut raisonnablement penser que cette chute de moitié des ventes en novembre est également liée à une situation particulière en 2024 avec une période de ventes plus faste et un Black Friday plus marquant. Cela n’en est pas moins inquiétant. Dans le lot des marques les plus impactées on retrouve sans surprise les fabricants les plus grand public : Asus, Gigabyte, MSI et ASRock. Les constructeurs de cartes mères professionnelles ou de serveur sont logiquement moins sujets à être ralentis.  Et c’est d’autant plus vrai que tous les modèles de nouvelles cartes mère ont basculé vers la DDR5. Quasi plus aucun fabricant ne propose de cartes en DDR4. A raison d’ailleurs puisque la DDR4 est autant impactée que les autres. On imagine assez facilement que les autres dominos vont suivre.

16 Go mini

La hausse de la mémoire vive va faire chuter les ventes de toute l’informatique

Car une baisse des ventes de carte mère impacte logiquement tous les autres secteurs. Ce sont des processeurs qui ne sont pas vendus, des dissipateurs et des ventilateurs à poser dessus, des boitiers, des unités stockages, des alimentations… Et, probablement dans une moindre mesure, mais tout de même : claviers, souris, écrans et accessoires variés. Même les logiciels vont être à la peine, les licences de Microsoft pour commencer.

Les serveurs d’IA, au cœur de cette problématique avec leur appétit vorace pour la mémoire vive, jettent consciencieusement des pelletées de sable dans les rouages de tout le secteur. Et cela ne devrait pas se clamer. Suivant les analystes, cette extension démentielle de serveurs devrait perdurer jusqu’en 2027… À moins que cela ne déraille avant et que la « bulle IA » n’éclate avant. 

Les cartes graphiques, les smartphones, les tablettes, les portables, les PC complet comme les MiniPC vont être impactés. Plus encore qu’on ne le pense. Certains constructeurs prévoyant déjà une « marge de manœuvre » pour anticiper une éventuelle poursuite de la hausse. À la fois parce qu’ils estiment que la situation va perdurer et empirer. Mais aussi pour éponger pour certaines pertes liées à la fourniture de matériel basée sur des contrats signés sur des tarifs antérieurs.

Alors que certains analystes parient sur une hausse prochaine pouvant atteindre encore 100% de plus d’ici les quelques jours qui nous séparent de 2026, la situation devient réellement très compliquée.

hausse de la mémoire vive

Quelques anticipations pour l’année prochaine

L’appétit de l’ogre va empirer, les fabricants de mémoire vive vont avoir du mal a proposer assez de composants mémoire pour la satisfaire et surtout les contrats passés entre le clients historiques que sont les grandes marques de portables et de composants commerciaux vont finir. Rendant ainsi les fabricants libres de toute nouvelle tarification. L’arrivée de contrats courts, collant plus au marché, est probablement ce qui nous attend dès le second trimestre de 2026. Au lieu de lissser leurs prix sur ue année complète, les fabricants de mémoire vont determiner un tarif par lots. Ce qui suivra plus précisément la hausse.

Je ne serais pas surpris que des minimachines en tous genres débarquent donc en force en version barebone. C’est à dire livrées sans mémoire vive, sans stockage et sans système. Quand cela est possible puisque beaucoup de constructeurs ont choisi de basculer des références sous mémoire LPDDRx, des composants soudés directement sur la carte mère. Même topo pour les portables dont les prix vont soit s’envoler, soit leurs composants dégradés, soit être livrés nus. En laissant l’acheteur se débrouiller pour trouver lui-même sa mémoire vive. Cela signerait le retour en force de solutions livrées avec 8 Go de mémoire vive par défaut, au prix des solutions que l’on a connu il y a quelques mois en 16 ou en 32 Go de mémoire vive. Portables et MiniPC seraient livrés avec moins de mémoire et probablement moins de stockage pour le même tarif ou pour plus cher. On a vu que des solutions comme les Raspberry Pi, particulièrement impactées par la hausse, baissaient la capacité de leur mémoire vive.

Une carte graphique entourée de mémoire vive

Les cartes graphiques pourraient exploser encore une fois puisque Nvidia – et peut être AMD dans son sillage – réfléchirait à ne plus fournir de package processeur graphique et mémoire GDDR aux fabricants. Les achats autrefois mutualisés par Nvidia de ces composants qui lui permettaient de vendre ses puces, se faisant alors directement par les constructeurs de cartes graphiques. Ce qui entrainerait mécaniquement une hausse. Cela n’est qu’une rumeur pour le moment mais cela à du sens au vu du contexte.

Que va-t-il se passer pour le secteur des pièces détachées ? Difficile à dire pour le moment même si deux scénarios peuvent s’envisager. Le premier est une baisse des tarifs du stock existant pour l’écouler coute que coute.  Le second est un statu quo avec une baisse de la production et une augmentation des prix pour conserver un chiffre d’affaires décent. Dans tous les cas, nous assisteront sans doute à une reconfiguration complète du paysage des pièces détachées. Les constructeurs actuels, qu’ils fabriquent des alimentations, des dissipateurs ou des boitiers, vivent sur leurs volumes. Si leurs volumes baissent leur situation se complique.

L’autre domino qui risque de se faire mal à cause de cette hausse de la mémoire vive, c’est l’emploi. Outre le fait qu’une baisse de production va ralentir l’activité, on sent que l’arrivée de l’IA donne des excuses toutes faites pour licencier. Cela sera évidemment le cas sur les chaînes de fabrications qui vont baisser leurs cadences. Mais cela pourrait également impacter les antennes des marques en France tout comme entrainer la chute de plusieurs revendeurs qui vont devoir encaisser le gros cout de frein appuyé sur leurs ventes et leur chiffre d’affaire.

Vers une amélioration pour 2028 et après ?

Difficile de savoir ce que sera le marché en 2028. Cela dépend pour beaucoup du succès des géants de l’IA. Si la situation continue et que plusieurs entités se bagarrent toujours pour avoir la plus  grosse capacité de calcul, il n’y pas de raison que la hausse de la mémoire vive ne s’arrête. Certes, certains fabricants de mémoire retroussent leurs manches pour augmenter leur production. SK Hynix par exemple a indiqué multiplier sa production de composants mémoire par huit pour 2026. Mais cela ne veut aps dire que cette arrivée en masse de nouvelles puces ne sera pas absorbée directement par les serveurs d’IA. On a également vu que de nouveaux constructeurs comme le fabricant chinois CXMT pourrait venir au secours de son industrie. Mais cela ne serait sans doute pas dsuffisant pour faire face aux défaut de production orientée vers le marché PC. 

Pour vous dire à quel point l’avidité des fabricants de mémoire vive est devenue importante. La branche Samsung qui fabrique la mémoire vive pour le groupe aurait refusé de livrer de la mémoire à la branche smartphone du même groupe. Mémoire nécessaire pour lancer la production du prochain Galaxy S26. En cause, une augmentation drastique du prix du composant mémoire nécessaire. Le module de 12 Go de LPDDR5X serait passé de 33$ en début d’année à 70$ aujourd’hui. Si un constructeur ne se fait pas de largesses à lui même pour suivre le marché, il ne faut pas s’attendre à ce qu’il en fasse à des clients classiques.

Au final la hausse de la mémoire vive risque d’avoir des conséquences très compliquées pour le marché PC comme pour l’emploi dans les années a venir. Certes des grandes entreprises d’IA vont émerger aux US. Elles vont embaucher quelques personnes pour veiller à la bonne marche de leurs énormes datas center. Elles vont employer ponctuellement des sociétés pour faire sortir de terre des structures colossalles. Mais à terme l’emploi généré sera faible. Très faible même face aux risques encourus pour l’emploi chez les constructeurs de PC traditionnel. Et tout l’écosystème de marques, grossistes et revendeurs qui en découle. Les structures qui vivent du marketing lié à ce marché vont également en pâtir. Je ne serais vraiment pas surpris qu’on constate d’ici 2028 un déficit important sur le secteur. Et cela aussi bien sur ses ventes que sur son emploi. Avec des effets en cascade probablement encore difficiles a déterminer tant ils sont tentaculaires.

La hausse de la mémoire vive va impacter tout le secteur © MiniMachines.net. 2025

  •  

Irlande : victime de deepfake pornographique, Cara Hunter en a fait un combat politique

Génération d'humiliation
Irlande : victime de deepfake pornographique, Cara Hunter en a fait un combat politique

Victime de deepfake pornographique juste avant des élections législatives, la députée d’Irlande du Nord Cara Hunter s’est emparée de la question, dont les effets restent relativement sous-estimés par la population.

« Est-ce que c’est vous, sur la vidéo qui circule sur WhatsApp ? » Cara Hunter se trouvait chez sa grand-mère pour un moment de répit dans une intense campagne électorale, lorsqu’elle a reçu ce message d’un inconnu sur Messenger. En avril 2022, la femme politique avait 27 ans et profitait d’une rare réunion familiale, un peu moins de trois semaines avant les élections pour l’Assemblée d’Irlande du Nord auxquelles elle se présentait. Le message l’a immédiatement mise en alerte, raconte la femme politique dans un long portrait du Guardian.

Lorsqu’elle reçoit le lien de la vidéo, elle découvre un clip « extrêmement pornographique ». À l’époque, elle n’en comprend pas bien les dessous techniques. Alors qu’elle croit à un sosie, une amie lui suggère qu’il puisse s’agir d’un deepfake, une de ces vidéos où « on met ton visage sur le corps de quelqu’un d’autre ».

Que fait-on, quand on est une femme, de moins de trente ans – « c’est déjà dur d’être prise au sérieux politiquement »-, et qu’un inconnu diffuse une vidéo pornographique très crédible de soi ? Du côté du Parti travailliste et social-démocrate (SDLP), auquel elle est affiliée, on dissuade Cara Hunter de publier le moindre communiqué, au motif qu’elle ne ferait qu’amplifier la viralité de la vidéo.

Évolutions législatives

Au commissariat, la police s’excuse, mais l’informe qu’aucun délit n’a été commis, que les équipes n’ont pas les moyens techniques pour enquêter. Il revient donc à Cara Hunter de trouver par elle-même la photo originale, en prenant des captures d’écran du deepfake puis en faisant des recherches inversées dans un moteur de recherche.

Pour l’identification du premier diffuseur de la vidéo sur WhatsApp, on lui souligne que la messagerie est chiffrée et qu’elle va se heurter au droit à la vie privée. Et Cara Hunter de rétorquer : « J’aimerais penser que j’ai le droit de ne pas voir ma vie détruite. » Mais dans un cas comme celui-ci, « vous n’êtes qu’une personne face à cette montagne de technologies et de code. »

Depuis cette affaire, le droit a évolué au Royaume-Uni et au Pays de Galles. Deux lois, l’Online Safety Act et le Data (Use and Access) Act de 2025 ont rendu la création, le partage et la demande de deepfakes à caractère sexuel illégaux. L’Irlande du Nord travaille à ses propres textes.

En France, l’interdiction de réaliser ou diffuser un montage à caractère sexuel a été ancrée dans le Code pénal avec la loi visant à sécuriser et à réguler l’espace numérique. L’usage de traitement algorithmique pour produire ces images y a été inscrit comme circonstance aggravante. Aux Pays-Bas, les députés travaillent sur l’un des textes les plus poussés en la matière, qui octroierait à la population un copyright sur leur voix, leur visage et leurs traits physiques.

Une personne sur quatre ne voit pas le problème

Mais comme ailleurs dans le monde, le public des îles britanniques ne semble pas prendre la mesure de la violence vécue par les victimes de ce type de diffusion. Les deepfakes sont pourtant déjà utilisés pour des usages malveillants, que ce soit pour harceler, pour réaliser des arnaques au président, voire, dans le cas des imageries à caractère sexuel, de l’extorsion, y compris de mineurs.

Publié fin novembre, un rapport de la police britannique note l’explosion du nombre de deepfakes de 1 780 % entre 2019 et 2024, sachant que l’immense majorité (98 % en 2023, selon Security Heroes) de ces images visent avant tout les filles et les femmes. Sur 1 700 interrogés, un répondant sur quatre estime qu’il n’y a rien de grave ou se déclare « neutre » sur le fait de créer ou partager des deepfakes intimes ou sexuels d’une autre personne.

Problématique démocratique

Lorsqu’elle en a été victime, l’enjeu, pour Cara Hunter, n’était même plus d’être élue, mais de faire cesser la diffusion de la vidéo. La politicienne a finalement obtenu son siège de députée, et s’est directement emparée publiquement du sujet. Depuis, elle reçoit régulièrement des appels de filles et de femmes victimes de faits similaires, dont certaines mineures. Dans les écoles, les enseignants lui rapportent la hausse de l’usage d’applications dédiées à « dénuder » des images de personnes par IA (en pratique, coller un faux corps nu sous le visage de la personne visée).

En France, en Espagne et ailleurs, des deepfakes pornographiques sont aussi bien fabriqués avec les visages de personnalités – journalistes, actrices, etc – que de personnes moins exposées publiquement. En Normandie, une enquête a notamment été ouverte en mars après la diffusion de deepfakes d’une douzaine de collégiennes.

Pour la députée d’Irlande du Nord, les risques démocratiques sont évidents, à commencer par celui de décourager les jeunes femmes de s’engager en politique. Réguler la production de ces images, mais aussi œuvrer pour le marquage des images générées par IA, sont autant d’outils permettant d’éviter que la pratique ne perdure, espère-t-elle.

D’autres affaires, comme les deepfakes de Vladimir Poutine et de Volodymyr Zelensky dans le cadre du conflit en Ukraine, ou le deepfake de la voix de Joe Biden pour dissuader des électeurs du New Hampshire de voter, illustrent les enjeux que ces technologies posent pour la bonne tenue du débat démocratique.

En Irlande, en octobre, la campagne présidentielle a encore été perturbée par la diffusion d’un faux extrait de journal télévisé dans lequel la candidate Catherine Connolly semblait déclarer le retrait de sa candidature.

  •  

American Express faisait n’importe quoi avec les cookies et écope d’une amende

Attention à l’indigestion
American Express faisait n’importe quoi avec les cookies et écope d’une amende

Après Condé Nast la semaine dernière, c’est au tour d’American Express d’écoper d’une amende administrative de 1,5 million d’euros de la CNIL. En cause là encore, le « non-respect des règles applicables en matière de traceurs (cookies) ». Explications.

Condé Nast, American Express : même combat

La semaine dernière, Condé Nast (éditrice de Vanity Fair, Vogue, GQ et AD) écopait d’une amende de 750 000 euros pour exactement le même motif, à savoir « le non-respect des règles applicables en matière de traceurs (cookies) ». La société s’était remise dans le droit chemin, mais la CNIL retenait la gravité du manquement et prononçait une sanction.

L’histoire se répète, mais avec un poids lourd du secteur bancaire et une amende administrative deux fois plus importante. Il y a plusieurs similitudes entre deux affaires qui arrivent à quelques jours d’intervalle… le début d’une nouvelle série ?

La CNIL rappelle qu’American Express est le « troisième émetteur de cartes de paiement au monde ». En janvier 2023 (il y a donc presque trois ans), elle a mené des contrôles sur le site Internet et dans les locaux de l’entreprise.

En cause, American Express déposait des traceurs sans le consentement de l’utilisateur ou malgré son « refus de consentir ». De plus, la société continuait « à lire les traceurs précédemment déposés malgré le retrait de leur consentement ». La délibération est publiée, permettant d’en apprendre davantage que le communiqué sur les tenants et aboutissants.

À peine arrivé, 31 cookies déposés

Lors du contrôle le 30 janvier 2023, le rapporteur de la CNIL explique que, « dès l’arrivée de l’utilisateur sur le site web  » www.americanexpress.com/fr-fr/ « , et avant toute action de sa part, huit cookies, qui ne bénéficient pas de l’exemption prévue par les textes susvisés et auraient donc dû être soumis au consentement de l’utilisateur, étaient déposés ».

American Express ne conteste pas et affirme avoir corrigé le tir en novembre 2024 afin que seuls les « cookies essentiels » soient déposés dès l’arrivée sur la page d’accueil. Lors d’un nouveau contrôle le 16 mai 2025, la CNIL confirme qu’il n’y a plus de trace du dépôt de ces cookies.

Les huit cookies ne sont que la face émergée de l’iceberg. En tout, le site déposait 31 cookies, mais les 23 autres entrent dans champ de l’exemption prévue par l’article 82 et sont donc considérés comme essentiels et non soumis au consentement.

Refusez des cookies, on vous les sert de force

Vient ensuite le cas du dépôt de cookies malgré le refus de l’utilisateur. Deux cas sont à distinguer. Sur le site principal tout d’abord. Quand un utilisateur cliquait sur « Tout refuser », six nouveaux cookies, considérés comme non essentiels par le rapporteur, étaient déposés. « Au regard des explications fournies par la société quant aux finalités poursuivies par ces cookies, le rapporteur, dans sa réponse et lors de la séance, a indiqué abandonner cette branche du manquement ».

Autre problème similaire, à partir du site email.amex-info.fr cette fois-ci. Toujours le 30 janvier 2023, la délégation de la CNIL continue de naviguer sur le site d’American Express et, au détour d’un clic et de l’ouverture d’un nouvel onglet, elle constate « le dépôt de dix nouveaux cookies. Le rapporteur considère que, parmi ces dix cookies, trois nécessitaient le recueil du consentement ». American Express ne conteste pas et affirme s’être mis en conformité par la suite.

Vous avez retiré le consentement, ok ! et… ?

Dernier grief, la lecture de cookies après retrait du consentement. Pour rappel, on doit pouvoir retirer son consentement aussi simplement qu’on l’a donné et ce à tout moment. Lors de la navigation, la CNIL a accepté les cookies, puis les a refusés. Elle a constaté « la présence sur son navigateur de l’ensemble des cookies déposés avant retrait du consentement, parmi lesquels plusieurs étaient pourtant soumis au consentement de l’utilisateur ».

En défense, l’entreprise américaine « soutient que le rapporteur n’apporte aucune preuve de ces opérations de lecture et que la seule présence des cookies sur le terminal de l’utilisateur est insuffisante pour démontrer un manquement ».

Lors des échanges avec l’entreprise américaine, le rapporteur a « produit un fichier HAR [HTTP Archive, ndlr] démontrant que les cookies précédemment déposés et toujours présents sur le navigateur continuaient, après retrait du consentement, à être lus ». American Express a fini par se mettre en conformité, mais « le manquement demeure néanmoins caractérisé pour le passé ».

Bien évidemment, American Express s’oppose à la publication de la décision et estime que le montant de l’amende proposé par le rapporteur – 1,5 million d’euros – est « disproportionné et insuffisamment motivé ». La formation restreinte de la CNIL estime au contraire que le montant est « adapté ».

De plus, la publicité de la sanction « se justifie au regard de la gravité avérée des manquements en cause, de la position de la société sur le marché et du nombre de personnes concernées, lesquelles doivent être informées ».

  •  

Irlande : victime de deepfake pornographique, Cara Hunter en a fait un combat politique

Génération d'humiliation
Irlande : victime de deepfake pornographique, Cara Hunter en a fait un combat politique

Victime de deepfake pornographique juste avant des élections législatives, la députée d’Irlande du Nord Cara Hunter s’est emparée de la question, dont les effets restent relativement sous-estimés par la population.

« Est-ce que c’est vous, sur la vidéo qui circule sur WhatsApp ? » Cara Hunter se trouvait chez sa grand-mère pour un moment de répit dans une intense campagne électorale, lorsqu’elle a reçu ce message d’un inconnu sur Messenger. En avril 2022, la femme politique avait 27 ans et profitait d’une rare réunion familiale, un peu moins de trois semaines avant les élections pour l’Assemblée d’Irlande du Nord auxquelles elle se présentait. Le message l’a immédiatement mise en alerte, raconte la femme politique dans un long portrait du Guardian.

Lorsqu’elle reçoit le lien de la vidéo, elle découvre un clip « extrêmement pornographique ». À l’époque, elle n’en comprend pas bien les dessous techniques. Alors qu’elle croit à un sosie, une amie lui suggère qu’il puisse s’agir d’un deepfake, une de ces vidéos où « on met ton visage sur le corps de quelqu’un d’autre ».

Que fait-on, quand on est une femme, de moins de trente ans – « c’est déjà dur d’être prise au sérieux politiquement »-, et qu’un inconnu diffuse une vidéo pornographique très crédible de soi ? Du côté du Parti travailliste et social-démocrate (SDLP), auquel elle est affiliée, on dissuade Cara Hunter de publier le moindre communiqué, au motif qu’elle ne ferait qu’amplifier la viralité de la vidéo.

Évolutions législatives

Au commissariat, la police s’excuse, mais l’informe qu’aucun délit n’a été commis, que les équipes n’ont pas les moyens techniques pour enquêter. Il revient donc à Cara Hunter de trouver par elle-même la photo originale, en prenant des captures d’écran du deepfake puis en faisant des recherches inversées dans un moteur de recherche.

Pour l’identification du premier diffuseur de la vidéo sur WhatsApp, on lui souligne que la messagerie est chiffrée et qu’elle va se heurter au droit à la vie privée. Et Cara Hunter de rétorquer : « J’aimerais penser que j’ai le droit de ne pas voir ma vie détruite. » Mais dans un cas comme celui-ci, « vous n’êtes qu’une personne face à cette montagne de technologies et de code. »

Depuis cette affaire, le droit a évolué au Royaume-Uni et au Pays de Galles. Deux lois, l’Online Safety Act et le Data (Use and Access) Act de 2025 ont rendu la création, le partage et la demande de deepfakes à caractère sexuel illégaux. L’Irlande du Nord travaille à ses propres textes.

En France, l’interdiction de réaliser ou diffuser un montage à caractère sexuel a été ancrée dans le Code pénal avec la loi visant à sécuriser et à réguler l’espace numérique. L’usage de traitement algorithmique pour produire ces images y a été inscrit comme circonstance aggravante. Aux Pays-Bas, les députés travaillent sur l’un des textes les plus poussés en la matière, qui octroierait à la population un copyright sur leur voix, leur visage et leurs traits physiques.

Une personne sur quatre ne voit pas le problème

Mais comme ailleurs dans le monde, le public des îles britanniques ne semble pas prendre la mesure de la violence vécue par les victimes de ce type de diffusion. Les deepfakes sont pourtant déjà utilisés pour des usages malveillants, que ce soit pour harceler, pour réaliser des arnaques au président, voire, dans le cas des imageries à caractère sexuel, de l’extorsion, y compris de mineurs.

Publié fin novembre, un rapport de la police britannique note l’explosion du nombre de deepfakes de 1 780 % entre 2019 et 2024, sachant que l’immense majorité (98 % en 2023, selon Security Heroes) de ces images visent avant tout les filles et les femmes. Sur 1 700 interrogés, un répondant sur quatre estime qu’il n’y a rien de grave ou se déclare « neutre » sur le fait de créer ou partager des deepfakes intimes ou sexuels d’une autre personne.

Problématique démocratique

Lorsqu’elle en a été victime, l’enjeu, pour Cara Hunter, n’était même plus d’être élue, mais de faire cesser la diffusion de la vidéo. La politicienne a finalement obtenu son siège de députée, et s’est directement emparée publiquement du sujet. Depuis, elle reçoit régulièrement des appels de filles et de femmes victimes de faits similaires, dont certaines mineures. Dans les écoles, les enseignants lui rapportent la hausse de l’usage d’applications dédiées à « dénuder » des images de personnes par IA (en pratique, coller un faux corps nu sous le visage de la personne visée).

En France, en Espagne et ailleurs, des deepfakes pornographiques sont aussi bien fabriqués avec les visages de personnalités – journalistes, actrices, etc – que de personnes moins exposées publiquement. En Normandie, une enquête a notamment été ouverte en mars après la diffusion de deepfakes d’une douzaine de collégiennes.

Pour la députée d’Irlande du Nord, les risques démocratiques sont évidents, à commencer par celui de décourager les jeunes femmes de s’engager en politique. Réguler la production de ces images, mais aussi œuvrer pour le marquage des images générées par IA, sont autant d’outils permettant d’éviter que la pratique ne perdure, espère-t-elle.

D’autres affaires, comme les deepfakes de Vladimir Poutine et de Volodymyr Zelensky dans le cadre du conflit en Ukraine, ou le deepfake de la voix de Joe Biden pour dissuader des électeurs du New Hampshire de voter, illustrent les enjeux que ces technologies posent pour la bonne tenue du débat démocratique.

En Irlande, en octobre, la campagne présidentielle a encore été perturbée par la diffusion d’un faux extrait de journal télévisé dans lequel la candidate Catherine Connolly semblait déclarer le retrait de sa candidature.

  •  

American Express faisait n’importe quoi avec les cookies et écope d’une amende

Attention à l’indigestion
American Express faisait n’importe quoi avec les cookies et écope d’une amende

Après Condé Nast la semaine dernière, c’est au tour d’American Express d’écoper d’une amende administrative de 1,5 million d’euros de la CNIL. En cause là encore, le « non-respect des règles applicables en matière de traceurs (cookies) ». Explications.

Condé Nast, American Express : même combat

La semaine dernière, Condé Nast (éditrice de Vanity Fair, Vogue, GQ et AD) écopait d’une amende de 750 000 euros pour exactement le même motif, à savoir « le non-respect des règles applicables en matière de traceurs (cookies) ». La société s’était remise dans le droit chemin, mais la CNIL retenait la gravité du manquement et prononçait une sanction.

L’histoire se répète, mais avec un poids lourd du secteur bancaire et une amende administrative deux fois plus importante. Il y a plusieurs similitudes entre deux affaires qui arrivent à quelques jours d’intervalle… le début d’une nouvelle série ?

La CNIL rappelle qu’American Express est le « troisième émetteur de cartes de paiement au monde ». En janvier 2023 (il y a donc presque trois ans), elle a mené des contrôles sur le site Internet et dans les locaux de l’entreprise.

En cause, American Express déposait des traceurs sans le consentement de l’utilisateur ou malgré son « refus de consentir ». De plus, la société continuait « à lire les traceurs précédemment déposés malgré le retrait de leur consentement ». La délibération est publiée, permettant d’en apprendre davantage que le communiqué sur les tenants et aboutissants.

À peine arrivé, 31 cookies déposés

Lors du contrôle le 30 janvier 2023, le rapporteur de la CNIL explique que, « dès l’arrivée de l’utilisateur sur le site web  » www.americanexpress.com/fr-fr/ « , et avant toute action de sa part, huit cookies, qui ne bénéficient pas de l’exemption prévue par les textes susvisés et auraient donc dû être soumis au consentement de l’utilisateur, étaient déposés ».

American Express ne conteste pas et affirme avoir corrigé le tir en novembre 2024 afin que seuls les « cookies essentiels » soient déposés dès l’arrivée sur la page d’accueil. Lors d’un nouveau contrôle le 16 mai 2025, la CNIL confirme qu’il n’y a plus de trace du dépôt de ces cookies.

Les huit cookies ne sont que la face émergée de l’iceberg. En tout, le site déposait 31 cookies, mais les 23 autres entrent dans champ de l’exemption prévue par l’article 82 et sont donc considérés comme essentiels et non soumis au consentement.

Refusez des cookies, on vous les sert de force

Vient ensuite le cas du dépôt de cookies malgré le refus de l’utilisateur. Deux cas sont à distinguer. Sur le site principal tout d’abord. Quand un utilisateur cliquait sur « Tout refuser », six nouveaux cookies, considérés comme non essentiels par le rapporteur, étaient déposés. « Au regard des explications fournies par la société quant aux finalités poursuivies par ces cookies, le rapporteur, dans sa réponse et lors de la séance, a indiqué abandonner cette branche du manquement ».

Autre problème similaire, à partir du site email.amex-info.fr cette fois-ci. Toujours le 30 janvier 2023, la délégation de la CNIL continue de naviguer sur le site d’American Express et, au détour d’un clic et de l’ouverture d’un nouvel onglet, elle constate « le dépôt de dix nouveaux cookies. Le rapporteur considère que, parmi ces dix cookies, trois nécessitaient le recueil du consentement ». American Express ne conteste pas et affirme s’être mis en conformité par la suite.

Vous avez retiré le consentement, ok ! et… ?

Dernier grief, la lecture de cookies après retrait du consentement. Pour rappel, on doit pouvoir retirer son consentement aussi simplement qu’on l’a donné et ce à tout moment. Lors de la navigation, la CNIL a accepté les cookies, puis les a refusés. Elle a constaté « la présence sur son navigateur de l’ensemble des cookies déposés avant retrait du consentement, parmi lesquels plusieurs étaient pourtant soumis au consentement de l’utilisateur ».

En défense, l’entreprise américaine « soutient que le rapporteur n’apporte aucune preuve de ces opérations de lecture et que la seule présence des cookies sur le terminal de l’utilisateur est insuffisante pour démontrer un manquement ».

Lors des échanges avec l’entreprise américaine, le rapporteur a « produit un fichier HAR [HTTP Archive, ndlr] démontrant que les cookies précédemment déposés et toujours présents sur le navigateur continuaient, après retrait du consentement, à être lus ». American Express a fini par se mettre en conformité, mais « le manquement demeure néanmoins caractérisé pour le passé ».

Bien évidemment, American Express s’oppose à la publication de la décision et estime que le montant de l’amende proposé par le rapporteur – 1,5 million d’euros – est « disproportionné et insuffisamment motivé ». La formation restreinte de la CNIL estime au contraire que le montant est « adapté ».

De plus, la publicité de la sanction « se justifie au regard de la gravité avérée des manquements en cause, de la position de la société sur le marché et du nombre de personnes concernées, lesquelles doivent être informées ».

  •  

HBM4 : Samsung bien décidé à croquer une grosse part du gâteau "NVIDIA" ?

On le sait, la HBM4 est sur le point d'arrivée. Cette mémoire vive à très hautes performances (et très haut cout), bien plus encore que les DDR ou GDDR que nous connaissons bien dans le secteur grand public, a évidemment le vent en poupe dans le monde du calcul IA et la HBM4, qui en est en fait la 6...

  •  

LandSpace Could Become China's First Company To Land a Reusable Rocket

China's private launch firm LandSpace is preparing the debut flight of its Zhuque-3 rocket, aiming to become the country's first to land a reusable orbital-class booster using a Falcon-9-style return profile. Ars Technica reports: Liftoff could happen around 11 pm EST tonight (04:00 UTC Wednesday), or noon local time at the Jiuquan Satellite Launch Center in northwestern China. Airspace warning notices advising pilots to steer clear of the rocket's flight path suggest LandSpace has a launch window of about two hours. When it lifts off, the Zhuque-3 (Vermillion Bird-3) rocket will become the largest commercial launch vehicle ever flown in China. What's more, LandSpace will become the first Chinese launch provider to attempt a landing of its first stage booster, using the same tried-and-true return method pioneered by SpaceX and, more recently, Blue Origin in the United States. Construction crews recently finished a landing pad in the remote Gobi Desert, some 240 miles (390 kilometers) southeast of the launch site at Jiuquan. Unlike US spaceports, the Jiuquan launch base is located in China's interior, with rockets flying over land as they climb into space. When the Zhuque-3 booster finishes its job of sending the rocket toward orbit, it will follow an arcing trajectory toward the recovery zone, firing its engines to slow for landing about eight-and-a-half minutes after liftoff. At least, that's what is supposed to happen. LandSpace officials have not made any public statements about the odds of a successful landing -- or, for that matter, a successful launch...

Read more of this story at Slashdot.

  •