Vue lecture

[Tribune] Digital omnibus : comment simplifier sans renoncer au modèle européen ?

Digital double decker bus
[Tribune] Digital omnibus : comment simplifier sans renoncer au modèle européen ?

Comment simplifier les textes européens sans renoncer aux spécificités du modèle européen ? Dans cette tribune, la CEO de RS Strategy et spécialiste des régulations européennes Rayna Stamboliyska détaille les enjeux du Digital Omnibus.

Cet article vous est proposé par une contributrice extérieure. Rayna Stamboliyska est CEO de RS Strategy et l’autrice de La face cachée d’internet (Larousse, 2017).


Le Digital Omnibus cristallise les tensions au cœur du projet numérique européen. Entre l’urgence de la compétitivité face aux géants américains et chinois, et la préservation d’un modèle européen fondé sur la protection des droits fondamentaux, l’Europe doit inventer une troisième voie.

La vraie question n’est pas tant « faut-il simplifier ? » que « comment simplifier sans renoncer à ce qui fait la spécificité et, même, la force du modèle européen ? ». Les prochains mois de débats parlementaires et au Conseil seront déterminants pour l’avenir de la gouvernance numérique européenne.

Le rapport Draghi : un électrochoc pour l’Europe

En septembre 2024, le rapport de Mario Draghi sur la compétitivité européenne a posé un diagnostic sans concession : l’Union européenne fait face à un « défi existentiel » en matière de compétitivité (y compris dans le domaine du numérique) et d’innovation. L’ancien président de la BCE identifie trois déficits critiques : l’innovation inachevée (l’Europe n’arrive pas à transformer ses innovations en succès commerciaux, contrairement aux États-Unis et à la Chine) ; un environnement réglementaire contraignant (le poids administratif freine particulièrement les start-ups européennes dans leur phase de phase de croissance et changement d’échelle) ; et la fragmentation du marché unique (les incohérences entre États membres multiplient les coûts de conformité).

Le rapport Draghi pointe spécifiquement le RGPD comme exemple de cette fragmentation, notant que les coûts de gestion des données sont 20% plus élevés pour les entreprises européennes que pour leurs homologues américaines et que les exigences du RGPD empêchent le développement d’approches innovantes dans, par ex., le secteur de la santé. Si le diagnostic sur la complexité est partagé, la solution proposée soulève des interrogations fondamentales sur l’équilibre entre la protection des droits et la compétitivité économique.

La Boussole de compétitivité de la Commission : une feuille de route ambitieuse

En réponse au rapport Draghi, la Commission s’est fixé l’objectif de réduire la charge administrative d’au moins 25 % pour toutes les entreprises et d’au moins 35 % pour les PME. Ces pourcentages sont devenus incantatoires, tant leur mention est fréquente, et ce, malgré l’absence d’éléments permettant de comprendre ce que cette réduction de 25 % traduit concrètement.

Cette ambition de compétitivité se traduit par une série de paquets de simplification, nommés « omnibus ». Le Digital Omnibus constitue la quatrième itération, spécifiquement dédiée au numérique.

Un Digital Omnibus pensé pour favoriser l’innovation sur les tâches administratives

Dans la législation européenne, un instrument “omnibus” désigne une initiative législative regroupant plusieurs modifications ou révisions de textes existants dans une seule et même proposition. Son objectif est de simplifier, harmoniser ou adapter le cadre réglementaire. Sur le plan juridique, il n’y a aucune différence de nature entre un règlement omnibus et un règlement de l’UE comme un autre (applicabilité directe, caractère obligatoire, etc.). Sur le plan pratique, un règlement “normal” crée ou refond un cadre donné, alors qu’un règlement “omnibus” est un paquet unique de retouches sur plusieurs textes, visant la simplification ou l’harmonisation plutôt que la création de règles entièrement nouvelles.

Le Digital Omnibus, présenté le 19 novembre 2025, propose des modifications de la législation numérique européenne touchant aux données, à la cybersécurité et à l’intelligence artificielle. L’initiative se compose de deux propositions législatives distinctes visant à modifier en parallèle plusieurs textes européens majeurs.

Objectif affiché : permettre aux entreprises européennes de consacrer moins de temps aux tâches administratives et davantage à l’innovation, tout en maintenant un niveau élevé de protection des citoyens. Parmi les principaux textes concernés, le règlement sur l’intelligence artificielle (AI Act), d’abord, auquel un texte entier est dédié. Ce dernier propose un nouveau mécanisme et de nouvelles dates butoirs pour l’application des obligations relatives aux systèmes d’IA à haut risque, une base légale pour le traitement de quantités limitées de données spécifiques pour des enjeux d’équité, de détection et de correction de biais, ou encore des simplifications étendues pour les PME et entreprises de tailles intermédiaires.

Le Digital Omnibus propose ensuite de modifier, entre autres, le RGPD (notamment en implémentant une définition opérationnelle des données à caractère personnel et non personnel, et en incluant la création et l’amélioration de systèmes d’IA dans les traitements de données sur la base de l’intérêt légitime) , la directive ePrivacy, le règlement sur la gouvernance des données DGA, le Data Act, la directive NIS2, la directive REC, le règlement sur la résilience opérationnelle du secteur financier (DORA) et le règlement eIDAS2 sur l’identité numérique. Sur les textes relatifs à la cybersécurité (NIS2, DORA, eIDAS2, REC) et le RGPD, l’Omnibus prévoit notamment la création d’un « point d’entrée unique » développé et maintenu par l’ENISA pour permettre aux entités de notifier les incidents de cybersécurité en une seule fois.

Enjeux de méthode et de légitimité de l’approche omnibus

Le processus a été critiqué – et continue de l’être – pour son absence d’évaluation d’impact et de collecte de preuves, abandonnant les principes de standards minimaux pour l’élaboration de la législation européenne. De plus, l’amplitude des propositions de « simplification » amenées par le Digital Omnibus manque de soutien politique préalable, les deux autres co-législateurs – le Conseil de l’UE et le Parlement européen – ayant déjà exprimé des réserves sérieuses.

Côté Conseil, les États membres ont explicitement demandé de ne pas rouvrir le RGPD. Dans leurs retours, les limites de l’exercice que l’instrument omnibus devrait porter sont explicites ; aucune de ces limites n’est respectée dans la proposition Digital Omnibus que la Commission a publiée. Pire encore, la position du Conseil contenait des recommandations à la fois adaptées à l’instrument omnibus et directement utiles aux organisations concernées : des modifications techniques, des compléments et des lignes directrices, ainsi que des recommandations d’outils pour faciliter la mise en œuvre ; aucune de ces recommandations n’a été incluse dans la proposition de la Commission.

De leur côté, les groupes S&D, Renew et Verts/ALE du Parlement européen ont appelé la Commission à mettre fin à ces modifications majeures. De leur côté, les groupes PPE et ECR se sont déjà exprimés en faveur. On s’attend donc à une fracture inédite majeure qui s’installe : la division du Parlement en deux grandes “familles”, à savoir la droite traditionnelle et les extrêmes droites d’un côté, et le centre, les socialistes et les écolos de l’autre. Cette fracture est déjà apparue lors du vote de l’Omnibus I sur l’environnement le 13 novembre dernier. Que le PPE soit soutenu par les groupes parlementaires d’extrême droite (ECR et Patriots for Europe) est une première ; si vous avez entendu parler du “cordon sanitaire” pulvérisé, c’est à cette alliance qu’il s’applique. L’anticipation (anxieuse) de beaucoup est que le Digital Omnibus soit soutenu par la même alliance, ce qui cimenterait une division profonde et lourde de conséquences.

Pour ne rien arranger à l’affaire, l’absence d’étude d’impact interroge. En effet, un règlement omnibus est soumis au même régime d’étude d’impact qu’un règlement “classique”. Ce n’est pas le fait qu’il s’agisse d’un “omnibus” qui compte, mais l’ampleur et la nature des effets attendus. De par la nature de l’instrument omnibus, l’étude d’impact est en général attendue politiquement (montrer les allègements de charges, les effets pour les entreprises, etc.) et peut être ciblée sur certains aspects (par exemple, la réduction des coûts de conformité) plutôt que de refaire de zéro l’analyse de toutes les politiques déjà existantes. Vu les tensions et oppositions fortes des deux autres co-législateurs, on aurait pu s’attendre à lire l’analyse d’impact détaillée et circonstanciée du Digital Omnibus par la Commission. Il n’en est rien : il n’y en a aucune ; la Commission insiste sur le fait que les modifications apportées ne justifient pas l’effort. Ce qui interroge sur la compréhension de la véritable portée de ces modifications.

Divergence sur le diagnostic, comme sur les solutions

Le débat autour du Digital Omnibus se structure autour de diverses questions empiriques et normatives.

Sur la charge administrative réelle, la Commission évoque des « coûts de conformité » sans quantification détaillée par type et taille d’entreprise ni par secteur d’activité. Les données disponibles restent parcellaires : certaines études sectorielles suggèrent des coûts disproportionnés pour les PME, mais les méthodologies varient considérablement. La question reste ouverte : quels coûts proviennent de la législation elle-même versus de son application fragmentée par les États membres ?

Sur l’accès aux données pour l’IA, l’argument selon lequel l’Europe « manquerait la révolution de l’IA » est avancé notamment dans le rapport Draghi, qui pointe un retard en matière d’adoption et de développement. Cependant, plusieurs facteurs sont en jeu : volume de données disponibles, qualité des données, infrastructures de calcul, compétences, investissements. Isoler la législation sur les données comme facteur limitant principal ou, encore, ajourner l’application des restrictions sur les modèles IA à hauts risques pour les droits fondamentaux est ainsi une réponse assez curieusement inadaptée à ces défis.

Sur la question de la réglementation comme avantage ou handicap pour l’innovation, deux lectures s’affrontent en particulier sur les effets du RGPD : celle qui le qualifie d’obstacle, et celle qui y voit un catalyseur. Les données empiriques sur l’impact net du RGPD sur l’innovation européenne restent contestées, avec des études montrant des résultats contradictoires selon les secteurs et méthodologies. Plus largement, le distinguo entre exigences et mise en œuvre entre ce que demande le « niveau UE » et ce que fait le « niveau national » est rarement exploré ; comme mentionné dans cet article de Bruegel, au niveau de l’UE, il existe des préoccupations concernant une sous-application – et non une sur-application – des règles au niveau national.

En définitive, la question est moins de savoir si ces facteurs jouent un rôle que de déterminer leur poids relatif par rapport aux enjeux réglementaires. Le réglementaire arrive en 4e position des obstacles perçus à l’innovation, d’après la Banque européenne d’investissement, devancé par le manque de personnel qualifié disponible, les coûts énergétiques et l’incertitude. Ainsi, un relatif consensus existe sur d’autres facteurs critiques : fragmentation persistante du marché unique (au niveau de l’application), accès au capital-risque, pénurie de compétences adaptées, différences dans l’écosystème entrepreneurial.

Le processus législatif à venir

Les propositions suivront la procédure législative ordinaire sur une période extrêmement réduite (6 mois, voire moins si la Règle 170 de procédure d’urgence est invoquée par le Parlement européen), avec des amendements substantiels probables avant l’adoption de tout texte final.

Par ailleurs, le Digital Omnibus n’est qu’une première étape. La Commission lance parallèlement un « test de résistance » du cadre réglementaire numérique, le Digital Fitness Check, pour identifier d’autres domaines de simplification, avec une consultation ouverte jusqu’au 11 mars 2026.

La confiance comme infrastructure économique

Les modifications proposées soulèvent une question fondamentale : la confiance des citoyens (qui sont également consommateurs) dans l’utilisation de leurs données et dans le bon fonctionnement des outils numériques du quotidien constitue-t-elle un actif ou une contrainte pour les entreprises européennes ?

Les enquêtes Eurobaromètre montrent systématiquement que les citoyens européens valorisent fortement la protection de leurs données et se disent plus enclins à utiliser des services qui la garantissent. Cette confiance, construite notamment autour du RGPD, représente potentiellement un avantage distinctif face à des modèles où les utilisateurs se méfient structurellement des acteurs économiques.

Les entreprises européennes qui ont investi dans la conformité sérieuse, notamment au RGPD, ont développé une relation de confiance avec leurs clients. Un affaiblissement perçu du cadre de protection pourrait éroder cet actif, sans pour autant créer un avantage face aux acteurs extra-européens qui continueraient à bénéficier du même accès au marché européen. La vraie compétitivité pourrait résider dans la capacité à innover avec des standards élevés de protection, plutôt que malgré eux.

Concrètement, pour les entreprises établies ayant investi dans la conformité, le digital omnibus crée un risque de voir leur investissement dans la confiance dévalué si les standards s’affaiblissent, sans avantage compétitif différenciant face aux nouveaux entrants. Pour les PME et start-ups européennes, il existe un besoin de clarification et d’harmonisation réelles plutôt que de déréglementation. Ces dernières ont l’opportunité de se différencier par des pratiques respectueuses comme argument commercial.

Les régulateurs, eux, doivent faire face au défi de maintenir la crédibilité de l’application des règles tout en facilitant l’interprétation, avec un besoin de coordination accrue entre autorités nationales pour éviter la re-fragmentation.

Enfin, les attentes des citoyens et consommateurs en matière de protection ne disparaissent pas avec la simplification réglementaire. Leur méfiance risque de s’accroître si le cadre est perçu comme affaibli, ce qui pourrait avoir un impact sur l’adoption de nouveaux services numériques.

  •  

Irlande : victime de deepfake pornographique, Cara Hunter en a fait un combat politique

Génération d'humiliation
Irlande : victime de deepfake pornographique, Cara Hunter en a fait un combat politique

Victime de deepfake pornographique juste avant des élections législatives, la députée d’Irlande du Nord Cara Hunter s’est emparée de la question, dont les effets restent relativement sous-estimés par la population.

« Est-ce que c’est vous, sur la vidéo qui circule sur WhatsApp ? » Cara Hunter se trouvait chez sa grand-mère pour un moment de répit dans une intense campagne électorale, lorsqu’elle a reçu ce message d’un inconnu sur Messenger. En avril 2022, la femme politique avait 27 ans et profitait d’une rare réunion familiale, un peu moins de trois semaines avant les élections pour l’Assemblée d’Irlande du Nord auxquelles elle se présentait. Le message l’a immédiatement mise en alerte, raconte la femme politique dans un long portrait du Guardian.

Lorsqu’elle reçoit le lien de la vidéo, elle découvre un clip « extrêmement pornographique ». À l’époque, elle n’en comprend pas bien les dessous techniques. Alors qu’elle croit à un sosie, une amie lui suggère qu’il puisse s’agir d’un deepfake, une de ces vidéos où « on met ton visage sur le corps de quelqu’un d’autre ».

Que fait-on, quand on est une femme, de moins de trente ans – « c’est déjà dur d’être prise au sérieux politiquement »-, et qu’un inconnu diffuse une vidéo pornographique très crédible de soi ? Du côté du Parti travailliste et social-démocrate (SDLP), auquel elle est affiliée, on dissuade Cara Hunter de publier le moindre communiqué, au motif qu’elle ne ferait qu’amplifier la viralité de la vidéo.

Évolutions législatives

Au commissariat, la police s’excuse, mais l’informe qu’aucun délit n’a été commis, que les équipes n’ont pas les moyens techniques pour enquêter. Il revient donc à Cara Hunter de trouver par elle-même la photo originale, en prenant des captures d’écran du deepfake puis en faisant des recherches inversées dans un moteur de recherche.

Pour l’identification du premier diffuseur de la vidéo sur WhatsApp, on lui souligne que la messagerie est chiffrée et qu’elle va se heurter au droit à la vie privée. Et Cara Hunter de rétorquer : « J’aimerais penser que j’ai le droit de ne pas voir ma vie détruite. » Mais dans un cas comme celui-ci, « vous n’êtes qu’une personne face à cette montagne de technologies et de code. »

Depuis cette affaire, le droit a évolué au Royaume-Uni et au Pays de Galles. Deux lois, l’Online Safety Act et le Data (Use and Access) Act de 2025 ont rendu la création, le partage et la demande de deepfakes à caractère sexuel illégaux. L’Irlande du Nord travaille à ses propres textes.

En France, l’interdiction de réaliser ou diffuser un montage à caractère sexuel a été ancrée dans le Code pénal avec la loi visant à sécuriser et à réguler l’espace numérique. L’usage de traitement algorithmique pour produire ces images y a été inscrit comme circonstance aggravante. Aux Pays-Bas, les députés travaillent sur l’un des textes les plus poussés en la matière, qui octroierait à la population un copyright sur leur voix, leur visage et leurs traits physiques.

Une personne sur quatre ne voit pas le problème

Mais comme ailleurs dans le monde, le public des îles britanniques ne semble pas prendre la mesure de la violence vécue par les victimes de ce type de diffusion. Les deepfakes sont pourtant déjà utilisés pour des usages malveillants, que ce soit pour harceler, pour réaliser des arnaques au président, voire, dans le cas des imageries à caractère sexuel, de l’extorsion, y compris de mineurs.

Publié fin novembre, un rapport de la police britannique note l’explosion du nombre de deepfakes de 1 780 % entre 2019 et 2024, sachant que l’immense majorité (98 % en 2023, selon Security Heroes) de ces images visent avant tout les filles et les femmes. Sur 1 700 interrogés, un répondant sur quatre estime qu’il n’y a rien de grave ou se déclare « neutre » sur le fait de créer ou partager des deepfakes intimes ou sexuels d’une autre personne.

Problématique démocratique

Lorsqu’elle en a été victime, l’enjeu, pour Cara Hunter, n’était même plus d’être élue, mais de faire cesser la diffusion de la vidéo. La politicienne a finalement obtenu son siège de députée, et s’est directement emparée publiquement du sujet. Depuis, elle reçoit régulièrement des appels de filles et de femmes victimes de faits similaires, dont certaines mineures. Dans les écoles, les enseignants lui rapportent la hausse de l’usage d’applications dédiées à « dénuder » des images de personnes par IA (en pratique, coller un faux corps nu sous le visage de la personne visée).

En France, en Espagne et ailleurs, des deepfakes pornographiques sont aussi bien fabriqués avec les visages de personnalités – journalistes, actrices, etc – que de personnes moins exposées publiquement. En Normandie, une enquête a notamment été ouverte en mars après la diffusion de deepfakes d’une douzaine de collégiennes.

Pour la députée d’Irlande du Nord, les risques démocratiques sont évidents, à commencer par celui de décourager les jeunes femmes de s’engager en politique. Réguler la production de ces images, mais aussi œuvrer pour le marquage des images générées par IA, sont autant d’outils permettant d’éviter que la pratique ne perdure, espère-t-elle.

D’autres affaires, comme les deepfakes de Vladimir Poutine et de Volodymyr Zelensky dans le cadre du conflit en Ukraine, ou le deepfake de la voix de Joe Biden pour dissuader des électeurs du New Hampshire de voter, illustrent les enjeux que ces technologies posent pour la bonne tenue du débat démocratique.

En Irlande, en octobre, la campagne présidentielle a encore été perturbée par la diffusion d’un faux extrait de journal télévisé dans lequel la candidate Catherine Connolly semblait déclarer le retrait de sa candidature.

  •  

American Express faisait n’importe quoi avec les cookies et écope d’une amende

Attention à l’indigestion
American Express faisait n’importe quoi avec les cookies et écope d’une amende

Après Condé Nast la semaine dernière, c’est au tour d’American Express d’écoper d’une amende administrative de 1,5 million d’euros de la CNIL. En cause là encore, le « non-respect des règles applicables en matière de traceurs (cookies) ». Explications.

Condé Nast, American Express : même combat

La semaine dernière, Condé Nast (éditrice de Vanity Fair, Vogue, GQ et AD) écopait d’une amende de 750 000 euros pour exactement le même motif, à savoir « le non-respect des règles applicables en matière de traceurs (cookies) ». La société s’était remise dans le droit chemin, mais la CNIL retenait la gravité du manquement et prononçait une sanction.

L’histoire se répète, mais avec un poids lourd du secteur bancaire et une amende administrative deux fois plus importante. Il y a plusieurs similitudes entre deux affaires qui arrivent à quelques jours d’intervalle… le début d’une nouvelle série ?

La CNIL rappelle qu’American Express est le « troisième émetteur de cartes de paiement au monde ». En janvier 2023 (il y a donc presque trois ans), elle a mené des contrôles sur le site Internet et dans les locaux de l’entreprise.

En cause, American Express déposait des traceurs sans le consentement de l’utilisateur ou malgré son « refus de consentir ». De plus, la société continuait « à lire les traceurs précédemment déposés malgré le retrait de leur consentement ». La délibération est publiée, permettant d’en apprendre davantage que le communiqué sur les tenants et aboutissants.

À peine arrivé, 31 cookies déposés

Lors du contrôle le 30 janvier 2023, le rapporteur de la CNIL explique que, « dès l’arrivée de l’utilisateur sur le site web  » www.americanexpress.com/fr-fr/ « , et avant toute action de sa part, huit cookies, qui ne bénéficient pas de l’exemption prévue par les textes susvisés et auraient donc dû être soumis au consentement de l’utilisateur, étaient déposés ».

American Express ne conteste pas et affirme avoir corrigé le tir en novembre 2024 afin que seuls les « cookies essentiels » soient déposés dès l’arrivée sur la page d’accueil. Lors d’un nouveau contrôle le 16 mai 2025, la CNIL confirme qu’il n’y a plus de trace du dépôt de ces cookies.

Les huit cookies ne sont que la face émergée de l’iceberg. En tout, le site déposait 31 cookies, mais les 23 autres entrent dans champ de l’exemption prévue par l’article 82 et sont donc considérés comme essentiels et non soumis au consentement.

Refusez des cookies, on vous les sert de force

Vient ensuite le cas du dépôt de cookies malgré le refus de l’utilisateur. Deux cas sont à distinguer. Sur le site principal tout d’abord. Quand un utilisateur cliquait sur « Tout refuser », six nouveaux cookies, considérés comme non essentiels par le rapporteur, étaient déposés. « Au regard des explications fournies par la société quant aux finalités poursuivies par ces cookies, le rapporteur, dans sa réponse et lors de la séance, a indiqué abandonner cette branche du manquement ».

Autre problème similaire, à partir du site email.amex-info.fr cette fois-ci. Toujours le 30 janvier 2023, la délégation de la CNIL continue de naviguer sur le site d’American Express et, au détour d’un clic et de l’ouverture d’un nouvel onglet, elle constate « le dépôt de dix nouveaux cookies. Le rapporteur considère que, parmi ces dix cookies, trois nécessitaient le recueil du consentement ». American Express ne conteste pas et affirme s’être mis en conformité par la suite.

Vous avez retiré le consentement, ok ! et… ?

Dernier grief, la lecture de cookies après retrait du consentement. Pour rappel, on doit pouvoir retirer son consentement aussi simplement qu’on l’a donné et ce à tout moment. Lors de la navigation, la CNIL a accepté les cookies, puis les a refusés. Elle a constaté « la présence sur son navigateur de l’ensemble des cookies déposés avant retrait du consentement, parmi lesquels plusieurs étaient pourtant soumis au consentement de l’utilisateur ».

En défense, l’entreprise américaine « soutient que le rapporteur n’apporte aucune preuve de ces opérations de lecture et que la seule présence des cookies sur le terminal de l’utilisateur est insuffisante pour démontrer un manquement ».

Lors des échanges avec l’entreprise américaine, le rapporteur a « produit un fichier HAR [HTTP Archive, ndlr] démontrant que les cookies précédemment déposés et toujours présents sur le navigateur continuaient, après retrait du consentement, à être lus ». American Express a fini par se mettre en conformité, mais « le manquement demeure néanmoins caractérisé pour le passé ».

Bien évidemment, American Express s’oppose à la publication de la décision et estime que le montant de l’amende proposé par le rapporteur – 1,5 million d’euros – est « disproportionné et insuffisamment motivé ». La formation restreinte de la CNIL estime au contraire que le montant est « adapté ».

De plus, la publicité de la sanction « se justifie au regard de la gravité avérée des manquements en cause, de la position de la société sur le marché et du nombre de personnes concernées, lesquelles doivent être informées ».

  •  

☕️ OnlyOffice 9.2 officialise son agent pour le travail bureautique

Avec la version 9.1, la suite bureautique avait introduit un agent en version bêta. L’éditeur se sent suffisamment prêt désormais pour le lancer dans le grand bain.

Comme toujours avec ce type de fonction, elle est conçue pour gérer des requêtes comme le résumé de tout ou partie d’un document, des questions sur le contenu, le remplissage de PDF ou encore des modifications dans la présentation.

OnlyOffice ne dispose pas de son propre modèle. Pour utiliser l’agent maison, il faut disposer d’une clé API pour un LLM existant, comme ChatGPT, Claude ou Gemini. On peut aussi le connecter à un serveur LLM ou MCP local fonctionnant avec des solutions de type Ollama. Comme le rappelle OMGUbuntu cependant, le travail avec les LLM implique souvent des conditions d’utilisation incluant la réutilisation des contenus analysés à des fins d’entrainement.

Parmi les autres nouveautés de cette version, signalons la possibilité de choisir une couleur personnalisée pour caviarder des passages dans un document PDF, l’enregistrement d’une série d’actions sous forme de macro pour la réutiliser plus tard, la personnalisation des raccourcis clavier, la possibilité d’insérer des équations depuis des sources en ligne, la disponibilité de cases à cocher et de boutons radio dans l’éditeur de formulaires, ainsi qu’un correctif de sécurité.

La nouvelle mouture de la suite peut être téléchargée depuis le site officiel ou le dépôt GitHub.

  •  

☕️ Le temps légal français en passe de valider une nouvelle optimisation énergétique

Cela fait maintenant longtemps que l’Agence nationale des fréquences (ANFR) s’est lancée dans une opération de sobriété énergétique pour la diffusion du temps légal français via les ondes. Ce temps légal permet pour rappel aux équipements « d’être synchronisés de façon extrêmement précise ».

« Disposer d’un signal horaire permettant une synchronisation de tous les équipements concernés est donc essentiel pour la vie de la Nation, notamment dans des domaines touchant à la sécurité », expliquait l’Agence. Cet impératif peut se conjuguer avec la sobriété énergétique.

Des baisses ont déjà eu lieu. En 2020 par exemple, la puissance du site d’Allouis qui diffuse le signal est passée de 1 110 à 800 kW. Il y a un an, des expérimentations ont débuté pour la réduire encore, à 675 kW, pendant une semaine. Entre mai et novembre 2025, la puissance de diffusion a de nouveau été abaissée de 800 à 675 kW.

Dans les deux cas, tout s’est bien passé. La deuxième phase était plus complexe car elle « incluait une opération sensible : le passage de la diffusion du pylône nord au pylône sud le 14 octobre. Même durant cette manœuvre technique, aucune dégradation notable du signal n’a été enregistrée. Ces résultats confirment la robustesse de la diffusion, même avec une puissance réduite ».

De nouvelles phases de tests sont prévues pour valider définitivement l’optimisation énergétique avec le passage à 675 kW (soit quasiment deux fois moins que les 1 110 kW d’avant 2020) :

  • Retour à 800 kW à partir du 18 novembre 2025.
  • Nouvelle période à 675 kW du 16 décembre 2025 au 31 mars 2026.

« À l’issue de cet hiver d’observation, un passage permanent à 675 kW pourrait être décidé dès le deuxième trimestre 2026 », ajoute l’ANFR.

  •  

☕️ Après AOL, Bending Spoons va s’offrir Eventbrite et sa billetterie

Eventbrite, poids lourd américain de la billetterie en ligne, annonce son entrée en négociations exclusives avec le groupe italien Bending Spoons, qui propose de racheter l’entreprise, en cash, pour 500 millions de dollars (environ 430 millions d’euros).

Le prix de rachat, fixé à 4,5 dollars par action, représente une prime de 60 % par rapport au cours quelque peu végétant de l’action Eventbrite à Wall Street sur les soixante derniers jours. La proposition a été acceptée à l’unanimité par le conseil d’administration d’Eventbrite, et la transaction devrait être bouclée dans le premier semestre 2026, affirme l’acquéreur, après validation des différentes instances représentatives ou réglementaires concernées. Eventbrite vise pour son exercice fiscal 2025 un chiffre d’affaires de l’ordre de 290 millions de dollars.

« En tant que fans de longue date, nous avons identifié plusieurs pistes que nous avons hâte d’explorer avec l’équipe d’Eventbrite après la finalisation de la transaction. Il s’agit notamment de développer une messagerie dédiée, d’intégrer l’IA pour simplifier la création d’événements, d’améliorer la recherche et de créer un système pour le marché des billets de seconde main », indique Luca Ferrari, CEO de Bending Spoons.

Le groupe italien aux dents longues réalisera-t-il vraiment ces projets avec l’équipe actuelle d’Eventbrite ? La plupart de ses acquisitions récentes se sont soldées par des départs massifs au sein des entreprises ciblées par sa stratégie de build-up (construction d’un groupe par accumulation de sociétés distinctes, avec une recherche de synergies opérationnelles).

En 2025, Bending Spoons s’est déjà engagé dans le rachat de Vimeo, puis dans celui du portail AOL.

Le groupe dispose sur le papier des moyens de ses ambitions : fin octobre, il a annoncé coup sur coup une levée de fonds de 710 millions de dollars, sur la base d’une valorisation préalable à 11 milliards de dollars, et l’obtention d’une enveloppe de 2,8 milliards de dollars sous forme de dette bancaire.

Eventbrite revendique 4,7 millions d’événements et 83 millions d’entrées payantes distribuées en 2024 – extrait des résultats financiers, capture d’écran Next

  •  

Amazon lance ses puces Trainium3 pour l’IA : 2,5 pétaflops et 144 Go de HBM3e

Mélange de puces et de chiffres
Amazon lance ses puces Trainium3 pour l’IA : 2,5 pétaflops et 144 Go de HBM3e

Amazon présente ses UltraServers pour les entrainements et l’inférence d’IA avec Trainium3. Le géant du Net augmente à la fois la densité et les performances de sa puce maison, lui permettant ainsi d’afficher un gros x4,4 sur les performances. On vous détaille cette annonce.

Amazon vient d’annoncer la disponibilité pour les clients de sa nouvelle puce Trainium3 pour l’entrainement et l’inférence des intelligences artificielles. La division cloud du géant américain continue sur sa lancée, avec une nouvelle génération par an.

Des UltraServers et UltraClusters avec Trainium3 disponibles

L’année dernière, durant la conférence re:Invent, c’était Trainium2 qui était disponible et la puce Trainium3 présentée. Encore un an avant (en 2023), Trainium2 était annoncée pour remplacer le SoC Trainium de première génération.

On rembobine cette fois avec les performances. Trainium2 était annoncée comme quatre fois plus rapide sur les entrainements, avec une capacité mémoire multipliée par trois. L’efficacité énergétique (performances/watt) était multipliée par deux.

Amazon promettait des instances Trn2 avec jusqu’à 100 000 puces Trainium2 via les UltraClusters, pour une puissance de calcul pouvant atteindre « jusqu’à 65 exaflops ». Des UltraServers plus raisonnables avec 64 Trainium2 interconnectés étaient aussi de la partie, pour une puissance maximale de 83,2 pétaflops.

Les UltraClusters Elastic Compute Cloud (EC2) « sont composés de milliers d’instances EC2 accélérées, colocalisées dans une zone de disponibilité AWS donnée et interconnectées via un réseau », explique Amazon. Les UltraServers sont d’au moins un ordre de grandeur plus petits, puisqu’il est question de « plusieurs instances EC2 ».

AWS re:Invent 2025 Trainium3
AWS re:Invent 2025 Trainium3
AWS re:Invent 2025 Trainium3
AWS re:Invent 2025 Trainium3

Trainium3 : x2 sur les performances, 50 % de mémoire en plus

Nous revoilà à Trainium3, dont les UltraServers équipés de cette génération proposent « une puissance de calcul jusqu’à 4,4 fois supérieure, une efficacité énergétique quatre fois plus grande et une bande passante mémoire presque quatre fois supérieure à celle des serveurs Trainium2 UltraServers ». Trainium3 est gravée avec une technologie 3 nm.

Un UltraServer peut héberger jusqu’à 144 puces Trainium3 pour une puissance de 362 pétaflops, avec une précision en virgule flottante de 8 bits (FP8). Avec un arrondi, on arrive bien au rapport x4,4 annoncé par Amazon par rapport aux 83,2 pétaflops de la génération précédente. Un UltraServer Trn3 complet dispose de 20,7 To de mémoire HBM3e et d’une bande passante agrégée de 706 To/s.

Avec une division par 144, cela nous donne 2,5 pétaflops de calculs en FP8 et 144 Go de mémoire par puce. Le même calcul donne respectivement 1,3 pétaflop et 96 Go pour la puce Trainium2. La bande passante mémoire totale de Trn2 est de 185 To/s (on a donc un gain de x3,8 avec Trainium3).

2 500 téraflops (ou 2,5 pétaflops) pour Trainium3 alors que NVIDIA revendique pour rappel 5 000 téraflops en FP8 pour un die Blackwell, mais le fabricant en intègre deux par puce, soit 10 000 téraflops. Pour rappel, la H100 de NVIDIA est annoncée pour 3 958 téraflops en FP8.

UltraClusters : jusqu’à un million de puces Trainium3

L’entreprise affirme avoir amélioré sa partie réseau, notamment son NeuronSwitch-v1 qui permet de doubler la bande passante à l’intérieur des UltraServers. Pour les échanges entre les puces, une version améliorée de Neuron Fabric permet de réduire la latence à moins de 10 ms.

Les UltraClusters sont aussi améliorés et peuvent connecter entre eux des milliers d’UltraServers pour arriver à un total d’un million de puces Trainium, soit 10 fois plus que les 100 000 puces de la génération précédente.

Prudence sur les chiffres d’Amazon toutefois. La société se faisait récemment l’écho du projet Rainier : une « infrastructure collaborative avec près d’un demi-million de puces Trainium2 ». Trainium3 ne fait donc « que » deux fois mieux, pas 10. Les puces de Rainier sont réparties entre plusieurs centres de données aux États-Unis.

Selon Amazon, ses UltraClusters permettent « l’entraînement de modèles multimodaux avec des milliards de jetons et de l’inférence en temps réel pour des millions d’utilisateurs en simultané ».

AWS re:Invent 2025 Trainium3

Trainium4 : FP4 et au NVLink Fusion

Si vous avez lu attentivement le début de cet article, vous savez certainement de quoi parle la fin : Trainium4. Amazon annonce « six fois plus de performances de traitement (FP4), trois fois plus de performances en FP8 et quatre fois plus de bande passante mémoire ».

L’annonce sur FP4 est la conséquence directe du x3 en FP8. En divisant la précision par deux, on multiplie les performances par deux. Amazon rejoint donc NVIDIA qui était le premier à se lancer en FP4 avec Blackwell.

Enfin, Amazon prévoit de rendre Trainium4 compatible avec NVLink Fusion, une technologie NVIDIA permettant de monter « une infrastructure d’IA semi-personnalisée », avec des puces du Caméléon et celles de partenaires. Au lancement, MediaTek, Marvell, Alchip Technologies, Astera Labs, Synopsys et Cadence s’étaient associés à l’annonce.

  •  

☕️ Issue de Kyutai, la startup Gradium lève 60 millions d’euros pour ses IA vocales

Cofinancé depuis 2023 par Xavier Niel (Free), Rodolphe Saadé (CMA-CGM) et Eric Schmidt (ex Google), le laboratoire de recherche Kyutai vient d’accoucher de son premier spin-off commercial, une startup baptisée Gradium. Quelques bonnes fées se sont déjà penchées sur le berceau de Gradium puisque pour fêter son lancement officiel, la jeune pousse annonce mardi avoir bouclé un premier tour de table de 70 millions de dollars (environ 60 millions d’euros).

« S’appuyant sur plus d’une décennie de recherche de pointe, notre mission est simple et ambitieuse : fournir les bases d’une IA capable de proposer en temps réel une voix naturelle qui soit l’interface homme-machine par défaut », indique Gradium, dont le casting de départ réunit plusieurs des chercheurs fondateurs de Kuytai.

L’équipe de départ, qui compte dix personnes, est ainsi emmenée par Neil Zeghidour (ex Meta/Google DeepMind), Olivier Teboul (ex Google Brain), Laurent Mazaré (ex Google DeepMind/Jane Street) et Alexandre Défossez (ex Meta).

Moins de six mois après son immatriculation et trois mois après le début de ses activités, Gradium revendique déjà des outils de synthèse audio ou de transcription vocale en production, notamment au sein de studios de jeu vidéo, ou dans des plateformes linguistiques. « La plateforme accompagne aussi bien les développeurs que les entreprises, de l’accès API pour le prototypage rapide aux déploiements en entreprise pour les charges de travail en production », affirme l’entreprise, qui donne à tester certains de ses modèles sur son site Web et fournit des éléments de documentation technique.

Menée par les fonds Eurazeo et FirstMark Capital, cette levée de fonds associe DST Global Partners, Korelya Capital (Fleur Pellerin), Amplify Partners, Liquid2 et Drysdale Ventures, ainsi que les trois soutiens historiques de Kyutai que sont Niel, Saadé et Schmidt. Yann LeCun (sur le départ de Meta), Olivier Pomel (Datadog), Ilkka Paananen (Supercell), Thomas Wolf (Hugging Face), Guillermo Rauch (Vercel) et Mehdi Ghissassi (ex Deepmind) complètent le tour au rang des business angels.

Gradium propose des modèles de synthèse vocale (text to speech) et de transcription (speech to text)

  •  

Le gouvernement indien impose la préinstallation d’une application sur les smartphones

Modi's eye
Le gouvernement indien impose la préinstallation d’une application sur les smartphones

Le gouvernement Modi veut que les fabricants de smartphones préinstallent son app Sanchar Saathi, présentée comme une app de cybersécurité, notamment contre les fraudes. Le tollé politique pourrait faire reculer l’interdiction initiale de la désinstaller. Quoiqu’il en soit, Apple ne devrait pas se plier à cette demande, que l’entreprise estime créer des problèmes de confidentialité et de sécurité.

Le 28 novembre dernier, le ministre indien des Communications, Jyotiraditya Scindia, a ordonné aux fabricants et importateurs de smartphones destinés à l’Inde d’installer l’application ministérielle Sanchar Saathi, a révélé l’agence de presse Reuters ce 1er décembre.

Une application gouvernementale obligatoire présentée comme anti-fraude

Dans un communiqué publié le même jour, le ministère assure que cette app est pensée « pour lutter contre l’utilisation abusive des ressources de télécommunication à des fins de cyberfraude et garantir la cybersécurité des télécommunications ». L’application est disponible sur Google Play et l’Apple Store indien et se présente comme « visant à autonomiser les abonnés mobiles, à renforcer leur sécurité et à sensibiliser le public aux initiatives citoyennes ».

Cette décision fait pourtant penser à celle prise par la Russie, d’obliger les distributeurs de smartphones à préinstaller le magasin d’applications RuStore et l’application de chat Max.

D’autant que, dans son communiqué, le ministère indien explique que les fabricants et importateurs ne doivent pas seulement préinstaller Sanchar Saathi, ils doivent aussi veiller à ce qu’elle soit « facilement visible et accessible aux utilisateurs finaux lors de la première utilisation ou de la configuration de l’appareil et que ses fonctionnalités ne soient pas désactivées ou restreintes ».

Critiques et marche arrière du ministre

L’information a fait réagir dans le pays dirigé par Narendra Modi. « Ce serait comme vivre dans une dictature moderne », explique par exemple Apar Gupta, fondateur de l’ONG indienne Internet Freedom Foundation interrogé par The Wire.

Face aux critiques, le gouvernement semble faire quelques pas en arrière. Ainsi, The Wire rapporte que Jyotiraditya Scindia a assuré que « vous pouvez activer ou désactiver la surveillance des appels selon votre souhait. Si vous souhaitez la conserver dans votre téléphone, gardez-la. Si vous souhaitez la supprimer, faites-le ».

Dans une autre déclaration, le ministre affirme, toujours selon The Wire, « Si vous ne souhaitez pas utiliser Sanchar Saathi, vous pouvez le supprimer. Il s’agit d’une option facultative… Il s’agit de protéger les clients. Je tiens à dissiper tout malentendu… Il est de notre devoir de présenter cette application à tout le monde. C’est à l’utilisateur de décider s’il souhaite la conserver sur son appareil ou non… Elle peut être supprimée du téléphone portable comme n’importe quelle autre application ». Mais nos confrères indiens soulignent que ces déclarations sont en contradiction avec le communiqué de presse du ministère et avec les demandes envoyées aux fabricants.

Concernant les fabricants justement, Apple ne semble pas décidée à suivre la demande du gouvernement indien. C’est en tout cas ce que plusieurs sources internes ont assuré à Reuters. L’agence de presse explique que l’entreprise à la pomme va répondre à l’exécutif indien qu’elle ne suit nulle part dans le monde ce genre d’obligation, car cela soulève des problèmes liés à la confidentialité et à la sécurité pour iOS.

Rappelons qu’en Russie, Apple a suspendu ses ventes en 2022 suite à l’invasion de l’Ukraine et à l’embargo mis en place. Elle n’a donc pas à se conformer à la nouvelle loi obligeant la préinstallation de RuStore (Apple ne s’est néanmoins pas opposée à l’arrivée de ce magasin d’applications dans l’Apple Store local).

  •  

☕️ OpenAI conclut un nouvel accord financier circulaire

OpenAI a annoncé prendre une participation dans la société de private equity Thrive Holdings, dont la maison mère Thrive Capital est l’un des principaux investisseurs d’OpenAI, aux côtés de SoftBank, Microsoft et Khosla Ventures.

Si la société de Sam Altman n’a pas dépensé d’argent pour obtenir cette participation, d’après le Financial Times, elle a annoncé fournir des employés, des modèles, et divers produits et services aux sociétés de Thrive Holdings.

En échange, OpenAI devrait obtenir l’accès aux données des entreprises qui recourront à ses services, et être rémunéré sur les futurs rendements financiers de Thrive Holdings.

Ce faisant, l’entreprise ajoute un nouvel accord circulaire à la liste de ses contrats à double sens déjà conclus avec AMD, Nvidia et une poignée d’autres acteurs de l’écosystème.

  •  

XChat : la sécurité du chiffrement de bout-en-bout questionne, Proton en profite

Oui, non, peut-être
XChat : la sécurité du chiffrement de bout-en-bout questionne, Proton en profite

Sur X, un échange entre un ingénieur et Proton a remis la sécurité des messages chiffrés du réseau social sur le devant de la scène. Même si la solution adoptée n’est pas aussi simple que l’ingénieur le pensait, elle reste très critiquée.

Au cours des derniers mois, X a diffusé auprès d’un nombre croissant d’utilisateurs sa fonction de messagerie sécurisée Xchat, présentée comme ayant un chiffrement de bout en bout (E2EE).

« Toutes les affirmations sur le chiffrement de bout en bout ne se valent pas »

Ce 1ᵉʳ décembre, Ansgar, chercheur à la fondation Ethereum, a publié un message sur X pour s’en prendre à cette sécurité, qu’il a qualifiée de « ridicule ». Il pointait deux défauts majeurs dans l’implémentation faite par X : la clé privée de chiffrement est stockée sur les serveurs de l’entreprise et les conversations ne sont protégées que par un code PIN à quatre chiffres.

Cette communication a rapidement été reprise par le compte officiel de Proton, avec un message simple : « Malheureusement, toutes les affirmations sur le chiffrement de bout en bout ne se valent pas ». Il enchainait sur la propension des « géants de la tech » à « vendre du vent en matière de confidentialité en prétendant offrir chiffrement et protection de la vie privée, alors qu’en réalité, ils détiennent la clé principale et peuvent accéder à vos contenus ».

Rappelons que l’objectif du chiffrement de bout en bout est de transmettre une information que seul le destinataire pourra lire. Dans une solution E2EE solide, aucun des intermédiaires impliqués dans la transmission de ces données ne peut lire l’information, car seul le destinataire possède la clé privée pour déchiffrer le message. Quand l’un des acteurs dispose de la clé, il a la capacité d’accéder aux informations, brisant la promesse initiale.

Sécurité matérielle, mais code à quatre chiffres

En pratique, c’est un peu plus complexe. Au lancement, X reconnaissait déjà que son implémentation ne disposait pas d’une sécurité persistante, ce qui la rendait plus sensible aux attaques par l’homme du milieu (MITM). Cependant, en réponse à un tweet du chercheur en sécurité Matthew Green, un ingénieur de chez X avait confirmé l’utilisation de serveurs HSM (Hardware Security Modules) pour stocker les clés privées. X se sert de Juicebox (pdf) pour la sécurité des clés, un projet open source divisant les secrets en plusieurs morceaux, stockés par les HSM. Ils ne peuvent être reconstruits qu’avec le code PIN.

Si Ansgar a reconnu dans un premier temps que l’implémentation n’était pas aussi simple qu’il le pensait, elle augmentait la pression sur le code PIN, limité à quatre chiffres et donc sujet aux attaques par force brute. Quatre chiffres, cela ne laisse que 10 000 possibilités, ce qui se casse quasi instantanément s’il n’y a pas de protections supplémentaires.

Dans un autre message avertissant Proton de son changement d’avis, il signalait également que les HSM, qui permettent de faciliter l’utilisation, sont de moins bonnes protections que des clés privées stockées directement chez les utilisateurs. Proton a remercié le chercheur mais assume son message initial, puisque des géants « comme Google, Microsoft, etc » peuvent accéder aux e-mails, fichiers sur le cloud et autres.

Les éléments mis en avant ne sont cependant pas nouveaux. Matthew Garrett, un autre chercheur en sécurité, les avait déjà mentionnés dans un billet de blog daté du 5 juin. D’autres étaient revenus sur la question, par exemple le compte Mysk le 4 septembre pour affirmer que X n’implémentait pas correctement Juicebox.

  •  

IA et ayants droit : Rachida Dati envisage une loi pour encadrer le conflit

Culture vs numérique : the neverending war
IA et ayants droit : Rachida Dati envisage une loi pour encadrer le conflit

Poussée par les différentes organisations d’ayants droit de la culture comme de la presse, la ministre de la Culture Rachida Dati évoque l’idée d’une loi pour encadrer spécifiquement l’utilisation de tous types de contenus par les entreprises d’IA.

Après plusieurs réunions entre les entreprises d’IA et les organisations d’ayants droit, ces dernières sont ressorties déçues et l’ont fait savoir à la ministre de la Culture Rachida Dati. Allant dans leur sens, celle-ci propose maintenant de légiférer, notamment pour imposer un mode de rémunération.

Un cycle de réunions avait été lancé début juin par Rachida Dati et Clara Chappaz (alors ministre déléguée du Numérique) entre, d’un côté, des acteurs de l’IA comme Google, Mistral et OpenAI et de l’autre, quinze organisations d’ayants droit comme la Sacem, la SACD ou encore l’Alliance de la presse d’information générale (APIG) et le Syndicat de la presse indépendante d’information en ligne (Spiil).

Un dialogue peu productif

Mais, selon les Échos, aucune réelle discussion n’a réellement été enclenchée. « La belle idée était illusoire. Pour discuter, il faut être deux », déclarait Pierre Petillault, directeur général de l’Apig, à notre consœur des Echos, déplorant l’absence d’ouverture du côté des entreprises d’IA générative.

Le 18 novembre dernier, les quinze organisations d’ayants droit ont fait part à la ministre de la Culture de leur impatience dans une lettre obtenue par Contexte. « En dépit d’échanges parfois intéressants, ce processus n’a pas permis de dégager des solutions concrètes pour faciliter la négociation d’accords de licences », affirment-elles notamment.

Elles y demandaient à Rachida Dati des « solutions législatives fondées sur les recommandations du rapport du CSPLA [Conseil supérieur de la propriété littéraire et artistique] sur la rémunération des contenus culturels par les systèmes d’IA ». Commandé par son ministère, le rapport est le produit de la mission conduite par Alexandra Bensamoun et Joëlle Farchy, qui a rendu deux volets (une partie économique et une partie juridique) en juillet dernier.

Rachida Dati et des sénateurs de plusieurs partis sur la même longueur d’onde que les ayants droit

Rachida Dati a réagi exactement dans ce sens dans un communiqué de presse ce 28 novembre. Le ministère y juge que les accords qui existent sont « insuffisants pour assurer la juste rémunération des œuvres et contenus utilisés pour l’entraînement des modèles d’IA ». Il lui apparait « dès lors pleinement légitime que les pouvoirs publics envisagent des actions, y compris de nature législative comme celles évoquées dans le cadre des missions conduites au Conseil supérieur de la propriété littéraire et artistique ».

Le ministère explique même envisager la possibilité d’une « inversion de la charge de la preuve » ou d’une « présomption d’utilisation des contenus culturels par les fournisseurs d’IA ». En effet, la partie juridique du rapport du CSPLA [PDF] a proposé une solution pour « réintégrer les titulaires dans leurs droits en l’absence d’une transparence suffisante ». De fait, le rapport propose d’établir une « présomption d’utilisation ou d’exploitation » en se basant sur quelques indices (comme le fait que l’extrait d’un texte soit recraché par l’IA générative incriminée, par exemple).

Selon les Échos, une proposition de loi est aussi envisagée par les sénatrices Agnès Evren (Les Républicains), Laure Darcos (LIOT) et le sénateur Pierre Ouzoulias (PCF) pour un dépôt en décembre.

  •  

☕️ Le Sénat augmente la fiscalité des géants du numérique

Pendant l’examen du projet de loi de finances (PLF) 2026, le Sénat a adopté le 29 novembre deux amendements ajoutant une nouvelle contribution à la taxe sur les services numériques et une nouvelle taxe exceptionnelle.


Déposé par le sénateur centriste Daniel Fargeot, le premier complète la taxe sur les services numériques en y intégrant les « revenus de la publicité ciblée diffusée en France » et les « recettes tirées de la valorisation des données des utilisateurs français, y compris lorsqu’elles ne relèvent pas directement de la publicité ». 


But affiché : s’assurer que la taxe sur les services numériques vise clairement les « entreprises exploitant un service de réseau social en ligne », et pas seulement les services d’intermédiation.

S’ils ont rejeté les amendements qui rehaussaient le taux et le seuil de cette taxe, les sénateurs ont en revanche adopté un amendement reprenant l’idée de « fair share », c’est-à-dire une contribution visant les acteurs qui prennent l’essentiel du trafic internet.

Auteur de la proposition, le sénateur Damien Michallet (LR) y souligne que 5 acteurs (Netflix, l’hébergeur Akamai, Google, Meta et Amazon) génèrent près de 47 % du trafic internet, « dont certains vendent leurs contenus en France en hors taxe ».

Le texte crée une taxe de 1 % du chiffre d’affaires national HT des « entreprises du secteur des services numériques (…) qui utilisent directement ou indirectement les infrastructures numériques situées sur le territoire national et qui réalisent un chiffre d’affaires mondial consolidé supérieur à 750 millions d’euros et un chiffre d’affaire en France supérieur à 50 millions d’euros au titre des services numériques ».

Les recettes associées doivent contribuer au financement des infrastructures, une demande historique de l’industrie des télécoms. Le ministre de l’Économie Roland Lescure a souligné que ces sujets nécessitaient d’être travaillés au niveau européen.

  •  

☕️ FreeBSD 15.0 se modernise et permet les builds reproductibles

L’équipe de FreeBSD vient d’annoncer la disponibilité de la version finale pour la quinzième édition majeure du système Unix.

La plupart des évolutions sont largement liées à la modernisation générale des paquets. On trouve cependant plusieurs améliorations notables, dont une génération des artefacts (images d’installations, de machines virtuelles et autres) sans requérir de droits administrateur. On peut également voir une implémentation native d’inotify, ou encore le passage à la version 2.4.0-rc4 de ZFS.

FreeBSD 15 introduit surtout deux changements majeurs. D’abord, l’introduction d’une nouvelle méthode pour l’installation et la gestion du système, basée sur le gestionnaire de paquets pkg. Lors de l’installation, les utilisateurs peuvent choisir entre la nouvelle méthode et l’ancienne (distribution sets). L’équipe précise cependant que cette dernière sera supprimée avec FreeBSD 16.

L’autre grande nouveauté est l’arrivée des builds reproductibles. Aussi appelée compilation déterministe, cette méthode permet de s’assurer que le code binaire pourra être reproduit par d’autres personnes. Il s’agit d’une étape importante pour la confiance, car la conséquence principale est que les utilisateurs peuvent s’assurer notamment que les images fournies par l’équipe sont bien ce qu’elles prétendent être et correspondent aux sources.

Signalons également une progression significative du support des ordinateurs portables par le système grâce à l’initiative FreeBSD-on-laptops, surtout pour le matériel Wi-Fi et graphique.

  •  

Comment David Sacks cultive ses intérêts depuis le haut de l’administration états-unienne

Faites comme chez vous
Comment David Sacks cultive ses intérêts depuis le haut de l’administration états-unienne

Les liens que l’investisseur David Sacks maintient avec l’industrie technologique interrogent, alors que son pouvoir au sein de l’administration Trump s’étend.

Il fait partie de la « PayPal Mafia », il est milliardaire et depuis près d’un an, il tient le poste de « tsar de l’intelligence artificielle et de la crypto » au sein de l’administration des États-Unis en parallèle de son emploi principal au sein du fonds Craft Ventures… Tout va bien pour David Sacks.

Tout, ou presque : ces derniers jours, plusieurs médias américains ont publié des enquêtes sur un décret relatif à l’intelligence artificielle susceptible d’être pris par Donald Trump, et sur son principal instigateur, le fameux David Sacks. Car depuis quelques semaines, la rumeur enfle dans les couloirs de la Maison Blanche : Donald Trump pourrait signer un executive order qui empêcherait les États de passer leurs propres lois sur l’IA, la hissant mécaniquement parmi les attributions fédérales.

The Verge a obtenu le brouillon du texte. Dans la mesure où plus grand-chose ne filtre de la Maison Blanche sous la présidence actuelle, une telle fuite pourrait signifier que « quelqu’un au sein de l’administration méprise profondément David Sacks », estime la journaliste Tina Nguyen.

Elle braque en tout cas les projecteurs sur un individu qui, à l’instar d’Elon Musk lorsqu’il était à la tête du « ministère de l’Efficacité gouvernementale » (DOGE) récemment enterré, a obtenu un pouvoir important sans être élu ni nommé par les canaux habituels. Outre être un capital-risqueur influent dans la Silicon Valley, David Sacks est en effet devenu le conseiller spécial de Donald Trump sur tout ce qui touche à l’IA et à l’industrie des crypto. Et l’executive order, s’il était signé, lui donnerait encore plus de pouvoir.

Un décret anti-lois régionales sur l’IA

Si le décret était signé par le président des États-Unis, il créerait un « groupe de travail sur les contentieux relatifs à l’IA » dont la « seule responsabilité » consisterait à défier les lois étatiques sur l’IA. Autrement dit, l’équipe ainsi constituée obtiendrait le droit de poursuivre des états comme la Californie ou le Colorado, pour leurs récents textes portant respectivement sur l’ « AI safety » et contre la « discrimination algorithmique ».

Alors que Trump a répété à plusieurs reprises que son souhait de passer un moratoire sur les lois étatiques sur l’IA faisait partie intégrante de son combat contre l’ « idéologie woke », le brouillon d’executive order range la loi californienne dans la catégorie des « risques existentiels » (à comprendre ici comme : risque de freiner la course à l’IA). Surtout, le texte est parsemé de mentions selon lesquels la task force aurait à consulter ou rendre des comptes au conseiller spécial du gouvernement sur l’IA et les cryptos, David Sacks.

Cela dit, l’executive order n’est pas le seul élément incitant à suivre le parcours du financier. Pour la newsletter spécialisée Hard Reset, un signal faible a aussi été émis le 24 novembre, lorsque l’investisseur a écrit sur X : « D’après le Wall Street Journal du jour, les investissements liés à l’IA représentent la moitié de la croissance du PIB. Un renversement de tendance risquerait d’entraîner une récession. Nous ne pouvons pas nous permettre de faire marche arrière. »

Liens étroits avec l’industrie de l’IA

Alors que divers internautes établissent un parallèle entre la situation des sociétés d’IA et celles des banques sauvées par les États lors de la crise financière de 2008, le commentaire de David Sacks a soulevé diverses interrogations sur les bénéfices qu’il retirait concrètement du développement de l’IA et des cryptos aux États-Unis.

Si l’investisseur peut se maintenir conseiller sur l’IA et les cryptos, c’est parce que lui et son entreprise Craft Ventures ont vendu l’essentiel de leurs investissements dans les deux domaines. Fondée en 2017, Craft Ventures a investi dans des centaines de start-ups, dont certaines montées par des amis de David Sacks et ses collègues. En 2020, il créait le podcast All-Ins avec trois collègues investisseurs, avant de devenir l’un des acteurs clés du tournant républicain de la tech en versant un million de dollars à un comité d’action politique de soutien à J.D. Vance.

Depuis son accession à son poste actuel, début 2025, David Sacks a maintes fois répété être nouvellement indépendant des industries de l’IA et des crypto, affirmation théoriquement confirmée par ses déclarations financières et par l’évaluation par les services juridiques de la Maison Blanche. Le New-York Times rapporte pourtant que l’investisseur aurait 708 investissements dans des sociétés de la tech. 449 d’entre elles auraient soit un lien avec l’intelligence artificielle, soit seraient aidées au moins indirectement par les politiques défendues par David Sacks.

Le média constate par ailleurs que David Sacks a profité de son exposition nationale et internationale pour augmenter significativement le public de « All-In », qui enregistre 6 millions de téléchargements par mois et constitue un business à part entière. Surtout, l’investisseur a largement ouvert l’accès à l’administration des États-Unis à ses diverses relations, dont l’une des plus importantes est Jensen Huang, patron de NVIDIA.

Dans diverses réunions politiques, David Sacks s’est fait son porte-parole, argumentant en faveur de licences d’exportation pour NVIDIA malgré les inquiétudes que celles-ci pouvaient constituer en matière de sécurité nationale. Il s’est aussi rendu jusqu’aux Émirats Arabes Unis, pour signer un contrat portant sur 500 000 puces américaines – un tel volume que de nombreux membres de la Maison Blanche se sont inquiétés des implications géopolitiques, dans la mesure où la Chine est un allié proche des Émirats.

« Les techbros sont hors de contrôle » et le cas de David Sacks l’illustre parfaitement, a déclaré au New-York Times Steve Bannon. Grand critique des acteurs de la Silicon Valley, ce dernier est aussi l’ancien conseiller de Donald Trump.

  •  

☕️ Le noyau Linux 6.18 est disponible, dernière grande version de l’année

Le monde Linux finit l’année avec une nouvelle version majeure du noyau riche en nouveautés. Selon Phoronix, elle affiche de bonnes performances, ne semble pas contenir de régression par rapport au noyau 6.17 et semble avoir tout ce qu’il faut pour devenir la nouvelle mouture LTS (Long Term Support).

Comme toujours, les améliorations concernent pour beaucoup le support du matériel, mais pas seulement. Plusieurs améliorations de performances sont présentes, notamment pour le swap, lors de la réception des paquets UDP ou encore de l’allocation de la mémoire. On y trouve également le support du chiffrement PSP pour les connexions TCP, la prise en charge de la fonction Secure AVIC d’AMD ainsi que des améliorations dans celle d’Ext4. On note aussi l’apparition du pilote Rust Binder.

Photographie de Long Ma pour Unsplash
Long Ma pour Unsplash

Le noyau 6.18 contient aussi plusieurs améliorations liées à la sécurité. Il supporte par exemple le sous-système d’audit pour gérer plusieurs modules de sécurité en même temps, ou encore la signature des programmes BPF.

La nouvelle version supprime également le support de Bcachefs. Ce système de fichiers était pris en charge par le noyau Linux depuis sa version 6.7. De type copy-on-write, il avait été pensé par son développeur principal, Kent Overstreet, comme une alternative à d’autres systèmes de fichiers modernes comme ZFS ou Btrfs. Mais en juin dernier, arguant de violations répétées d’Overstreet aux règles de maintenance du noyau, Linus Torvalds a fait passer le statut de Bcachefs de « Supporté » à « Maintenu extérieurement ».

Comme toujours, la récupération du nouveau noyau dépend essentiellement de la distribution utilisée. Si vous utilisez un système « classique » comme Ubuntu, Fedora ou autre, vous resterez probablement sur la version déjà utilisée. Dans le cas d’une rolling release, les chances sont beaucoup plus élevées.

  •  

☕️ Apple veut se (re)relancer dans l’IA et recrute Amar Subramanya (ex Google et Microsoft)

En 2018, John Giannandrea prenait la tête du développement de Siri et l’IA. Apple l’avait débauché de chez Google. Six ans plus tard, la marque à la Pomme est largement à la traine sur l’intelligence artificielle.

Dans un communiqué, Apple annonce « que John Giannandrea, vice-président sénior de l’apprentissage automatique et de la stratégie IA chez Apple, quitte son poste et restera conseiller pour l’entreprise avant de prendre sa retraite au printemps 2026 ».

Dans la foulée, l’entreprise annonce qu’Amar Subramanya arrive et prend la place de vice-président de l’IA, sous la responsabilité de Craig Federighi (vice-président sénior de l’ingénierie logicielle). Le nouveau venu est un poids lourd du domaine : il a passé 16 ans chez Google et DeepMind (il s’est notamment occupé de Gemini), puis six mois comme vice-président de l’IA chez Microsoft.

Illustration de Flock représentant l'application Siri sous forme d'oeuf en gestation nourri par le logo apple via un cordon ombilical.

En mars dernier, Mark Gurman de Bloomberg expliquait que « Tim Cook avait perdu confiance dans la capacité du responsable de l’IA, John Giannandrea, à diriger le développement des produits, il déplaçait donc un autre cadre supérieur : Mike Rockwell, le créateur du Vision Pro ».

Dans le communiqué du jour, le même Tim Cook se dit « reconnaissant pour le rôle que John a joué dans la construction et l’avancement de notre travail en IA ». Il affirme qu’il a « joué un rôle clé dans la stratégie d’IA »… mais on se demande si c’est une bonne ou une mauvaise nouvelle étant donné l’état de l’IA chez Apple vis-à-vis de ses concurrents.

Amar Subramanya s’occupera notamment des modèles Apple Foundation, de la recherche en machine learning, de la sécurité et de l’évaluation de l’IA.

  •  

Cancers : aux USA, des datacenters accusés d’amplifier l’exposition aux nitrates

Données nitratées
Cancers : aux USA, des datacenters accusés d’amplifier l’exposition aux nitrates

Le comté de Morrow, dans l’Oregon, accueille d’immenses fermes et des usines agroalimentaires, mais aussi plusieurs centres de données de très grande taille (hyperscales) d’Amazon. Pour certains experts, ce mélange mène à un taux très élevé de nitrate dans l’eau potable, avec des effets délétères sur la santé humaine.

Éleveur de bétail, ancien commissaire du comté, Jim Doherty n’était initialement pas tellement intéressé par les problématiques d’eau. C’est l’accumulation de récits de maladies étranges et d’interruptions spontanées de grossesses, depuis son élection au comité de commissaires en 2016, qui lui a mis la puce à l’oreille : les habitants liaient ces enjeux à la qualité de l’eau potable.

Dans le comté et autour, 45 000 personnes tirent leur eau du bassin inférieur de l’Umatilla. D’après les relevés du ministère de la qualité environnementale de l’Oregon, la qualité de son eau se dégrade régulièrement depuis 1991, à mesure que la concentration en nitrates y augmente.

Si, en France, l’essentiel des centres de données sont refroidis en circuit fermé, aux États-Unis la technique la plus courante consiste à utiliser de l’eau en circuit ouvert. Par ailleurs, depuis 2022, deux tiers des centres de données nouvellement construits le sont dans des zones subissant déjà des stress hydriques. Dans le comté de Morrow, cela dit, ce ne sont pas les conflits d’usage qui posent problème, mais bien la pollution de l’eau : certains nitrates et nitrites présentent des risques cancérogènes (notamment de cancer colorectal) et génotoxiques pour l’être humain, ce qui explique que l’Agence nationale de sécurité sanitaire (Anses) recommande à la population française d’en limiter la consommation.

Depuis l’installation de son premier data center de près de 1 000 mètres carrés dans le comté de Morrow, en 2011, Amazon en a créé sept autres dans la région, et a obtenu des accords pour en construire cinq autres. Soutenus par un abattement fiscal de 15 ans octroyé pour chaque hyperscale, ces centres de données démultiplieraient la pollution de l’aquifère qui approvisionne les populations, d’après une enquête de Rolling Stones.

Reins en moins et interruptions de grossesse

En 2022, Jim Dohertey a mené ses propres tests : sur six premiers échantillons d’eau potable prélevée dans six foyers choisis au hasard, les six présentaient une concentration de nitrate beaucoup plus élevée que celle autorisée au niveau fédéral. Le commissaire a reproduit l’expérience avec 70 échantillons supplémentaires, pour constater que 68 d’entre eux présentaient des concentrations trop fortes, souvent proches de quatre fois celle autorisée.

Accompagné par un représentant du bureau local de la santé, Jim Doherty a sonné aux portes pour demander si des membres des foyers présentaient certaines des problématiques liées à la surexposition au nitrate. Auprès du magazine, le commissaire indique que sur les 30 premières visites, 25 se sont traduites par des déclarations d’interruptions spontanées de grossesses et au moins six comptaient une personne vivant avec un seul rein.

Accélération de la concentration en nitrates

Depuis près de trente ans, la pollution de l’eau s’accroît à force de rejets dans la nature d’eau pleine du nitrate issu des engrais des mégafermes installées dans la région. Depuis quinze ans, l’ajout des centres de données accélérerait la problématique : en pratique, les hyperscales d’Amazon pompent des millions de litres d’eau de l’aquifère chaque année, qu’ils redirigent ensuite vers les bassins d’eaux usées déjà traitées par le port de Morrow.

Historiquement, le port s’occupe d’en extraire les résidus solides, de brûler le méthane, puis de rediriger vers les plantations les eaux riches en azote qui, au contact du sol, produiront du nitrate. Avant même l’arrivée des centres de données, cela dit, les plantes peinaient à absorber tout le nitrate, et l’excédent était absorbé par les sols puis par l’aquifère du sous-sol. Divers experts interrogés par Rolling Stones estiment que l’arrivée des centres de données d’Amazon a aggravé cette logique de concentration de nitrate, puis de pollution via les rejets dans les champs.

Les centres de données consomment en effet eux aussi des eaux pleines de nitrates pour refroidir leurs serveurs. Par l’évaporation provoquée par la chaleur des équipements, les relevés de certains centres ont constaté des concentrations de l’ordre de 56 ppm, soit huit fois la limite de sécurité établie par l’État de l’Oregon. Or, en bout de course, cette eau rejoint elle aussi les bassins d’eaux usées, accélère la concentration globale en nitrate, puis, par le jeu des arrosages dans les champs, celle du stock d’eau potable.

Amazon se défend d’avoir un rôle dans l’affaire : sa porte-parole Lisa Levandowski indique que l’entreprise n’utilise aucun additif à base de nitrates, et que « le volume d’eau utilisé et rejeté par nos installations ne représente qu’une infime partie du réseau d’approvisionnement en eau », donc a un impact insignifiant sur le circuit du comté.

Sur place, une partie de la population pense le contraire. La directrice du groupe de défense des droits liés à l’eau Oregon Rural Action, Kristine Octrom, souligne notamment l’écart de pouvoir entre les différentes industries et sociétés concernées dans la production et la concentration de nitrates dans l’eau et celle des populations impactées.

  •  

☕️ Asterion rachète le datacenter de Covilhã à Altice Portugal pour 120 millions d’euros

Empêtré dans sa colossale dette, même si Patrick Drahi repousse toujours les échéances, Altice n’en finit pas de vendre certaines de ses activités. Après le centre d’appels Intelcia au Maroc, c’est au tour du datacenter de Covilhã au Portugal d’être cédé pour 120 millions d’euros à Asterion, comme le rapporte Alloforfait. Il se trouve à environ 200 km de Porto et de Lisbonne.

Asterion Industrial Partners, se présente comme « une société d’investissement indépendante spécialisée dans les infrastructures de taille intermédiaire en Europe ». La transaction devrait être finalisée au premier trimestre, une fois les autorisations réglementaires obtenues.

Covilhã Data Center Campus
Covilhã Data Center Campus. Source : Asterion

Selon le communiqué, le datacenter « offre actuellement une capacité installée de 6,8 MW, mais une architecture modulaire permet une extension significative. Le datacenter peut accueillir jusqu’à 75 MW de plus grâce à de nouveaux modules au sein du campus existant, et il est également possible d’atteindre environ 175 MW sur un terrain adjacent bénéficiant d’une alimentation électrique déjà sécurisée ».

Comme lors de la vente des datacenters de SFR à UltraEdge pour 764 millions d’euros en juin 2024, « Altice restera le locataire principal dans le cadre d’un accord de services à long terme ».

La vente de l’opérateur SFR (Altice France) est pour rappel discutée avec ses trois concurrents, Bouygues Telecom, Free et Orange.

  •  

Nouvelle fuite de données chez France Travail, 1,6 million de comptes concernés

Bis repetita placent
Nouvelle fuite de données chez France Travail, 1,6 million de comptes concernés

France Travail a indiqué lundi 1ᵉʳ décembre avoir été victime d’un acte de cyber malveillance ayant entraîné une fuite de données personnelles. En l’occurrence, ce sont les informations relatives à environ 1,6 million de jeunes suivis par le réseau des Missions Locales (antennes dédiées à l’insertion faisant partie du service public de l’emploi) qui sont concernées, soit parce qu’ils étaient inscrits à France Travail, soit parce qu’ils s’étaient vu prescrire une formation via l’outil Ouiform opéré par France Travail.

1,6 million de comptes de jeunes inscrits à la mission locale

Le jeu de données exfiltrées comprend des informations complètes d’état civil : nom et prénom, date de naissance, numéro de sécurité sociale, identifiant France Travail, adresses mail et postale et numéros de téléphone, indiquent France Travail et le réseau des Missions Locales dans un communiqué commun. « Aucun mot de passe ni aucune coordonnée bancaire n’ont été extraits », ajoutent les deux organismes.

D’après les premières investigations, c’est par l’intermédiaire du compte d’un agent d’une mission locale que l’intrusion aurait été réalisée. En tant que responsable gestion de compte (RGC), ce dernier était en mesure de traiter les demandes d’habilitation de ses collègues (et donc d’autres comptes utilisateurs) au système d’information partagé mis en place par France Travail pour faciliter la collaboration avec des organismes tiers.

France Travail et l’UNML (Union nationale des missions locales) « appellent à la vigilance »

« En utilisant les droits du compte compromis, l’attaquant a pu créer deux nouveaux comptes via le service ProConnect, donnant ensuite l’accès aux outils métier permettant la consultation des dossiers des jeunes accompagnés », décrit France Travail, qui affirme que les trois comptes concernés ont été suspendus, et assure faire son maximum pour concilier ouverture et protection des données personnelles.

Ouverture contre sécurité

« Avec l’ouverture de son système d’information aux partenaires dans le cadre de la loi pour le plein emploi, France Travail avait déjà mis en place la double authentification systématique de tous les collaborateurs de ses partenaires et rendu obligatoire une formation pour tous les RGC. L’accès au SI de France Travail est en outre conditionné à la réussite d’une évaluation à l’issue de cette formation. France Travail va désormais aller plus loin en mettant en place une sensibilisation obligatoire à renouveler tous les 6 mois pour tous les collaborateurs de nos partenaires qui conditionnera leur accès au système d’information. »

France Travail affirme par ailleurs collaborer avec la Direction interministérielle du numérique (Dinum) « pour renforcer l’identification via Proconnect et l’enrôlement des comptes de tiers par le SI France Travail ». En attendant, la prudence est donc de mise pour les jeunes en recherche d’emploi passés par la mission locale la plus proche de chez eux : le périmètre des données exposées autorise en effet des scénarios avancés de phishing ou d’usurpation d’identité.

Quatrième vol de données en deux ans

Ce nouvel incident ne redorera pas le blason d’un service public de l’emploi déjà largement terni en matière de fuites de données. Rappelons que le service dédié aux demandeurs d’emploi a été victime, début 2024, d’une fuite de données massive qui avait conduit à l’exposition des informations relatives à quelque 43 millions d’inscrits. La portée réelle de l’intrusion avait toutefois été relativisée par la suite.

Depuis, France Travail a dû communiquer sur une fuite affectant 340 000 dossiers en juillet, survenue par l’intermédiaire d’un portail dédié à ses partenaires, puis sur un nouvel incident fin octobre, qui pourrait concerner jusqu’à 31 000 personnes.

  •