Vue normale

La France lance JUNN, un socle national pour des jumeaux numériques de territoire

16 avril 2026 à 15:05
Si ce n'est toi, c'est donc ton frère
La France lance JUNN, un socle national pour des jumeaux numériques de territoire

L’IGN, le Cerema et Inria vont assurer la mise en route d’un projet visant à créer, d’ici trois ans, un socle technique adapté à la création d’un jumeau numérique national (JUNN) des territoires. Il doit permettre aux acteurs du public comme du privé de simuler l’évolution de ces territoires, notamment au regard du changement climatique, et de construire des outils décisionnels innovants.

Un consortium de 14 partenaires copiloté par l’IGN, le Cerema (pour Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement) et Inria va s’attacher à développer un socle technique « commun et souverain » dédié à la création de jumeaux numériques de territoire. En pratique ?

Un socle pour relier les jumeaux numériques existants

Il s’agit d’assembler les différentes briques nécessaires à la création d’un service dans lequel il sera possible de reproduire les caractéristiques d’un territoire (une rue, une ville, les rives d’un cours d’eau…) pour ensuite tester des scénarios d’évolution, au sein de cette réplique virtuelle, à des fins d’aide à la décision.

« Un jumeau numérique de territoires peut par exemple simuler les conséquences d’une crue centennale sur un territoire, en tenant compte de l’évolution du climat. Il peut également simuler des scénarios d’aménagement et leurs conséquences sur le trafic routier », illustrent les porteurs de projet dans un dossier de presse.


Il existe déjà de nombreux projets de jumeau numérique de territoires en France, à l’échelle de métropoles (Rennes, Lille, Lyon, Angers, Brest, Aix-Marseille et d’autres), ou de zones spécifiques (l’estuaire de la Gironde), mais il manquait un cadre et un outillage permettant de faire communiquer les différents projets, et donc de mutualiser à la fois les données, les développements techniques et les initiatives.

C’est à cette ambition que veut répondre le projet JUNN, pour jumeau numérique national, dont le coup d’envoi officiel a été donné le 13 avril dernier, avec l’annonce d’un financement de 25 millions d’euros consenti dans le cadre du plan France 2030, sur un budget prévisionnel fixé à 40 millions d’euros.

L’initiative, dont le site dédié a été mis en ligne, associe donc 14 premiers partenaires au premier rang desquels les établissements publics spécialisés dans la gestion de la donnée. L’IGN apporte sa « maîtrise de la production et de la gouvernance des données pour décrire le territoire », tandis que Inria, Géodata Paris et GeometryFactory « fondent les briques scientifiques et technologiques des modèles 3D et temporels, des graphes de connaissances, de l’IA ou encore des interactions avancées ».

Le Cerema a quant à lui vocation à structurer les cas d’usage et les interfaces. Enfin, plusieurs acteurs privés sont partie prenante du projet, dont 1Spatial, éditeur de solutions de gestion de données géospatiales, qui aura la charge de l’intégration et de l’industrialisation de ce nouveau socle commun.

Une exploitation opérationnelle visée sous trois ans

Le site dédié ne donne pas d’information précise sur la structure technique du projet. On trouve cependant des éléments relatifs à la vision cible développée par les porteurs dans un document de présentation (PDF) préalable, daté de janvier 2025, qui donne une idée de l’architecture retenue.

Issu d’un document de préfiguration, ce schéma dessine la vision cible du projet

Le calendrier annoncé au lancement évoque quant à lui un objectif à trois ans. La première année doit permettre la mise en place des outils techniques, la production des premiers jeux de données 3D et la réalisation des premiers cas d’usage ou démonstrateurs. Les Alpes-Maritimes, la Charente-Maritime, la Gironde et l’Ille-et-Vilaine feront à ce titre l’objet de territoires pilotes.

Le socle tel qu’il était envisagé en 2025 couvrait un large périmètre fonctionnel

Les deux années suivantes doivent quant à elles permettre l’émergence ou la connexion d’applications destinées à des usages réels. Au terme de ces trois ans débutera la phase d’exploitation opérationnelle. C’est en principe de la réussite de cette dernière que dépendra l’avenir du jumeau numérique national, puisque le consortium JUNN est censé parvenir à définir « un modèle économique pérenne pour l’exploitation des ressources et des infrastructures technologiques développées ».

Accusés de boycott de contenus politiques, les grands noms de la pub transigent avec la FTC

16 avril 2026 à 09:49
Breitbart et X aiment ce message
Accusés de boycott de contenus politiques, les grands noms de la pub transigent avec la FTC

L’autorité états-unienne de la concurrence (FTC) a négocié un accord avec les trois plus grandes agences de publicité au monde, pour contraindre ces dernières à ne plus coordonner l’exclusion de certains médias ou plateformes au nom de la désinformation. La FTC, qui dans son action évoque spécifiquement le cas du média d’extrême-droite Breitbart, prend le contrepied de la justice texane, qui a refusé de donner suite à la plainte formulée par X sur le même sujet.

Les annonceurs sont libres de choisir la façon dont ils flèchent leurs achats média, mais les agences publicitaires auxquels ils confient leurs budgets n’ont plus le droit, aux États-Unis, de s’entendre pour écarter certains journaux ou certaines plateformes au nom de la désinformation. WPP, le français Publicis et Dentsu, trois des plus grandes agences au monde, viennent de passer un accord en ce sens avec la FTC, l’autorité états-unienne de la concurrence.

Annoncé par voie de communiqué, cet accord fait suite au dépôt, mercredi 15 avril, d’une plainte (PDF) de la FTC dénonçant la façon dont ces agences se seraient alliées pour démonétiser certains sites pour des raisons politiques, en invoquant l’argument de la désinformation. Plutôt que de défendre leur cause en justice, les trois agences ont donc immédiatement accepté de passer un accord avec la FTC, sous la forme d’un consent decree (décret de consentement) qui prendra force de loi une fois ratifié par un juge.

Une alliance contre les médias conservateurs selon la FTC

Andrew N. Ferguson, président de la FTC, se réjouit de cet accord qui, d’après lui, met un terme à la façon dont les grands noms de la pub « complotent » au nom de la brand safety. Cette « défense de marque » représente pour mémoire l’idée selon laquelle une agence d’achat média cherche à qualifier les éditeurs chez qui elle prend des espaces, pour éviter que les publicités de ses clients se retrouvent à côté de contenus jugés inappropriés (terrorisme, pornographie, escroqueries…).

La brand safety peut aussi dans certains cas prendre des accents politiques : en France, le phénomène s’incarne par exemple au travers du chapitre local du collectif Sleeping Giants, qui interpelle publiquement les annonceurs accusés de financer des discours de haine, notamment parce qu’ils achètent des espaces publicitaires sur Cnews.

C’est bien ce volet politique qui motive l’action de la FTC. « Cette collusion illégale a non seulement nui à notre marché, mais a également faussé le marché des idées en discriminant les discours et les idées qui ne respectaient pas un seuil illégalement convenu », écrit ainsi Andrew Ferguson. Nommé à la tête du gendarme de la concurrence fin 2024 par Donald Trump, il avait explicitement annoncé qu’il s’en prendrait aux acteurs suspectés de pratiques anticoncurrentielles en vue d’interférer avec la liberté d’expression.

La plainte illustre les accusations formulées par la FTC avec le cas précis du média d’extrême-droite Breitbart, qui aurait fait l’objet d’une volonté explicite de démonétisation orchestrée par la Global Alliance for Responsible Media (GARM, ou alliance mondiale pour des médias responsables), une émanation de la Fédération mondiale des annonceurs (WFA), créée dans la foulée de l’attentat de Christchurch, en Nouvelle-Zélande, pour travailler sur les questions de brand safety.

La plainte rapporte l’incident lié à Breitbart de la façon suivante :

« En novembre 2021, le responsable de l’initiative GARM avait suggéré d’inclure les contenus « délibérément trompeurs » dans la catégorie « désinformation afin de priver spécifiquement le site conservateur Breitbart de revenus publicitaires. Il avait expliqué à un exécutif de GroupM/WPP : "L’exemple de la manière dont Breitbart peut utiliser les faits de manière sélective pour induire en erreur était un exemple donné" pour illustrer la nécessité d’amender la définition par le GARM du terme "désinformation."  »

Elle ajoute qu’en parallèle de cette nouvelle formulation, « des éditeurs conservateurs identifiés comme publiant ce que le seuil de brand safety définissait comme de la « désinformation » ont subi des baisses spectaculaires de leurs ventes d’espaces publicitaires numériques ».

X également concerné au premier chef

L’ex-Twitter n’est mentionné qu’à la marge de la plainte de la FTC. Le réseau social d’Elon Musk a pourtant lui aussi maille à partir avec la GARM. En août 2024, X a ainsi déposé plainte contre les géants de la publicité pour pratiques anticoncurrentielles. La plateforme estimait alors que l’alliance des agences avait agi en sous-main pour assécher ses recettes publicitaires.

Beaucoup d’annonceurs se sont effectivement détournés de X suite à la reprise du réseau social par Elon Musk, en invoquant la prolifération de contenus inappropriés, mais les agences publicitaires ont toujours nié s’être accordées pour enclencher ou favoriser un tel mouvement. La GARM a tout de même annoncé sa dissolution trois jours après le dépôt de la plainte de X, affirmant n’être qu’une petite association aux moyens bien insuffisants pour faire face à une telle procédure.

L’affaire a tout de même suivi son cours en justice, la WFA ayant elle aussi été poursuivie aux côtés de la défunte GFAM, avec une issue qui s’est finalement révélée défavorable à X. Un rapport de la Commission judiciaire de la Chambre des représentants des États-Unis (House Judiciary Committee) avait pourtant lui aussi dénoncé l’influence de la GARM sur les revenus publicitaires de Twitter en juin 2025.

Dans son jugement rendu le 26 mars 2026 (PDF), la juge Jane Boyle a en effet statué que X n’avait pas apporté la preuve d’un quelconque préjudice pouvant être imputé à une action concertée des agences de publicité. Dit autrement, si les annonceurs se sont détournés de X, c’est de leur propre chef, a estimé la juge.

Toujours très prolixe sur son réseau social, Elon Musk n’a pour l’instant pas commenté l’annonce de cet accord qui lui permet finalement d’obtenir gain de cause, même si c’est de façon indirecte.

La FTC indique que Omnicom et IPG, les deux grandes agences états-uniennes d’achat média engagées dans un processus de fusion, devraient elle aussi signer cet accord. En juin 2025, l’autorité avait explicitement (PDF) conditionné son accord au projet de fusion à un assouplissement des règles en matière de brand safety.

☕️ La vidéo virale du paiement sur iPhone verrouillé ? Une faille de 2021 quasi inexploitable

16 avril 2026 à 06:11


Avec un million de vues en moins de dix heures, et déjà des milliers de partages et d’extraits sur les réseaux sociaux, la dernière vidéo de la chaîne scientifique Veritasium (20,6 millions d’abonnés) est partie pour faire un véritable carton. Il faut dire que son titre est efficace : « Pouvez-vous voler 10 000 dollars à partir d’un iPhone verrouillé ? ».

Pour faire bonne mesure, Veritasium s’est adjoint les services d’une autre vedette de YouTube, le vidéaste tech Marques Brownlee (20,9 millions d’abonnés). C’est l’iPhone personnel de ce dernier qui sert de cobaye pour cette vidéo de 26 minutes pendant laquelle Verisatium illustre, puis explique, comment il est possible, dans un environnement très contrôlé, de forcer un paiement à partir d’un iPhone verrouillé.

L’opération est réalisée deux fois, avec des paiements de respectivement 5 et 10 000 dollars, qui sont effectivement validés avec le petit signal sonore caractéristique des transactions sans contact sur iPhone. Outre sa production haut de gamme, la vidéo est extrêmement didactique : elle explique en effet dans le détail comment le hack a pu être réalisé.

Et pour cause : Veritasium met en scène ici une faille de sécurité découverte en 2021 et largement documentée depuis. Portée au crédit de chercheurs des universités britanniques de Birmingham et du Surrey, elle exploite une vulnérabilité qui affecte Apple Pay quand une carte Visa est configurée en mode Express Transit, c’est-à-dire la validation automatique de la transaction pour passer les portiques d’un transport en commun, telle qu’elle est déployée par exemple, dans le métro londonien.


L’attaque, de type man in the middle, consiste à faire croire à l’iPhone de la victime que ce dernier communique avec un portique de contrôle, pour faire disparaître l’étape de la validation du paiement. Pour ce faire, il faut être équipé d’un iPhone avec une carte Visa en mode Express Transit et enregistrée dans le Wallet, d’un Proxmark utilisé comme émulateur de lecteur, d’un smartphone Android équipé d’une puce NFC. Il faut enfin que l’iPhone, qui peut effectivement rester verrouillé, soit au contact d’un terminal de paiement NFC, lui-même connecté à un ordinateur chargé de faire tourner le script qui génère le code nécessaire à la manœuvre.

Bref, des images impressionnantes et une vulnérabilité avérée, mais une mise en œuvre particulièrement complexe, qui rend le scénario d’une exploitation en conditions réelles assez peu plausible. « Il s’agit d’un problème avec le système Visa, mais Visa ne pense pas que ce type de fraude puisse avoir lieu dans le monde réel, étant donné les multiples couches de sécurité en place. Dans le cas peu probable où un paiement non autorisé aurait lieu, Visa a clairement indiqué que les porteurs de cartes seraient protégés », commentait à ce sujet Apple en 2021. Visa et Apple maintiennent ce même discours en 2026 en réponse à Veritasium.

Rappelons que les consommateurs victimes d’une fraude au paiement sans contact ont jusqu’à 13 mois après le débit des sommes pour demander à leur banque le remboursement de ces dernières, quel que soit le prestataire de carte bancaire impliqué.

Pixels de suivi dans les emails : la Cnil demande une mise en conformité sous trois mois

15 avril 2026 à 15:53
On ne dit pas pixel espion mais pixel de suivi
Pixels de suivi dans les emails : la Cnil demande une mise en conformité sous trois mois

La Cnil vient de publier une recommandation en forme de piqure de rappel ou de clarification à destination des professionnels de l’email marketing : l’intégration aux courriers électroniques d’un pixel de suivi, ou pixel de tracking, obéit à des règles strictes et ne peut se faire sans consentement préalable que pour des finalités bien précises. Les acteurs concernés ont en théorie trois mois pour obtenir le consentement de leurs destinataires, ou mettre un terme aux pratiques litigieuses.

Omniprésents sur le Web français, les bandeaux de consentement dédiés aux cookies et aux outils de suivi publicitaires sont entrés dans les mœurs, mais saviez-vous qu’ils ont un équivalent nettement plus discret dans votre messagerie électronique ?

Pour identifier les interactions du destinataire avec leurs envois, les professionnels de l’email marketing ont recours à ce que l’on appelle un pixel de suivi, ou pixel de tracking : une image invisible à l’œil nu associée à un identifiant unique, hébergée sur un serveur distant, et intégrée dans le corps de l’email.

Intérêt de la manœuvre ? Lorsque votre client de messagerie interprète le code de l’email pour vous l’afficher, le pixel en question est appelé depuis le serveur. En consultant ses logs, l’émetteur (ou son prestataire) peut ainsi savoir si vous avez ouvert l’email.

Selon les cas, il peut aussi en profiter pour collecter d’autres informations, comme la date et l’heure d’ouverture, l’adresse IP utilisée, le client de messagerie employé, etc. Des données qui peuvent ensuite être mises à profit pour optimiser l’envoi de campagnes, personnaliser les messages ou travailler le ciblage publicitaire.

Couramment utilisé dans le monde de l’email, le pixel de suivi publicitaire a également été employé sur le Web : pendant longtemps, c’est par exemple un « pixel Facebook » qui servait aux sites média pour connecter leur audience aux outils publicitaires de Meta. Depuis, le pixel a été supplanté par d’autres dispositifs, mais la logique sous-jacente est restée. Et d’un point de vue réglementaire, elle soulève un problème identique, que l’on soit sur le Web ou dans le corps d’un email, selon la Cnil.

Cette dernière estime en effet que dans les deux cas, la transmission d’information et leur collecte constituent « une opération de lecture sur le terminal de l’utilisateur », qui tombe donc sous le coup de l’article 82 de la loi Informatique et Libertés.

Or, c’est précisément cet article 82 qui a contribué à l’émergence des bandeaux de consentement liés aux cookies sur le Web, puisque c’est lui qui impose, sauf exception, de recueillir le consentement de l’utilisateur final avant toute opération d’écriture ou de lecture sur son terminal.

Une recommandation bien tardive

Les professionnels de l’email ont bien intégré la problématique du désabonnement, en partie à cause des pressions et sanctions de la Cnil, mais côté consentement, force est de constater que le sujet est totalement ignoré, alors que la loi française, le RGPD et les dernières lignes directrices européennes font consensus sur le sujet.

Pour combler cette lacune, la Cnil a donc lancé un double processus de consultation (publique et sectorielle) en juin 2025, à l’issue duquel l’Autorité a, enfin, formulé sa recommandation formelle sur le sujet.


Il reste 70% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Fin de support annoncée pour le Fairphone 3, deux ans de sursis offerts avec /e/OS

15 avril 2026 à 09:29


Lancés en 2019, le smartphone Fairphone 3 et sa déclinaison 3 + prendront officiellement leur retraite à compter d’août 2026, a annoncé le constructeur mercredi 15 avril. L’appareil aura donc profité d’un support total de sept ans, supérieur aux cinq années promises initialement par l’entreprise.

« Notre objectif est d’inciter l’ensemble du secteur à concevoir des produits durables, et le Fairphone 3 est la preuve vivante de notre réussite », se réjouit pour l’occasion Chandler Hatton, directeur technique de l’entreprise hollandaise.

Si le support et donc les mises à jour d’Android ne sont plus officiellement garantis, Fairphone souligne qu’il est possible de prolonger, encore, la durée de vie de son Fairphone 3 en se tournant vers les alternatives au système d’exploitation de Google.

Le Fairphone 3 a été lancé en septembre 2019, et aura donc reçu sept ans de support

« Des projets communautaires tels que LineageOS (qui fonctionne actuellement sous Android 15), /e/OS (qui continuera à prendre en charge le Fairphone 3 pendant au moins deux ans) et postmarketOS sont quelques exemples de projets à explorer. Nous publierons également l’ensemble du travail de développement réalisé sur Android 14, dans l’espoir qu’il soit utile aux communautés open source », promet l’entreprise.

Fairphone défend pour mémoire l’idée de smartphones conçus avec une prise en compte maximale des enjeux de réparabilité (avec des pièces détachées en vente directe), de réutilisation ou de recyclage, ainsi que de juste rémunération de la chaîne d’approvisionnement. Le constructeur a depuis rehaussé sa promesse en matière de durabilité.

Le Fairphone 6, lancé en juin 2025 avec un nouveau design axé sur la modularité, promet ainsi huit ans de mises à jour d’Android, (contre sept depuis peu chez Google ou Samsung sur les modèles étendard), et cinq ans de garantie. L’appareil est aujourd’hui affiché à 549 euros en version Android et à 599 euros pour un modèle paramétré avec Murena /e/OS et son « expérience dégooglisée ».

☕️ Raspberry Pi OS 6.2 réintègre un mot de passe par défaut pour les commandes sudo

15 avril 2026 à 07:02


La fondation Raspberry Pi introduit avec la dernière mise à jour de son environnement logiciel une petite nouveauté qui risque de surprendre les utilisateurs : par défaut, Raspberry Pi OS 6.2 réintègre la nécessité d’entrer manuellement le mot de passe d’un compte administrateur lors de l’appel de la commande sudo.

Jusqu’ici, Raspberry OS, désormais basé sur Debian 13 Trixie, laissait l’utilisateur accéder librement à sudo, pour simplifier la gestion et limiter les frictions. Le fait d’adopter ce comportement par défaut soulève cependant un risque de sécurité, puisque tout utilisateur qui arriverait à se connecter à la machine hôte dispose de fait de droits administrateurs.

D’où cette modification, annoncée mardi 14 avril :

« À partir de cette version, si vous utilisez sudo pour accéder aux privilèges d’administrateur, vous devrez saisir votre mot de passe. Dans le terminal, l’invite de mot de passe s’affichera directement, tandis que sur le bureau, une fenêtre de demande de mot de passe apparaîtra. Après avoir saisi votre mot de passe, vous n’aurez plus besoin de le saisir pendant cinq minutes, même si vous effectuez d’autres actions sudo durant ce laps de temps. »

Rapsberry Pi OS modifie le comportement par défaut, mais ceux qui souhaitent continuer à laisser leurs utilisateurs accéder à sudo sans mot de passe peuvent (heureusement) rétablir cette option, soit au moyen du centre de contrôle pour les systèmes dotés d’une interface graphique, soit au travers du fichier raspi-config.

Le centre de contrôle permet de désactiver le mot de passe administrateur

Publiée le 13 avril, la version 6.2 de Raspberry OS introduit également d’autres petites nouveautés. Dans le lot, on peut notamment citer de nouvelles options au sein du centre de contrôle, l’intégration par défaut des plugins uBlock Origin Lite et h264ify dans Chromium, la prise en charge du glisser déposer au niveau du lanceur et l’intégration des mots de passe Chromium au gestionnaire du système. L’OS, qui reste sur le noyau Linux 6.12.75, profite également de quelques corrections de bugs.

Suites bureautiques européennes : la bataille de l’alternative à Microsoft et Google

14 avril 2026 à 15:55
En France, on n'a pas de pétrole, mais on a des suites bureautiques
Suites bureautiques européennes : la bataille de l’alternative à Microsoft et Google

Le concert des suites bureautiques se revendiquant à la fois d’une dimension souveraine et d’un code ouvert ne manque ni de voix, ni d’instruments, mais force est de constater qu’il a bien du mal à chanter à l’unisson ou à faire émerger un ténor. En témoignent les récents démêlés qui entourent le projet Euro-Office, la suite OnlyOffice et la Document Foundation, mais aussi les nombreuses initiatives portées en nom propre par de nouveaux entrants.

Cette fois, c’est officiel, la France affirme avoir fait de la réduction de ses dépendances aux solutions informatiques extra-européennes une priorité stratégique. La feuille de route envisagée par la Direction interministérielle du numérique (Dinum) résistera-t-elle aux échéances électorales de 2027 ? Rien n’est moins sûr, mais en attendant, le secteur du logiciel français et européen semble animé d’un regain d’énergie, qui conduit à une prolifération d’offres de logiciels et de services hébergés se revendiquant du titre de « suite bureautique souveraine ».

Une offre éparpillée façon puzzle

En la matière, on peut rappeler que le marché français ne part pas de zéro, comme l’avait d’ailleurs illustré, en juin 2025, la controverse relative au renforcement des moyens de la Dinum. Plusieurs acteurs du privé s’étaient émus que l’État alloue des moyens financiers conséquents au développement, en interne, d’une suite d’outils bureautiques open source (LaSuite, dédiée en premier lieu à la fonction publique), alors qu’il existe des solutions sur étagère prêtes à l’emploi.

Ces solutions, souvent proposées sous forme de services hébergés, sont portées par des sociétés qui estiment avoir bien besoin du levier de la commande publique pour exister durablement face aux poids lourds états-uniens que sont Microsoft (365) et Google (Workspace).

Huit d’entre elles s’étaient déjà émues quelques mois plus tôt du marché public attribué par l’Éducation nationale à Microsoft. Révélé par Next, ce dernier prévoyait pour mémoire une enveloppe minimale de 74 millions d’euros sur quatre ans, quelques semaines avant que Bercy consacre le premier contrat stratégique de la filière « logiciels et solutions numériques de confiance ».

Chacun de ces huit éditeurs – eXo Platform, Jalios, Jamespot, Netframe, Talkspirit, Twake, Wimi et Whaller – positionne son offre sur le marché des outils de communication ou de collaboration dédiés aux modes de travail en entreprise, et bien d’autres startups évoluent encore dans leur sillage, à l’image par exemple de Leviia. L’offre souveraine est donc déjà riche, et elle l’est encore plus si on élargit la focale à l’échelle européenne, via par exemple le site European Alternatives.

Le problème, ou l’argument derrière lequel se rangent parfois de façon un peu facile les entreprises interrogées sur leur recours aux solutions états-uniennes, c’est que si l’offre française foisonne, elle se révèle aussi très éclatée, sans leader capable d’offrir à la fois le périmètre fonctionnel étendu et les économies d’échelle d’un Google ou d’un Microsoft.

Le topo n’est pas radicalement différent en Allemagne, même si nos voisins d’outre-Rhin ont une longueur d’avance grâce aux travaux du ZenDiS, le Centre pour la souveraineté numérique de l’administration publique, dont l’initiative openDesk constitue sans doute la tentative la plus aboutie de constitution d’une suite à la fois complète et souveraine.

La Cour pénale internationale a annoncé son passage prochain sur openDesk fin 2025 et la solution gagne en popularité auprès du secteur privé. Elle a pour elle son socle à la fois solide et complet, avec un regroupement de composants open source qui permet d’aller de la gestion des identités jusqu’à la visioconférence, la messagerie instantanée, la bureautique et le stockage de fichiers, même s’il lui manque sans doute la simplicité d’intégration d’un Microsoft 365.

En France, les initiatives visant à agréger tous les composants nécessaires à une véritable stack complète ne manquent pas non plus ! Plusieurs d’entre elles ont vu le jour à partir de 2022, aidées d’ailleurs par des financements publics inscrits dans la trajectoire d’accompagnement de la certification SecNumCloud. Dans le lot et de façon non exhaustive, on peut par exemple citer les projets CollabNext et Hexagone : deux consortiums a priori concurrents, qui regroupent pourtant certains participants communs…

Deux nouveaux candidats « européens » en lice

La fragmentation ne devrait pas cesser de sitôt : le contexte économique et politique a contribué à faire émerger deux nouveaux candidats ces dernières semaines. Le 4 mars dernier, c’est depuis La Haye, aux Pays-Bas, qu’un nouveau projet baptisé Office.eu est sorti du bois.

Derrière son nom qui laisse imaginer une forme de soutien institutionnel, Office.eu se présente en réalité comme une combinaison rebadgée de Nextcloud pour le stockage de fichiers et de Collabora Online (implémentation cloud de LibreOffice), éditée par une société immatriculée en 2024. Bref, une énième offre commerciale doublée d’un joli coup de com, mais probablement pas un game changer.

Dévoilé le 27 mars, le projet Euro-Office se présente quant à lui comme une coalition de plus, mais elle associe des acteurs de poids, puisqu’on retrouve autour de la table IONOS, Nextcloud, Eurostack, XWiki, OpenProject, Soverin, Abilian et BTactic. Ensemble, ils promettent une solution bureautique souveraine, disponible dès à présent sous forme de tech preview et censée faire l’objet d’une version stable d’ici l’été.

Euro-Office forke OnlyOffice

Ce nouveau consortium réussira-t-il à s’imposer plus largement que les nombreuses initiatives l’ayant précédé ? En attendant que le marché juge des qualités intrinsèques de la suite et du niveau d’intégration atteint par les huit partenaires, le projet fait déjà l’objet d’une première polémique…

Cette fois, ce n’est pas la légitimité des éditeurs qui est en jeu, mais l’un de leurs choix technologiques. Euro-Office se démarque en effet des coalitions qui embrassent LibreOffice ou Collabora Online en exploitant un fork du code d’une autre suite bureautique open source, OnlyOffice, connu pour coller plus étroitement aux canons d’interface de Microsoft Office.


Il reste 61% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Spam : Google va pénaliser les sites qui modifient l’action du bouton page précédente

14 avril 2026 à 07:00


Google a annoncé lundi 13 avril une mise à jour de ses politiques de lutte contre le spam, qui vont désormais sanctionner une nouvelle pratique : le fait de modifier l’action du bouton page précédente du navigateur, pour forcer l’affichage d’une page intermédiaire ou pour garder l’utilisateur sur la page.

Même si ce nom ne vous dit rien, vous avez probablement déjà été confronté à cette technique dite du « back button hijacking ». Rangée dans la famille des dark patterns, elle est exploitée par de nombreux sites média, soit pour pousser à l’utilisateur une sélection de contenus recommandés afin de limiter le taux de rebond, c’est-à-dire le fait que l’internaute quitte le site, soit pour l’inciter à partir via l’un des liens (notamment publicitaires) intégrés à la page.

L’intégration d’une telle fonctionnalité est problématique, puisqu’elle interfère avec le comportement attendu du navigateur, et c’est la frustration engendrée qui motiverait Google à agir. « Les gens disent se sentir manipulés et, finalement, moins enclins à visiter des sites inconnus », écrit le moteur de recherche.

Les dark patterns selon Flock – Illustration Flock pour Next

Rappelons que les sanctions dont il est question ici s’appliquent sous forme de pénalité au niveau de la visibilité du site concerné dans les pages de résultats de Google. Une période de grâce est cependant prévue pour que les éditeurs concernés puissent mettre à jour leurs sites :

« Les sites qui utilisent le détournement du bouton Retour peuvent faire l’objet de mesures de spam manuelles ou de déclassements automatiques, ce qui peut impacter leur positionnement dans les résultats de recherche Google. Afin de laisser aux propriétaires de sites le temps d’apporter les modifications nécessaires, nous publions cette politique deux mois avant son entrée en vigueur, le 15 juin 2026. »


☕️ Le noyau Linux 7.0 est disponible

13 avril 2026 à 15:29


Le niveau de sévérité des tickets associés à la dernière release candidate de la version 7.0 du noyau Linux a atteint un niveau suffisamment bas pour que Linus Torvalds, son principal mainteneur, décrète dimanche soir le passage en version finale. « La dernière semaine de cette version s’est poursuivie sur la même lancée de nombreuses petites corrections, mais tout ceci parait plutôt bénin, je l’ai donc taguée et je l’ai déployée », écrit le créateur de Linux sur la mailing list dédiée.

Hasard du calendrier, il réagit également, de façon indirecte, aux débats relatifs à l’utilisation de l’IA générative dans la production de code dédié au noyau, soulignant que la pratique est devenue sensible. « Je soupçonne que l’utilisation intensive d’outils d’IA continuera de nous révéler des cas particuliers pendant un certain temps, donc cela pourrait devenir la « nouvelle norme », au moins temporairement. L’avenir nous le dira ».

Illustration : Flock

Quelques heures après la publication de son message et la diffusion du code sur son git, le noyau Linux figure bien en version 7.0 finale sur le site dédié, ce qui signifie que les éditeurs et mainteneurs des distributions courantes devraient rapidement envisager son intégration. Ubuntu 26.04, dont la version finale est attendue pour le 23 avril prochain, sera vraisemblablement l’une des premières à basculer vers Linux 7.0, déjà testé au travers de la bêta distribuée fin mars.

Rappelons que si ce changement de numéro de version sonne comme un événement, cette version 7.0 s’inscrit en réalité dans la continuité de la version 6.19 sortie début février. « Le numéro de version majeure est incrémenté lorsque le nombre après le point commence à paraître « trop grand ». Il n’y a littéralement aucune autre raison », renseigne à ce sujet Kernel.org.

Même si rien ne permet de parler de saut générationnel, cette nouvelle version est tout de même l’occasion d’introduire de nombreuses petites nouveautés, dont on pourra lire un condensé, mis en forme de façon un peu plus digeste que dans les échanges de la mailing list dédiée, sur le site Kernelnewbies.

Forfaits « sans condition de durée » : SFR condamné à 10 millions d’euros d’amende

13 avril 2026 à 11:21
À vie, mais pas trop
Forfaits « sans condition de durée » : SFR condamné à 10 millions d’euros d’amende

SFR a été condamné le 19 mars dernier par le tribunal correctionnel de Paris à une amende de 10 millions d’euros, dont la moitié a été assortie du sursis, pour pratiques commerciales trompeuses. L’affaire portait sur des communications marketing relatives à des forfaits à prix attractifs associés à des promesses latentes de pérennité, avec des formules telles que « sans condition de durée » ou « sans prix qui double au bout d’un an ».

Lundi 13 avril matin, la condamnation est affichée en une du site sfr.fr et relayée sur les comptes de réseaux sociaux de la marque Red by SFR : l’opérateur a été condamné le 19 mars dernier pour « pratiques commerciales trompeuses », dans le cadre d’une affaire initiée en 2021 par l’association UFC-Que Choisir.

Des forfaits sans condition de durée trop beaux pour être vrais

Les faits reprochés remontent aux alentours de 2018, période à laquelle les opérateurs mobiles rivalisaient de promotions et de campagnes de communication agressives pour augmenter leur portefeuille de clients mobiles, quitte à brader des enveloppes de plusieurs dizaines de Go de données pour quelques euros.

SFR a relayé la décision sur son site et ses réseaux sociaux – capture d’écran Next

SFR avait participé à l’offensive avec une communication de son cru, qui tournait autour de l’idée de tarifs avantageux valables « sans condition de durée », voire « à vie ». Problème, comme Next le soulignait d’ailleurs à l’époque, ces offres très attractives cachaient parfois une réalité plus contrastée, et ne protégeaient pas contractuellement de modifications ultérieures.

Et les prix sont sans surprise remontés dès 2019 chez SFR, ce qui a conduit l’UFC-Que Choisir à déposer une première plainte en 2021, puis une seconde en 2022. Ses démarches ont conduit à l’ouverture d’une information judiciaire, puis au lancement d’une enquête de la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF).

Elles ont finalement conduit à une audience qui s’est tenue le 19 février dernier à Paris. « À la barre, l’actuelle directrice juridique de SFR a rejeté les accusations, insistant sur le fait que SFR n’avait jamais utilisé le terme « à vie » dans ses publicités institutionnelles (dans ses spots télévisés, sur ses affiches, sur son site Internet…). C’est exact, mais d’autres expressions, à peine plus claires, ont été employées, telles que « sans condition de durée » ou « sans prix qui double au bout d’un an » », relatait alors l’association.

« Allégations de pérennité »

Si l’idée de forfaits valables « à vie » a bien été exprimée, elle serait, d’après SFR, à mettre au crédit d’affiliés, c’est-à-dire des partenaires (sites média par exemple) rémunérés à la commission pour promouvoir les offres de l’opérateur. Une rapide recherche permet de vérifier que l’expression a effectivement été largement relayée en 2019. D’après le rapport fait par l’UFC-Que Choisir, plusieurs éléments attestent que l’opérateur avait connaissance du recours à cette expression, et l’aurait au moins une fois explicitement validé.

Résultat des courses : le jugement du 19 mars condamne SFR « pour les délits de pratiques commerciales trompeuses » portant sur « l’usage d’allégations de pérennité » fausses ou de nature à induire en erreur les consommateurs, au versement d’une amende de 10 millions d’euros (dont 5 millions assortis du sursis), ainsi qu’à verser une indemnité de 50 000 euros à l’UFC-Que Choisir, qui s’était portée partie civile. Ainsi bien sûr qu’à la publication dudit jugement sur son site et ses réseaux sociaux.

L’association ne cache pas sa satisfaction. Soulignant que SFR n’a pas interjeté appel de la décision, elle estime que la « justice rappelle avec force que les professionnels ne peuvent impunément entretenir d’ambiguïté sur les conditions essentielles de leurs offres, en particulier lorsque celles-ci portent sur le prix. »

☕️ Linux clarifie les règles d’utilisation de l’IA dans les contributions au noyau

13 avril 2026 à 07:15


Le document concerné a fait l’objet d’un commit dès le 6 janvier dernier, mais c’est ce samedi 11 avril qu’il a émergé sur Hacker News : le dépôt administré par Linus Torvalds et dédié au noyau Linux comporte désormais un fichier coding-assistants.rst qui résume les bonnes pratiques à adopter en matière de recours à l’IA générative dans les contributions.

Ceux qui attendaient soit un blanc-seing, soit une condamnation sans équivoque, en seront pour leurs frais. Ces lignes de conduite ne tranchent pas la question polémique du bien-fondé : elles disposent simplement que le code qui a été produit avec l’assistance de l’IA obéit aux mêmes règles que le code d’extraction exclusivement humaine, et que tout code soumis doit être signé (et donc endossé) par un humain.

« Seuls les humains peuvent légalement certifier le certificat d’origine du développeur (DCO) », indique le document, selon lequel le développeur assume l’entière responsabilité de sa contribution, et doit donc de ce fait attacher une attention particulière à la vérification de tout code généré par IA, ainsi qu’à la conformité aux exigences de licence, en l’occurrence la GPL 2.0.

La mention explicite du recours à l’IA est encouragée. « Lorsque les outils d’IA contribuent au développement du noyau, une attribution appropriée permet de suivre l’évolution du rôle de l’IA dans le processus de développement ».

L’utilisation d’un assistant IA est censée faire l’objet d’une attribution explicite, sous la responsabilité du développeur humain qui signe le commit – capture d’écran

« C’est… étonnamment normal ? », réagit un internaute sur Hacker News. La position, qui semble effectivement plutôt consensuelle, rejoint l’attitude manifestée publiquement par Linus Torvalds quant à l’utilisation de l’IA générative dans le code.

Il s’était exprimé sur le sujet fin 2025 à l’occasion de l’édition japonaise de l’Open Source Summit, expliquant détester la hype autour de l’IA, mais reconnaître à l’outil de réelles qualités, notamment pour la maintenance du code. Le créateur de Linux et de Git a lui-même eu recours à la pratique dite du vibe-coding pour un projet tiers (AudioNoise, voir mention explicite en fin de Readme).

☕️ L’ANFR ordonne le rappel de deux routeurs Wi-Fi Mikrotik et Wavlink

10 avril 2026 à 13:48


L’Agence nationale des fréquences (ANFR) a demandé à deux fabricants d’équipements réseau de rappeler un routeur Wi-Fi commercialisé sur le sol français en raison de manquements constatés au niveau des conditions d’utilisation du spectre radio dans la bande des 5 GHz.

Les deux appareils concernés sont le routeur Mantbox 52 15S de Mikrotik et le Wavlink Aerial HD6 AX1800. Les deux sociétés qui les commercialisent sont formellement invitées à retirer les références correspondantes du marché, et à rappeler les routeurs déjà vendus. L’ANFR rappelle qu’en l’absence de réponse adaptée de la part du fabricant, il incombe au distributeur de prendre lui-même les mesures de retrait et de rappel nécessaires.

Mikrotik mANTBox 52 15 s

L’ANFR ne précise pas la nature exacte des manquements constatés, mais donne un indice sur ses motivations : « L’utilisation de la bande 5 GHz repose notamment sur la mise en œuvre de mécanismes de partage du spectre visant à garantir la coexistence entre différents services et applications. Leur non-respect est susceptible de provoquer des brouillages préjudiciables, en particulier vis-à-vis de systèmes sensibles comme les radars météorologiques. »

Les deux routeurs concernés sont des appareils destinés au marché entreprise, et adaptés à une installation en extérieur. Le Mikrotik mANTBox 52 15 s est considéré comme en fin de vie par son fabricant.

L’État veut réduire ses dépendances extra-européennes, la Dinum bientôt sous Linux

10 avril 2026 à 13:10
Role model
L’État veut réduire ses dépendances extra-européennes, la Dinum bientôt sous Linux

L’État affiche ses ambitions en matière de souveraineté numérique, avec une première décision aux accents symboliques : la Dinum, sa direction interministérielle du numérique, se prépare à passer de Windows à Linux sur ses postes de travail. Elle coordonnera par ailleurs les travaux préparatoires des ministères et opérateurs publics, auxquels est confiée la mission de formaliser leur plan de réduction des dépendances extra-européennes d’ici l’automne.

Après les paroles, place aux actes ? Dans la foulée de son plan d’action dédié à la cybersécurité des établissements publics, l’État a dressé jeudi un panorama de ses nouveaux engagements en matière de « souveraineté numérique », présentée comme une réduction des « dépendances extra-européennes ».

Synthétisés dans un communiqué, ces engagements s’ouvrent par une première décision : la direction interministérielle du numérique (Dinum) va ainsi basculer ses postes de travail de Windows vers Linux.

La distribution retenue n’a pas été précisée, mais la Dinum développe en propre un projet de système d’exploitation sécurisé, basé sur NixOS et baptisé Sécurix. « Grace à NixOS, ce modèle de PC sécurisé est ré-instantiable pour des cas d’usages variables: poste multi-agent, poste multi-niveaux, poste en intranet seulement, etc. avec des équipes différentes, des souches de VPN différents », décrit le projet. Reste à voir si le logiciel, actuellement au stade de l’alpha et sans support proposé à date, est considéré comme suffisamment robuste pour un déploiement en production ?

En attendant, avec 234 agents inscrits à l’effectif, cette migration revêt une dimension essentiellement symbolique, mais elle se veut le signal d’une impulsion concrète, que la Dinum devra s’efforcer de faire infuser dans les différents ministères et opérateurs publics.

Des plans d’action dans chaque ministère d’ici l’automne

Elle est en effet chargée de coordonner un « plan interministériel de réduction des dépendances extra-européennes », dans le cadre duquel chaque établissement concerné doit formaliser son propre plan d’action d’ici l’automne. Les axes de travail évoqués sont les suivants : « poste de travail, outils collaboratifs, anti-virus, intelligence artificielle, bases de données, virtualisation, équipements réseau ».

« Ces plans d’action permettront de donner de la visibilité quant aux besoins de l’État à la filière industrielle du numérique, qui dispose d’atouts majeurs qu’il convient de valoriser par la commande publique », promettent les services de la Dinum. Une forme de gage de confiance par rapport aux attentes exprimées par les acteurs français du logiciel et du service informatique, mais aussi une réponse indirecte aux virulentes critiques émises en octobre 2025 par la Cour des comptes.

Cette dernière fustigeait notamment le manque de coordination entre les différents services de l’État, la sous-utilisation des clouds interministériels déjà déployés et l’absence d’une réelle stratégie chiffrée (en sens financier) en matière de souveraineté numérique.

En attendant de juger sur pièce des plans d’action attendus pour l’automne, la méthode adoptée se veut une réponse à la problématique soulevée en matière de coordination. Les annonces gouvernementales font d’ailleurs suite à un séminaire interministériel qui a également associé des opérateurs publics et privés. Avec des échanges fructueux, selon la Dinum :

« Le séminaire a permis de lancer une nouvelle méthode pour sortir des dépendances en formant des coalitions inédites associant ministères, grands opérateurs publics et acteurs privés. Cette démarche vise à fédérer les énergies publiques et privées autour de projets précis, en s’appuyant notamment sur les communs numériques et les standards d’interopérabilité (initiatives Open-Interop, OpenBuro). »

Il appartiendra par ailleurs à la direction des achats de l’État (DAE) de cartographier les dépendances aux solutions extra-européennes, pour « affiner » un objectif chiffré de réduction qui n’a, pour l’instant, pas été communiqué.

L’Assurance maladie adopte certains services de LaSuite

Ses postes de travail tournent toujours sous Windows, mais la Caisse nationale d’assurance maladie a annoncé le 1er avril dernier le déploiement prochain de certains services issus de LaSuite auprès de ses 80 000 agents. Rappelons que LaSuite, ou la Suite numérique, est un ensemble d’outils et de services développés en interne par la Dinum, en open source et à destination des établissements publics.

« La convention signée aujourd’hui marque une nouvelle étape : elle prévoit le développement de fonctionnalités spécifiques aux besoins de l’Assurance Maladie, une intégration renforcée de LaSuite dans les processus métiers de la Cnam, ainsi qu’une contribution active de la Cnam à la feuille de route technique de la solution », indiquait alors l’organisme, sans préciser le périmètre exact de la migration.

Dans sa communication du 9 avril, la Dinum évoque quant à elle trois des outils du socle numérique interministériel : l’application de messagerie Tchap , le service Visio (dont l’usage est censé être généralisé à l’intégralité des agents de l’État d’ici 2027) et l’outil France Transfert.

Reste à voir ce que décidera la Cnam pour le reste de ses outils, et dans quelle mesure les solutions intégrées à LaSuite seront susceptibles d’entraîner le décommissionnement de technologies extra-européennes. Aujourd’hui, la Cnam exploite par exemple Exchange et Sharepoint (Microsoft), avec un hébergement assuré en propre, protégé par des solutions Proofpoint (US) et Trend Micro (Japon).

☕️ Amazon envisage de vendre ses puces Trainium à des tiers

10 avril 2026 à 09:26


Après le commerce en ligne et le cloud computing, Amazon pourrait-il devenir un vendeur de puces, et donc un concurrent direct de NVIDIA ? L’hypothèse est explicitement évoquée par Andy Jassy, CEO d’Amazon, dans sa lettre annuelle aux actionnaires, publiée le 9 avril.

Il y décrit comment les semiconducteurs sont devenus une activité de premier plan pour le groupe, avec un impact financier loin d’être anecdotique, même s’il ne transparait pas directement dans le compte de résultat. Les puces conçues par Amazon sont en effet aujourd’hui destinées, de façon quasi exclusives, aux datacenters et services Amazon, à commencer par Bedrock. Elles n’en représentent pas moins, selon Jassy, une activité supérieure à 20 milliards de dollars sur 2025, avec une croissance annuelle à trois chiffres.

« Si notre activité de puces était indépendante et vendait les puces produites cette année à AWS et à d’autres tiers (comme le font d’autres leaders du marché), notre chiffre d’affaires annuel avoisinerait les 50 milliards de dollars, écrit Andy Jassy, avant d’ouvrir la porte à une possible mise sur le marché : La demande pour nos puces est telle qu’il est fort probable que nous en vendions des racks entiers à des tiers à l’avenir. »

AWS re:Invent 2025 Trainium3
Amazon a présenté les puces Trainium 3 fin 2025

Le CEO illustre à dessein son propos en rappelant l’expérience déjà acquise avec ses processeurs Graviton, lancés en 2018. « Dans le domaine des processeurs, la quasi-totalité des charges de travail s’exécutait sur des puces Intel jusqu’à l’invention de Graviton en 2018. Graviton, qui offre un rapport prix/performances jusqu’à 40 % supérieur à celui des autres processeurs x86, est désormais largement utilisé par 98 % des 1 000 principaux clients EC2 ».

Les puces Trainium 3 annoncées fin 2025 et les futures Trainium 4 connaitraient des trajectoires similaires. Andy Jassy affirme ainsi que la production de Trainium 3 est déjà quasi intégralement vendue en interne, et qu’une part significative du contingent Trainium 4 est déjà réservée, alors que la production de masse n’est attendue que d’ici 18 mois.

Si l’interne reste présenté comme la priorité numéro un, Amazon n’exclut donc pas de mettre ses puces directement sur le marché, ce qui serait à la fois une façon de s’ouvrir un nouveau marché et d’améliorer ses économies d’échelle. Une stratégie déjà envisagée par Google : le moteur de recherche a en effet commencé à proposer ses TPU à des acteurs tiers du cloud computing tels que Crusoe, CoreWeave ou Fluidstack. La vente devient ainsi une alternative au modèle traditionnel de location de ressources qui constitue le socle des offres AWS ou GCP.

L’arrivée d’Amazon sur le marché de la fourniture de composants dédiés à l’IA serait une pierre lancée dans le jardin de l’actuel leader du marché. « Nous entretenons un partenariat solide avec NVIDIA, nous aurons toujours des clients qui choisissent d’utiliser des solutions NVIDIA et nous continuerons à faire d’AWS la plateforme de choix pour exécuter des solutions NVIDIA. Cependant, les clients recherchent un meilleur rapport prix/performances. Nous avons déjà connu cette situation. » prévient Andy Jassy.


☕️ Mastodon lance des Collections ouvertement inspirées de Bluesky

10 avril 2026 à 08:45


Mastodon a donné jeudi un avant-goût de la prochaine fonctionnalité phare de sa version 4.6, pensée principalement pour accompagner les nouveaux utilisateurs dans leur découverte du fédivers : les Collections. Ouvertement inspirées des « starter packs » proposées par Bluesky, ces collections ont vocation à réunir au sein d’une même enveloppe un ensemble de comptes à suivre.

L’implémentation se veut cependant plus fine que celle adoptée par Bluesky : Mastodon prévoit en effet un système permettant à l’internaute de consulter les Collections auxquelles son compte a été ajouté et éventuellement d’en disparaitre, sans avoir à bloquer la personne qui en est à l’origine. Mastodon fait par ailleurs le choix de limiter ses Collections à 25 comptes, sans s’interdire d’étendre cette limite plus tard.

« Sur Mastodon, les Collections continueront de privilégier la qualité à la quantité. Nous pensons que des Collections plus petites permettront de réduire les comportements de spam parfois observés sur Bluesky (où les Packs de démarrage sont limités à 150 comptes) », commente Imani Joy, responsable du design dans la nouvelle équipe qui préside aux destinées du projet, selon qui la bonne formule se situe sans doute quelque part entre 25 et 80 comptes par liste. « Cette fourchette reste large, et nous avons choisi de commencer par la limite inférieure car il est techniquement beaucoup plus simple de l’augmenter ultérieurement que de la réduire ».

Création d’une Collection sur Mastodon

Avec ces Collections, Mastodon offre donc la possibilité de partager publiquement une sélection de comptes à suivre, là où les « listes » disponibles de longue date sont à usage privé, et le resteront vraisemblablement. « De nombreuses personnes ont demandé des listes publiques et partageables, mais nous ne disposons pas actuellement de l’infrastructure nécessaire pour développer un système d’une telle envergure », indique Imani Joy.

Les Collections peuvent à ce stade être partagées publiquement via un lien, mais il n’est pas encore prévu de les rendre accessibles via la recherche ou les outils de découverte. À terme, elles devraient toutefois être proposées comme outils de suggestion aux administrateurs d’instance.

Mastodon indique par ailleurs préférer ne pas proposer, pour l’instant, de bouton permettant de suivre automatiquement tous les comptes d’une Collection. « Nous envisageons cette possibilité, mais nous souhaitons l’aborder avec prudence. Nous avons constaté que certains utilisateurs de Bluesky s’abonnaient massivement à des comptes issus de packs de démarrage obsolètes, pour ensuite se retrouver avec un flux d’actualités de qualité médiocre ».

La version 4.6 est en cours de déploiement sur l’instance mastodon.social, et fera l’objet d’une diffusion plus large dans les prochaines semaines.


☕️ Keychron publie les plans et les modèles 3D de ses claviers et souris

9 avril 2026 à 13:43


Spécialiste du clavier mécanique, Keychron fait un pas supplémentaire en direction de la communauté des makers avec la publication, sur GitHub, des modèles 3D utilisés dans la fabrication des principales références de son catalogue.

Pour la plupart de ses claviers, on peut ainsi télécharger les fichiers de CAO qui décrivent dans le détail la conception du boîtier, les découpes de la plate (la plaque située entre les commutateurs et le PCB), les spécifications des différents composants, etc.

Modèle 3D du Keychron Q10 – crédit Keychron

Selon les éléments concernés, Keychron propose des formats faisant office de standards industriels, a minima pour la visualisation, avec DXF (.dxf) ou DWG (.dwg) pour les plans, et STEP (.stp) pour la plupart des modèles 3D. Les internautes sont invités à enrichir le dépôt avec leurs propres contributions, qui peuvent prendre la forme de corrections apportées à des modèles existants, ou de configurations alternatives à celles commercialisées par Keychron.

« Nous pensons que la mise à disposition des fichiers matériels de production constitue une contribution significative à la communauté plus large du matériel et des claviers ! », se réjouit l’entreprise. Un élément manque toutefois à l’appel : Keychron ne partage pas le plan des PCB de ses claviers : sur ce volet électronique, les sources restent fermées.

Plan pour les découpes d’une plaque de clavier – crédit Keychron

Notons par ailleurs que si les sources de certains éléments matériels sont ouvertes, Keychron restreint explicitement la réutilisation commerciale : « Tous les fichiers de conception matérielle sont fournis exclusivement pour un usage personnel, éducatif et non commercial ».

Keychron avait déjà par le passé publié certains éléments de conception de ses claviers les plus populaires, mais sans étendre cet effort à l’ensemble de son catalogue comme ici (à l’exception de quelques modèles spécifiques comme son récent clavier céramique). L’entreprise exploite et collabore également de longue date à des firmwares ouverts comme QMK ou ZMK.

Entrainement des IA et droit d’auteur : le Sénat inverse la charge de la preuve

9 avril 2026 à 10:22
On m'a dit de venir, pas de venir avec des bagages, pourquoi ?
Entrainement des IA et droit d’auteur : le Sénat inverse la charge de la preuve

Le Sénat a voté mercredi 8 avril à l’unanimité la proposition de loi visant à instaurer une présomption d’utilisation de contenus culturels protégés par un droit d’auteur au niveau des éditeurs d’IA. Le texte, qui doit maintenant passer à l’Assemblée nationale, inverse donc le rapport de force, puisqu’en cas de contentieux, ce sera aux acteurs de la tech de prouver qu’ils n’ont pas exploité un contenu de façon illicite.

Beaumarchais a une nouvelle fois été convoqué sous les ors de la République mercredi 8 avril, lors des débats du Sénat autour de la proposition de loi « relative à l’instauration d’une présomption d’utilisation des contenus culturels par les fournisseurs d’intelligence artificielle ». Et les défenseurs du droit d’auteur n’ont pas été déçus, puisque l’article unique du texte a été adopté à l’unanimité, au terme d’une séance de débat plutôt consensuelle : le soutien à l’innovation ne doit pas se faire au détriment de la création culturelle et cette dernière doit être rémunérée à sa juste valeur dès lors qu’elle est exploitée.

Inverser la charge de la preuve pour forcer la transparence

Le texte adopté en première lecture dispose que, sauf preuve contraire, une œuvre protégée par un droit d’auteur ou un droit voisin « est présumée avoir été utilisée par le fournisseur du modèle ou du système d’intelligence artificielle, dès lors qu’un indice afférent au développement ou au déploiement de ce système ou au résultat généré par celui-ci rend vraisemblable cette utilisation ».

Autrement dit, si un ayant droit estime qu’une œuvre a été utilisée par un modèle (par exemple, parce qu’un chatbot est capable de citer des extraits d’un livre), c’est à l’opérateur de l’IA en question qu’il appartiendra de prouver qu’il n’a commis aucune utilisation irrégulière. Le texte instaure donc une inversion de la charge de la preuve, en instaurant une présomption d’exploitation.

« Ce ne sera plus au créateur de prouver le moissonnage de son œuvre, mais au fournisseur d’IA de prouver qu’il ne l’a pas utilisée. Notre objectif n’est pas de multiplier les procès, mais d’inciter les acteurs de l’IA à abandonner certains comportements de prédation pour un modèle fondé sur la transparence et la négociation. Aujourd’hui, les créateurs ne négocient pas ; ils subissent », a fait valoir en séance la sénatrice Agnès Evren (LR), auteure de la proposition de loi.

Elle a par ailleurs pris soin d’affirmer que ce renversement avait été validé par le Conseil d’État, et souligné que l’esprit de la proposition de loi rejoignait les recommandations formulées dans le récent rapport d’Alex Voss voté le 11 mars dernier au Parlement européen. Dans son texte, celui-ci invite en effet Bruxelles à « proposer l’établissement d’une présomption réfragable », mais il restreint cette dernière aux cas de non-respect d’un certain nombre d’obligations de transparence.

Le Sénat français va donc un cran plus loin, arguant du principe que ce renversement est indispensable pour contraindre les éditeurs d’IA à faire preuve d’une vraie transparence sur leurs données d’entraînement. « On nous oppose souvent le secret des affaires, ce bouclier dont les entreprises d’IA usent et abusent. Or si l’algorithme relève du secret industriel, les données pour le nourrir sont le fruit du travail d’autrui. La transparence n’est pas une menace pour l’innovation, c’est la condition de l’acceptabilité sociale de l’IA », a défendu Catherine Morin-Desailly (Union centriste).

Représenté par ses ministres de la Culture et de l’Intelligence artificielle et du numérique, le gouvernement a pour sa part tenu une position plus nuancée.

« Le Gouvernement partage l’objectif du mécanisme proposé par la commission, mais le contentieux ne peut pas constituer notre unique horizon, car il entraîne des risques : judiciarisation excessive, insécurité juridique prolongée, multiplication des procédures. Mieux vaut un bon accord qu’un mauvais procès », a prudemment avancé Catherine Pégard, ministre de la Culture.

Anne Le Hénanff, ministre déléguée chargée de l’intelligence artificielle et du numérique, a quant à elle plus fermement défendu le point de vue des acteurs de la tech :

« Avec une telle présomption, l’entreprise devra apporter la preuve négative de l’utilisation de données culturelles, via l’analyse de dizaines de téraoctets de données ; c’est tout simplement impossible ! Tous les acteurs économiques qui ont développé des modèles d’IA – entreprises du CAC 40, TPE-PME, start-up – risqueraient un contentieux, ce qui serait dévastateur pour notre économie ».

Elle aussi appelle à privilégier la négociation au contentieux, en s’engageant à soutenir « toutes les initiatives contractuelles entre les acteurs de l’IA et ceux de la culture », ainsi qu’à participer aux évolutions à venir du cadre européen, « car c’est en agissant au bon niveau que nous obtiendrons la sécurité juridique nécessaire ».

Négocier, mais autour de quelle table ?

L’attente est-elle entendable du point de vue des ayants droit, alors que les illustrations d’utilisation à grande échelle de contenus protégés se multiplient ? Dans le sillage du procès ouvert aux États-Unis contre Meta pour entraînement de ses modèles sur les contenus de la bibliothèque clandestine LibGen, plusieurs articles de Mediapart ont montré ces derniers mois le recours à des contenus protégés par l’entreprise française Mistral AI.

Plus récemment, une nouvelle enquête, publiée le 6 avril, démontre que des centaines de milliers d’ouvrages ou d’articles scientifiques accompagnés de la mention « tous droits réservés » figurent dans l’immense jeu de données finepdfs hébergé sur Hugging Face.

Au-delà de sa dimension contentieuse, la proposition de loi serait, dans ce contexte et pour ses promoteurs, un accélérateur visant à sortir du statu quo dont profitent les acteurs de l’IA.

« Il y a urgence, car le pillage continue. J’ai l’impression que quand on montre un peu de fermeté, certains, qui s’y refusaient, viennent à la table des négociations », estime Max Brisson (LR). Avec, déjà, des effets positifs, selon Laure Darcos (groupe Les indépendants), rapporteure du texte :

« Notre mécanisme, juridiquement solide et politiquement efficace, produit d’ores et déjà ses effets : le PDG de Mistral AI a proposé une contribution des entreprises d’IA en fonction de leur chiffre d’affaires pour accéder aux contenus protégés. »

Reste à voir si cette déclaration d’intention suffira à faire pencher la balance lors de l’examen du texte à l’Assemblée nationale.

☕️ Chrome passe (enfin) aux onglets verticaux et au mode lecture en pleine page

8 avril 2026 à 15:36


Après l’introduction de la vue partagée, Google vient de publier une mise à jour de Chrome (version 147) qui permet au navigateur de se mettre au niveau de la concurrence sur deux aspects : la gestion des onglets verticaux, et le mode lecture.

Les onglets verticaux sont particulièrement utiles sur les écrans larges (type 21:9 et autres formats dits ultrawide) puisqu’ils permettent d’afficher une portion plus importante du titre de la page ouverte, facilitant ainsi la navigation ou la recherche d’un onglet précis.

Promis de longue date par Google, les onglets verticaux n’étaient jusqu’ici accessibles qu’après une activation manuelle au niveau du menu des fonctionnalités expérimentales. Ils sont désormais en cours de déploiement pour tous les utilisateurs. L’option correspondante est censée apparaître au clic droit sur la barre d’onglets.

Chrome se met enfin à la page avec des onglets verticaux officiellement pris en charge – capture d’écran Next

La vue verticale dispose d’un mode réduit qui permet de n’afficher que le favicon des différents sites ouverts pour garder un accès direct aux onglets tout en augmentant la surface d’affichage utile. Elle propose logiquement, elle aussi, de créer des groupes d’onglets et d’organiser ces derniers par nom ou par étiquettes de couleur.

Une bonne nouvelle n’arrivant jamais seule, Google profite de l’occasion pour introduire un mode lecture plein écran. Jusqu’ici, l’option correspondante offrait en effet une vue simplifiée de la page en cours (expurgée des éléments graphiques et contextuels) mais uniquement sous forme d’écran partagé. Une façon, pour le moteur de recherche, de préserver le fondement de son modèle économique, puisque le mode lecture fait disparaître la plupart des publicités.

À gauche, l’ancien mode lecture, à droite le mode plein écran introduit par Chrome 147 – captures d’écran Next

Présenté comme « plus immersif », ce mode lecture dispense des options de réglage de la taille de la police, de l’interligne, ou de la couleur de fond, ainsi qu’un mode de lecture vocale (text to speech). Il est par ailleurs présenté comme compatible avec les lecteurs d’écran.

Ces deux options, annoncées par un billet de blog, sont censées être disponibles chez tous les utilisateurs, mais comme toujours, le déploiement se fait de façon échelonnée. Si l’une ou l’autre de ces options n’est pas activée chez vous, rendez-vous dans le menu des fonctionnalités expérimentales via ces deux liens :

☕️ Bitcoin : une nouvelle enquête affirme révéler l’identité de Satoshi Nakamoto

8 avril 2026 à 11:01


Serait-ce enfin l’épilogue ? Dix-sept ans après la publication du fameux livre blanc signé Satoshi Nakamoto et l’essor du phénomène bitcoin, deux journalistes du New York Times affirment être en mesure de certifier l’identité réelle de son créateur. D’après leur longue enquête, tous les éléments convergent vers Adam Back, un cryptographe d’origine britannique âgé de 55 ans.

Pour mettre un nom sur l’un des hommes les plus recherchés au monde, John Carreyrou et Dylan Freedman ont notamment passé au crible les archives de la célèbre mailing list Cypherpunks dont les échanges, inscrits dans le courant de pensée éponyme, ont participé à la création des cryptoactifs en général et de bitcoin en particulier.

Au cours de leurs travaux, les deux journalistes estiment avoir mis au jour des similitudes troublantes entre les échanges signés par Adam Back et ceux attribués à Satoshi Nakamoto. Le premier aurait d’ailleurs disparu quand le second a fait son entrée sur le devant de la scène, avant que le mouvement inverse ne s’opère. En 2011, Nakamoto s’est en effet soudainement tu. Six semaines après sa disparition, Adam Back s’est ensuite exprimé pour la première fois publiquement sur le bitcoin.

Adam Back a démenti mercredi être le créateur de bitcoin – capture d’écran

John Carreyrou, célèbre pour avoir déclenché l’affaire Theranos quand il écrivait encore au Wall Stret Journal exhume quelques déclarations ambivalentes, et souligne comment les travaux préliminaires d’Adam Back ouvraient la voie au bitcoin. L’intéressé a en effet conçu et développé, dès 1997, un système de preuve de travail baptisé Hashcash, initialement pensé pour la lutte contre le spam, et repris ultérieurement dans l’univers bitcoin. Carreyrou retrace également le parcours de Back depuis le lancement de bitcoin, et s’interroge notamment sur les raisons de son installation à Malte, à partir de 2009.

Le gros de l’enquête réside toutefois sur des mécaniques d’analyse du discours assistée par ordinateur, qui mettent en lumière des expressions idiomatiques, des tics de langage, des constructions rhétoriques et des idées que l’on retrouve aussi bien dans les propos signés Adam Back que dans ceux attribués à Satoshi Nakamoto.

L’analyse finale est même purement quantitative : les deux auteurs indiquent avoir créé un corpus regroupant des messages émanant de 620 candidats potentiels à la paternité de bitcoin, et passé cet inventaire au crible des écrits de Nakamoto. Dans le lot, le seul à cocher toutes les cases, de la façon d’écrire email à l’emploi de tournures britanniques plutôt qu’américaines, s’est révélé Adam Black.

Dont acte ? L’intéressé a réagi mercredi 8 avril sur les réseaux sociaux.

« Je ne suis pas Satoshi, mais j’ai été parmi les premiers à me concentrer sur les implications sociétales positives de la cryptographie, de la confidentialité en ligne et de la monnaie électronique, d’où mon intérêt actif, à partir de 1992 environ, pour la recherche appliquée sur la monnaie électronique et les technologies de confidentialité sur la liste de diffusion des cypherpunks, ce qui a conduit à Hashcash et à d’autres idées ».

D’après lui, les liens sémantiques établis par Carreyrou relèveraient de la coïncidence, et d’une proximité de pensée entre des passionnés partageant des centres d’intérêt commun. Et le secret qui entoure la création de bitcoin mériterait d’être défendu : « Je ne sais pas non plus qui est Satoshi, et je pense que c’est une bonne chose pour le bitcoin, car cela contribue à ce qu’il soit perçu comme une nouvelle classe d’actifs, une matière première numérique mathématiquement rare ».

En attendant l’éventuelle transaction réalisée depuis le premier portefeuille en bitcoin de la chaîne, qui ferait sans doute office de preuve irréfutable, le mystère de l’identité de Satoshi Nakamoto n’a donc probablement pas fini de susciter enquêtes et controverses.

USA : les chantiers de datacenters butent sur un double mur énergétique

8 avril 2026 à 07:18
Un seul être vous manque, et tout est dépeuplé
USA : les chantiers de datacenters butent sur un double mur énergétique

Entre 30 et 50 % des projets de datacenters attendus pour 2026 aux États-Unis devraient enregistrer des retards. Outre la difficulté à sécuriser les accès à l’énergie nécessaires à leur alimentation, ce ralentissement de la construction serait principalement dû aux délais nécessaires pour l’approvisionnement en équipements dédiés à la production ou à la transformation d’énergie.

N’en déplaise à Donald Trump, la souveraineté industrielle ne se décrète pas, et les faramineux plans d’investissement programmés dans les datacenters aux États-Unis risquent de bientôt incarner très directement cette problématique. Dans une enquête datée du 1er avril, Bloomberg décrit en effet comment plusieurs grands chantiers de construction se heurtent à une problématique d’approvisionnement en composants électriques.

Le principal goulot d’étranglement ne se situerait donc pas au niveau des puces dédiées à l’IA, de la mémoire vive, ou des équipements réseau, mais à l’étage d’en dessous : celui des équipements nécessaires à l’électrification d’un centre de données. D’un point de vue financier, ces derniers représentent généralement moins de 10 % du coût global d’un datacenter, remarque Bloomberg. Ils n’en sont pas moins indispensables au bon fonctionnement de l’ensemble. Or, la demande semble nettement dépasser l’offre.

Les projets en matière de création de datacenters mobilisent en effet des enveloppes record : d’après une analyse de Bridgewater Associates réalisée fin février, les dépenses d’investissement en infrastructures programmées par Google, Amazon, Meta et Microsoft totaliseraient en effet la bagatelle de 650 milliards de dollars. Et si ces projets ont en partie vocation à servir les besoins d’acteurs spécialisés comme OpenAI ou Anthropic, ils ne couvrent pas la totalité du marché, puisque d’autres acteurs spécialisés (Oracle, Equinix, Coreweave, etc.) prévoient eux aussi la construction de nouveaux centres de données.

Des plans d’investissement en forme de vaporware ?

Les chiffres sont tellement monumentaux qu’ils soulèvent en premier lieu la question de la fourniture d’énergie associée, particulièrement dans certaines régions des États-Unis où le réseau électrique n’est pas dimensionné pour accueillir de telles infrastructures.

En réponse, les géants du numérique travaillent d’ailleurs à sécuriser leurs besoins à venir via des achats en direct, à l’image de Meta qui déclarait en début d’année avoir réservé 6,6 GW d’énergie fournie par des réacteurs nucléaires dont la construction ne s’achèvera qu’à horizon 2035.

De plus en plus, ils deviennent aussi leurs propres fournisseurs d’énergie. Sur ce volet, l’exemple le plus emblématique est sans doute celui de xAI, l’entreprise d’Elon Musk, dont la récente levée de fonds de 20 milliards de dollars a notamment vocation à financer l’achat de nouvelles turbines à gaz. Ces cinq nouvelles machines, représentant une puissance cumulée de 2 GW, viendraient compléter un parc installé déjà conséquent, dont la construction et les niveaux d’émission dépassent largement la réglementation locale en vigueur.

Cette problématique du raccordement à un réseau alimenté en conséquence entraine déjà un lot important de retards, d’après la partie accessible au public (enregistrement par email requis) d’un rapport signé d’un cabinet spécialisé, Sightline Climate, dont Bloomberg tire les éléments chiffrés de son enquête.


Il reste 71% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

❌