Loi de Murphy : tout ce qui est susceptible d'aller mal ira mal
Vous avez envie de disposer d’un agent IA capable de vous répondre sur de nombreux canaux de communication et d’accéder à vos données ? Le projet ClawdBot (licence MIT) pourrait répondre à vos besoins… mais attention à bien savoir ce que vous faites avec ce genre d’outils.
ClawdBot n’est pas un nouveau projet (il date de fin 2025) mais sa popularité a explosé sur GitHub depuis mi-janvier et il fait beaucoup parler de lui ces derniers jours.
ClawdBot, un agent à votre service (vous avez le choix dans le modèle)
Commençons par les présentations. ClawdBot est disponible depuis deux mois sur GitHub, sous licence MIT. Il se définit comme « un assistant personnel IA que vous utilisez sur vos machines. Il vous répond sur les canaux que vous utilisez déjà », notamment WhatsApp, Telegram, Slack, Discord, Google Chat, Signal, iMessage, Teams… Vous pouvez utiliser l’un ou l’autre des canaux (et aussi les mélanger), le bot est agnostique de la plateforme. De la documentation est disponible par ici.
Pour la partie IA, plusieurs solutions sont également possibles avec Claude (Anthropic est recommandé par les développeurs), mais aussi d’autres modèles comme ChatGPT (OpenAI), Gemini (Google) et Copilot (Microsoft). Les développeurs mettent aussi en avant sa mémoire persistante. Il est conseillé d’avoir une formule payante, faute de quoi les limitations de la version gratuite devraient rapidement se faire sentir. Même avec une version payante, les « tokens » filent relativement vite, attention.
La Gateway est le cœur de l’agent IA, c’est ici que vous configurez les modèles et les interfaces accessibles. Elle peut être locale ou à distance, pour ne pas dépendre de votre machine par exemple. En effet, si ClawdBot est installé localement, vous ne pourrez pas l’appeler si votre ordinateur est éteint. Moins pratique selon vos usages.
Avec autorisation, ClawdBot peut accéder à vos données
Il reste 80% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Pour montrer que le gouvernement veut sortir de la dépendance aux outils numériques américains, le ministre de la Fonction publique, David Amiel, annonce la généralisation de l’utilisation de l’outil Visio de La Suite numérique et l’abandon des licences Zoom du CNRS.
L’outil de visioconférence « Visio » de la plateforme La Suite numérique devra être utilisé (et donc utilisable) par l’ensemble des services de l’État d’ici 2027, a annoncé le ministère chargé de la fonction publique et de la réforme de l’État.
100 % des agents de l’État d’ici 2027
« Nous sommes devenus dépendants à Teams, à Zoom. Il faut donc au sein de l’État se désintoxiquer pour assurer la sécurité de nos échanges en toutes circonstances », constatait ce week-end le ministre David Amiel dans la Tribune du Dimanche. Dans son communiqué, le ministère évoque aussi GoTo Meeting ou Webex. Bref, bien trop de solutions de visio propriétaires et gérées par des entreprises américaines. Et, en ces temps où l’on peut se poser la question d’une éventuelle coupure du robinet de la tech US, la souveraineté numérique est sur toutes les lèvres.
« Le Premier ministre va ces prochains jours diffuser une circulaire pour l’officialiser : 100 % française, Visio sera progressivement déployée pour 100 % des agents de l’État », expliquait le ministre à nos confrères.
Visio est un outil développé par la Dinum au sein de sa plateforme La Suite numérique. L’outil ne sort pas d’un chapeau. Comme nous l’expliquions déjà en juin 2025, ce système de vidéoconférence (appelé La Suite Meet à l’époque) appuie son code (disponible sur GitHub en licence MIT) sur le travail de LiveKit.
Mais David Amiel annonce donc un passage à une plus grosse échelle pour cet outil de la Dinum. Jusque-là, il comptait 40 000 utilisateurs réguliers. Il va bientôt devoir accueillir 200 000 agents de la fonction publique d’ici peu puisqu’il est censé devenir, d’ici la fin du premier trimestre 2026, la solution de visio du CNRS, de l’Assurance Maladie, de la Direction Générale des Finances Publiques (DGFiP) et du ministère des Armées.
Le ministère en profite pour indiquer que le CNRS va abandonner ses licences Zoom. Les 34 000 agents, 120 000 chercheurs et les unités mixtes de recherche qui dépendent du centre devront officiellement passer par Visio (notons qu’en pratique, rien ne permet d’interdire à une personne du CNRS d’utiliser un autre logiciel).
Rappelons quand même que le CNRS avait aussi un outil interne de visioconférence appuyé sur le logiciel libre de visioconférence Big Blue Button. Mais celui-ci ne semble pas avoir eu le succès que la DSI du CNRS escomptait, peut-être à cause d’une infrastructure n’étant pas capable d’assurer une visioconférence fluide à ses utilisateurs.
Hébergé par Outscale, accompagné par l’ANSSI
C’est d’ailleurs l’enjeu autour de cette généralisation de l’utilisation de Visio à tous les fonctionnaires d’ici 2027 : l’outil de la DINUM sera-t-il déployé avec des moyens adéquats ?
Le ministère précise en tout cas que la solution est déployée « avec l’appui de l’ANSSI » et sera hébergée chez Outscale, filiale de Dassault Systèmes, sur une infrastructure labellisée SecNumCloud.
Visio intègre actuellement un outil de transcription en bêta, selon son GitHub. Le ministère explique que la startup française Pyannote est chargée de le développer. Visio devrait aussi intégrer « d’ici l’été 2026 » un outil de sous-titrage en temps réel développé par Kyutai, l’entreprise de R&D de Xavier Niel, Rodolphe Saadé et Eric Schmidt.
Visio doit aussi « permettre d’économiser plusieurs millions d’euros par an car nous n’aurons plus à renouveler des licences auprès d’acteurs non-européens », selon David Amiel.
L’Assemblée nationale va débuter lundi l’examen d’une proposition de loi visant à interdire l’accès aux réseaux sociaux aux mineurs de moins de 15 ans. Emmanuel Macron, qui a redit sa détermination à faire entrer le texte en vigueur avant la rentrée de septembre, a poussé pour que le gouvernement adopte la procédure d’urgence, en dépit des questions techniques et juridiques qui restent en suspens.
La proposition de loi « visant à protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux » va débuter son parcours parlementaire ce lundi 26 janvier. Dans un calendrier chargé, elle bénéficie d’un passe-droit. Le Gouvernement a en effet engagé la procédure accélérée sur le texte vendredi dernier, pour essayer de tenir l’objectif, plusieursfoisrépété par le président de la République, d’une mise en œuvre au 1er septembre 2026.
Trois textes pour une même problématique ?
Alors que Gabriel Attal planchait sur la question et que le Sénat a déjà adopté en première lecture une proposition de loi le 18 décembre dernier, c’est finalement le projet porté par Laure Miller (Ensemble pour la République) qui sera examiné en première lecture dans le cadre de la niche parlementaire du parti présidentiel.
Déposé le 18 novembre dernier, il découle des travaux de Laure Miller autour de la commission en charge de l’examen des pratiques et dérives associées à TikTok. En septembre dernier, elle avait rendu un rapport particulièrement virulent contre les dangers potentiels des réseaux sociaux sur les jeunes publics.
Ces conclusions sont désormais reprises dans une proposition de loi qui veut donc instaurer l’interdiction d’accès aux réseaux sociaux pour les moins de 15 ans, mais prévoit aussi l’interdiction du téléphone portable au lycée, l’inscription d’un message d’avertissement sur les emballages de smartphones, ou l’obligation faite aux professionnels de l’accueil de jeunes enfants de leur éviter toute exposition aux écrans.
Pour faire bonne mesure, il envisage également l’encadrement de la publicité pour les réseaux sociaux, et le renforcement des dispositifs de lutte contre la diffusion en ligne de contenus constituant des délits.
Un virage de dernière minute sur l’interdiction
Du fait de ce vaste panorama de mesures et de la concurrence entre textes, l’examen risque de se révéler particulièrement complexe. La version présentée à l’examen des députés ce 26 janvier se veut cependant expurgée d’un certain nombre de chausse-trappes, notamment grâce à l’intervention du Conseil d’État, qui a délibéré le 8 janvier dernier un avis rendu public cinq jours plus tard.
L’article 1er du texte a ainsi été réécrit en dernière minute pour faire porter la responsabilité de l’interdiction non pas sur l’éditeur du réseau social, mais sur le mineur. Le Conseil d’État a en effet estimé que la mesure serait contraire au règlement européen sur le numérique (DSA), dans la mesure où ce dernier prévoit que « les États membres peuvent définir des mesures de politique sociale, notamment fixer un âge minimal d’accès, mais ne peuvent pas imposer d’obligations supplémentaires aux plateformes en ligne ».
Alors qu’il prévoyait initialement d’imposer aux réseaux sociaux « de refuser l’inscription des mineurs de 15 ans à leurs services et de suspendre les comptes déjà créés et détenus par des mineurs de 15 ans », le texte programmé pour l’examen en séance publique dispose désormais qu’il est « interdit au mineur de quinze ans d’accéder à un service de plateforme de partage de vidéos », sur la base d’une liste établie par le gouvernement après avis de l’Arcom.
Problème : comme le remarquent certains des 118 amendements déposés sur le texte, ce dernier ne précise pas, à ce stade, comment sera opérée l’indispensable vérification d’âge visant à assurer le respect de cette nouvelle interdiction.
Quelle vérification d’âge ?
« L’effectivité de la vérification d’âge est une vraie question. J’en suis aussi soucieuse que vous », a déclaré à ce sujet la rapporteure du texte en réunion le 13 janvier dernier (voir le compte-rendu et le rapport associés) :
« Toutefois, l’architecture du droit européen et le DSA ont de quoi nous rassurer : si les plateformes veulent respecter la réglementation européenne, elles devront absolument instaurer des vérifications d’âge robustes, fiables et respectueuses de la vie privée. La Commission européenne fait souvent référence au système du double anonymat : l’utilisateur envoie ses données personnelles à une plateforme neutre – un tiers de confiance –, qui infirme ou confirme ensuite au réseau social que l’utilisateur a atteint l’âge de 15 ans. »
La France fait pour mémoire partie, sur ce volet, des cinq pays qui doivent tester la solution de vérification d’âge en double anonymat expérimentée par la Commission européenne, mais rien ne permet d’affirmer que cette dernière sera déployée d’ici la rentrée de septembre.
Telle est pourtant bien l’ambition renouvelée dimanche par Emmanuel Macron. « Ce texte va nous permettre de concrétiser une ambition que nous portons depuis plusieurs années, qui est pour moi très importante et qui fait l’objet d’un engagement fort que j’ai pris auprès des Françaises et des Français », affirme ce dernier dans un message vidéo adressé à la députée Laure Miller, relayé par BFM.
Le sujet fait parler depuis quelques jours : Microsoft a transmis aux autorités des clés BitLocker en réponse à une ordonnance judiciaire. La surprise n’est pas dans la réponse de Microsoft, mais sur le fait que des utilisateurs semblent découvrir qu’envoyer ses clés de chiffrement en clair sur le cloud de Microsoft permette à ce dernier d‘y accéder.
BitLocker est un outil de Microsoft pour chiffrer les données de votre périphérique de stockage. Il est intégré dans Windows et chiffre des volumes entiers. Microsoft présente cette fonctionnalité comme une « réponse aux menaces de vol de données ou d’exposition d’appareils perdus, volés ou mis hors service de manière inappropriée ».
BitLocker : « Microsoft a donné des clés au FBI »…
Pour résumer, si une personne dérobe un disque dur ou un SSD chiffré avec BitLocker, elle ne pourra pas accéder aux données sans la clé de déchiffrement. La fonction est pensée pour être la plus transparente possible pour les utilisateurs, notamment ceux qui disposent d’un module TPM sur leur machine. Il s’assure en effet « qu’un appareil n’a pas été falsifié pendant que le système est hors connexion » avant de déverrouiller l’accès aux données.
Dans le cas contraire, une clé de récupération BitLocker, « qui est un nombre à 48 chiffres, est utilisée pour récupérer l’accès au lecteur », explique Microsoft. Cela arrive parfois lorsque Windows « plante » pour une raison ou une autre (après une mise à jour par exemple). Si le périphérique de stockage est enlevé de l’ordinateur pour être lu depuis une autre machine, la clé BitLocker sera également nécessaire pour déchiffrer les données.
Dans un article, Forbes titre : « Microsoft a donné des clés au FBI pour déverrouiller des données chiffrées, révélant une grave faille de confidentialité ». So what ? Serions-nous presque tentés de dire, tant la situation n’est pas nouvelle. Nos confrères ajoutent d’ailleurs que Microsoft reçoit une vingtaine de demandes de clés BitLocker par an, et que l’entreprise « la fournit aux gouvernements en réponse à des ordonnances judiciaires valides ».
… car elles sont sauvegardées en ligne par défaut
Sur cette page, Microsoft rappelle que « votre clé de récupération peut se trouver à plusieurs endroits, en fonction du choix effectué lors de l’activation de BitLocker ». Le plus courant et le choix largement poussé par Microsoft (c’est celui par défaut) est le compte maison, automatiquement sauvegardé en ligne. Nous en parlions il y a déjà près de deux ans par exemple.
Les clés BitLocker sont ainsi rattachées à votre compte Microsoft (vous pouvez les retrouver sur cette page) et donc facilement récupérables… mais aussi accessibles à Microsoft, qui peut donc les transmettre aux autorités. Afin d’éviter d’envoyer la clé sur des serveurs tiers, vous pouvez aussi l’imprimer ou la sauvegarder en local, sur une clé USB.
Microsoft rappelle que, « si vous ne trouvez pas la clé de récupération BitLocker et que vous ne parvenez pas à annuler les modifications qui en ont causé la nécessité, vous devez réinitialiser votre appareil. [Cela] entraîne la suppression de tous vos fichiers ».
Pour Microsoft, « les clients sont les mieux placés pour décider »
« Bien que la récupération de clés offre de la commodité, elle comporte aussi un risque d’accès indésirable, donc Microsoft estime que les clients sont les mieux placés pour décider… comment gérer leurs clés », explique un porte-parole de Microsoft à Forbes. Sur la vingtaine de demandes par an, l’utilisateur n’a dans « de nombreux cas », pas stocké sa clé dans le cloud de Microsoft, qui ne peut ainsi pas la transmettre aux autorités. L’entreprise ne donne pas de chiffre précis.
Sauvegarder la clé par défaut dans le cloud et la laisser accessible à Microsoft (et donc aux autorités) est un choix de Microsoft, d’autres n’ont pas fait le même. Apple, par exemple, ne peut pas accéder aux données chiffrées sur les terminaux de ses clients. Nous en avions longuement parlé avec l’iPhone retrouvé sur un terroriste après la fusillade de San Bernardino. Les autorités étaient finalement passé par une faille pour accéder aux données, au grand dam d’Apple.
« Si Apple peut le faire, si Google peut le faire, alors Microsoft peut le faire. Microsoft est la seule entreprise qui ne fait pas cela », explique Matt Green, expert en cryptographie et professeur à l’université Johns Hopkins, à nos confrères. Microsoft propose cette fonctionnalité, mais par défaut les clés sont envoyées sur le cloud lié à votre compte Microsoft, il faut donc une action de l’utilisateur, là où c’est le comportement par défaut sur Apple. De plus, Microsoft restreint toujours plus la possibilité de créer et d’utiliser un compte local sur Windows.
Pour protéger vos données, n’envoyez jamais la clé en clair sur un « cloud »
Bref, rien de vraiment nouveau dans cette histoire de BitLocker, si ce n’est la confirmation de la transmission des clés par Microsoft sur demande d’une autorité judiciaire, et l’accès aux données par les autorités. En termes de cybersécurité de toute façon, laisser ses clés accessibles à un tiers signifie qu’il peut accéder à vos données.
BitLocker reste une protection contre le vol d’un périphérique de stockage – Microsoft ne va pas donner les clés à n’importe qui –, mais n’est pas une protection absolue contre l’accès d’un tiers et notamment les autorités… mais on le sait déjà depuis des années. Si tel est votre besoin, il ne faut JAMAIS envoyer les clés en clair sur un cloud.
Microsoft rappelle aussi que, « en plus du TPM, BitLocker peut verrouiller le processus de démarrage normal jusqu’à ce que l’utilisateur fournisse un numéro d’identification personnel (PIN) ou insère un appareil amovible contenant une clé de démarrage. Ces mesures de sécurité fournissent une authentification multifacteur et l’assurance que l’appareil ne peut pas démarrer ou reprendre sa mise en veille prolongée tant que le code confidentiel ou la clé de démarrage approprié n’est pas présenté ».
Tout juste le deal créant la coentreprise TikTok USDS scellé, l’entreprise a changé sa politique de confidentialité pour ses utilisateurs américains le même jour.
Ainsi, comme le note Wired, TikTok se permet d’utiliser des informations plus précises sur la géolocalisation de ses utilisateurs aux États-Unis. La nouvelle politique s’appuie sur les données de géolocalisation dérivées du GPS, si les utilisateurs ont autorisé le partage de ces informations à l’application dans le système d’exploitation de leur smartphone.
L’entreprise en profite aussi pour s’autoriser à stocker toute information concernant l’usage d’IA générative par ses utilisateurs. « Nous recueillons automatiquement certaines informations vous concernant lorsque vous utilisez les Services, notamment… les métadonnées qui sont automatiquement téléchargées en relation avec votre contenu utilisateur, vos messages ou vos interactions avec l’IA, telles que la manière, le moment, le lieu et l’auteur de la création du contenu utilisateur ou de l’envoi du message ou du prompt », explique TikTok à ses utilisateurs américains.
Un autre changement qui pourrait passer plus inaperçu est celui sur l’utilisation des données pour de la publicité ciblée. Elle se permet de l’étendre à des publicités de son réseau publicitaire « ailleurs en ligne, en fonction de vos paramètres publicitaires ».
Dans ces nouvelles politiques de confidentialité, TikTok se permet de rappeler que :
« Les informations que vous fournissez peuvent inclure des informations personnelles sensibles, telles que définies par les lois applicables en matière de confidentialité, telles que les informations provenant d’utilisateurs n’ayant pas atteint l’âge minimum requis, les informations que vous divulguez dans vos réponses à des sondages ou dans votre contenu utilisateur concernant votre origine raciale ou ethnique, votre origine nationale, vos croyances religieuses, votre état de santé mentale ou physique, votre vie sexuelle ou votre orientation sexuelle, votre statut de transgenre ou non binaire, votre citoyenneté ou votre statut d’immigrant, ou vos informations financières. Par exemple, nous pouvons traiter vos informations financières afin de vous fournir les biens ou services que vous nous demandez, ou votre numéro de permis de conduire afin de vérifier votre identité. Nous pouvons également collecter des données de localisation précises, en fonction de vos paramètres et comme expliqué ci-dessous. Nous traitons ces informations personnelles sensibles conformément à la loi applicable, par exemple à des fins autorisées en vertu de la loi californienne sur la protection de la vie privée des consommateurs (California Consumer Privacy Act) ».
Ce passage a attiré fortement l’attention de certains utilisateurs, comme Angelita Morillo, une élue de la ville de Portland ou le sénateur du Connecticut, Chris Murphy. Ce qui se comprend vu la situation politique aux États-Unis, la place qu’a prise le CEO d’Oracle Larry Ellison auprès de Trump et la position importante de son entreprise dans la nouvelle coentreprise TikTok USDS.
Mais, comme l’explique TechCrunch, ce passage n’est pas nouveau et est surtout là pour que TikTok soit en conformité avec la loi californienne qui oblige les plateformes à préciser les types d’informations sensibles qui peuvent être collectées.
ChatGPT Santé a été annoncé il y a deux semaines et ce n’est pas le projet qui lance l’utilisation des LLM en santé. Mais une recherche récente sur les réponses des modèles de langage concernant des questions sur la santé montre qu’ils peuvent générer des conseils problématiques, notamment en faisant des erreurs par omission.
Avec le lancement de ChatGPT Santé, la santé voit l’IA générative et l’utilisation des modèles de langage dans son champ promues largement dans les mains du grand public. Pourtant, des chercheurs montrent que les réponses de chatbots peuvent être très problématiques.
Nous sommes à « un moment où les puissants modèles d’apprentissage automatique (LLM) sont intégrés dans les soins aux patients plus rapidement que leurs risques ne peuvent être compris », affirme David Wu de l’école de médecine de Harvard, Ethan Goh de l’école de médecine de Stanford et leurs collègues. Ils ont récemment mis en ligne une étude (sur la plateforme de prépublication arXiv) qui teste 31 modèles et constate le risque de préjudice grave lié aux recommandations données par ces 31 LLM.
D’abord, ne pas faire de mal
« Primum non nocere [d’abord, ne pas faire de mal en français ou, first do no harm en anglais] est un principe fondamental de la médecine depuis des milliers d’années », rappellent-ils dans leur article. C’est inspiré de ce principe qu’ils proposent leur benchmark NOHARM (Numerous Options Harm Assessment for Risk in Medicine) qui s’appuie sur 100 cas réels de consultations entre médecins généralistes et spécialistes pour mesurer la fréquence et la gravité des préjudices causés par les recommandations médicales générées par les LLM.
Il reste 76% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Cette annonce a été faite par Lip-Bu Tan, le CEO d’Intel, pendant la conférence de présentation des résultats de l’entreprise (une retranscription est disponible sur Seeking Alpha). Il revient évidemment sur le lancement de Panther Lake (Core Ultra Series 3) avec les premières machines attendues dès le 27 janvier.
Mais il annonce surtout la couleur pour la suite : « Avec l’arrivée de notre processeur Nova Lake de nouvelle génération fin 2026, nous disposons désormais d’une feuille de route client qui allie performances de pointe et solutions optimisées en termes de coûts ».
Nova Lake sera donc la gamme des processeurs Core Ultra Series 4 pour les ordinateurs fixes et portables, sur un nouveau socket LGA 1954. Selon les dernières rumeurs reprises par Videocardz, cette famille de CPU pourrait intégrer jusqu’à 52 cœurs (16 cœurs performances, 32 cœurs efficacité et 4 cœurs basse consommation).
Il serait aussi question de nouvelles architectures Coyote Cove pour les P-cores et Arctic Wolf pour les E-cores. Un NPU de nouvelle génération est aussi annoncé, avec toujours plus de puissance de calcul pour des IA locales.
Nous devrions donc avoir deux générations de CPU cette année, alors que 2025 était une année « blanche ». Les Core Ultra Series 3 ont en effet été annoncés en septembre 2024. Intel est, pour rappel, revenu à une gravure maison pour ses Core Ultra Series 3 avec la technologie 18A.
La suite arrive avec la technologie 14A, dont « le développement est en bonne voie », affirme Lip-Bu Tan. Il ajoute que les premières puces devraient arriver en 2027, tandis que la production en volume est prévue pour 2028, bien après les Core Ultra Series 3 donc (qui seront en Intel 18A).
Peter Thiel, le milliardaire qui assume de vouloir en finir avec la démocratie, est l’invité, lundi 26 janvier, de l’Académie des sciences morales et politiques.
L’événement, dont la tenue a été révélée par le journaliste Olivier Tesquet, prend place en fin d’après-midi, après une communication de Philippe Étienne, ancien ambassadeur de France aux États-Unis, au sujet de l’impact de la présidence de Donald Trump sur la société et la démocratie américaines.
Pas un mot en revanche de Peter Thiel sur le calendrier public de l’établissement. « C’est une audition réservée aux académiciens, pas d’accès au public, c’est juste un groupe de travail… », minimise l’Académie, auprès de Libération.
« C’est privé, et c’est Peter Thiel qui a demandé à ce que ce soit confidentiel. Il veut pas non plus que ça se sache (…), il veut pas qu’il y ait des manifestations devant le truc », explique de son côté Carlos Diaz, l’animateur du podcast Silicon Carne, révélant au passage que Thiel organise dans la foulée de son intervention à l’Académie un dîner pour une cinquantaine de convives.
Gage Skidmore from Surprise, AZ, United States of America, CC BY-SA 2.0, via Wikimedia Commons
Peter Thiel risque d’être déçu : un appel au rassemblement a été lancé dimanche pour protester contre la venue de celui qui est qualifié de « principal idéologue du mouvement réactionnaire ».
Quel sera le propos de Thiel devant l’Académie des sciences morales et politiques ? Le milliardaire américain, cofondateur de PayPal puis de Palantir, a donné à l’automne un cycle de conférences privées consacrées à son idéologie dont les accents religieux servent un propos ouvertement libertarien.
Si l’Académie des sciences morales et politiques semble gênée aux entournures par cet invité, c’est peut-être aussi que le calendrier n’est pas idéal.
L’intervention de Peter Thiel est en effet programmée alors que l’opinion publique s’émeut, dans le monde entier, de la mort d’Alex Pretti, tué samedi par un agent de la Border Patrol (une agence fédérale de police en charge de l’immigration) à Minneapolis.
Or Palantir fait partie des entreprises, proches du président Trump, qui profite directement, d’un point de vue financier, des 27,7 milliards de dollars de budget annuel dont dispose désormais l’ICE, la police anti-immigration devenue première force fédérale américaine.
Trois semaines après une cyberattaque d’envergure, La Poste revient sur le sujet. À défaut d’un post-mortem technique, l’entreprise distille quelques chiffres et affirme aussi qu’« aucune entreprise française n’a subi, à ce jour, une cyberattaque en déni de services d’une telle intensité ». Dans le monde, il y a déjà eu bien pire.
Le 22 décembre, La Poste était la cible d’une cyberattaque d’ampleur qui a rendu indisponibles ses services en ligne pendant plusieurs jours. Le 24 décembre, le groupe annonçait un retour partiel à la normale, puis les choses allaient de mieux en mieux après Noël. Le 1ᵉʳ janvier, rebelote avec de nouveau des services indisponibles à cause d’une cyberattaque DDoS.
Dans tous les cas, aucune fuite de données n’a eu lieu, affirme l’entreprise. Le but de ce genre d’attaques par déni de service n’est pas de pénétrer les systèmes pour récupérer des données, mais de les rendre indisponibles en les bombardant de requêtes pour complètement les submerger. Sur ce point, c’était gagné.
« Inédite par sa sophistication technique »
Trois semaines plus tard, Philippe Bertrand, directeur de la sécurité globale du groupe, revient sur cette période compliquée dans un jeu de questions et réponses réalisé en interne. Une manière de mener une « interview » mais de pouvoir choisir aussi bien les questions que les réponses et donc de parfaitement maitriser la communication.
Il affirme que cette cyberattaque est « inédite par sa sophistication technique », sans entrer dans les détails. Il assure qu’elle « s’est révélée d’une grande complexité car nos assaillants s’adaptaient en permanence aux réponses défensives que nous mettions en place ».
Cette cyberattaque serait aussi « inédite aussi par son intensité […] Pour vous donner une idée du volume massif de requêtes dirigés vers nos services en ligne, nous avons enregistré jusqu’à 2,5 milliards de paquets de données par seconde ».
Pour rappel, en octobre 2024, Cloudflare annonçait une attaque DDoS record avec 2,14 milliards de paquets par seconde, et un pic de trafic à 3,8 Tb/s. Ces « records » sont toujours éphémères et rapidement de nouvelles attaques encore plus puissantes sont lancées. Un an plus tard, en septembre 2025, le géant américain explosait les compteurs avec 22,2 Tb/s en pointe et jusqu’à 10,6 milliards de paquets par seconde.
Il n’en reste pas moins que 2,5 milliards de paquets par seconde est une attaque extrêmement massive. D’ailleurs, le groupe français affirme qu’« aucune autre entreprise en France n’a subi, à ce jour, une cyberattaque en DDoS d’une telle intensité ».
La puissance des pirates augmente de jour en jour
Il ajoute que cette cyberattaque est aussi « inédite par sa durée car elle a commencé le 22 décembre et a perduré jusqu’à début janvier ». Selon le patron de la cybersécurité, « il y a deux ans, une attaque de cette ampleur n’était techniquement pas envisageable. À mesure que la puissance informatique progresse, les acteurs malveillants deviennent aussi plus dangereux ».
En France, cela fait maintenant plus d’un an que les cyberattaques et fuites de données s’enchainent à vitesse grand V. De très nombreuses enseignes et associations sont touchées, mais aussi des institutions officielles.
Sur la question de l’augmentation de la puissance des attaquants, nous parlions récemment du cas des pirates qui se lancent dans la pêche au chalut quand une nouvelle faille est identifiée : ils scannent tout Internet. Ce n’était pas aussi facile et abordable il y a quelques années.
Quoi qu’il en soit, La Poste rappelle à juste titre que, peu importe « les moyens mis en place, aucune organisation ne peut empêcher les cyberattaques ». La Poste se félicite au passage de n’avoir « jamais été à l’arrêt » : ses sites industriels et bureaux de poste « ont continué leur activité ». Le groupe affirme avoir distribué pas moins de 180 millions de colis pendant les fêtes
Dans son interview maison, La Poste évite soigneusement plusieurs sujets, notamment la provenance de la cyberattaque et d’éventuelles demandes ou rançons qui auraient pu lui être adressées par les pirates. Le groupe se contente en effet de rappeler des généralités : « Nous ne sommes plus face à des hackers isolés à la recherche d’un coup d’éclat mais à des organisations criminelles de plus en plus structurées, parfois diligentées par des États, qui disposent de moyens colossaux ».
L’attaque a été revendiquée par le groupe NoName057(016), mais la prudence est toujours de mise face à ce genre de communication. Les pincettes sont toujours de rigueur dans ce genre de situation, mais encore plus cette fois-ci puisque le groupe pro-russe n’avait revendiqué l’attaque que le lendemain.
Seuls 20 % des Français se disent prêts à payer pour accéder à des contenus d’information en ligne, indique une étude de l’Arcom sur le modèle économique de l’information en France : 7 % moins de 5 euros par mois, 5 % entre 5 et 10 euros, 8 % plus de 10 euros.
80 % des Français déclarent ne pas être prêts à payer pour de l’information en ligne
« À titre de comparaison, 35 % des Français paient pour des offres sportives en ligne (Eurosport, Canal+ Sport, etc.), 50 % pour des services de vidéo à la demande (Netflix, Prime Video, etc.), et 40 % pour du streaming audio (Deezer, Spotify, etc.) », relève pourtant le rapport.
Le graphique présenté dans l’étude pourrait laisser entendre que la France se situe dans la moyenne. L’étude souligne d’ailleurs que « cette tendance est généralisée en Europe : par exemple, seuls 17 % des Anglais et 14 % des Espagnols se disent prêts à payer pour des contenus d’information en ligne ».
Or, la source du graphique montre, a contrario, que 33 % des citoyens européens, en moyenne, paient pour accéder à de l’information, et que la France fait même partie des cinq pays de l’UE dont les citoyens sont les moins enclins à payer pour de l’information.
33 % des Européens, mais 20 % des Français, paient pour s’informer
La 39ème édition du baromètre La Croix – Verian – La Poste sur la confiance des Français dans les médias, rendue publique la semaine passée, montre pourtant que les Français déclarent que la perception de la crédibilité d’un média est beaucoup plus importante lorsqu’il est financé par ses abonnés (52 %) que par de l’argent public (42 %), la publicité (40 %), un fonds ou un actionnaire privé (36 %).
Le fait d’être financé par ses lecteurs est le premier critère de confiance envers les médias