Loi de Murphy : tout ce qui est susceptible d'aller mal ira mal
Vous avez envie de disposer d’un agent IA capable de vous répondre sur de nombreux canaux de communication et d’accéder à vos données ? Le projet ClawdBot (licence MIT) pourrait répondre à vos besoins… mais attention à bien savoir ce que vous faites avec ce genre d’outils.
ClawdBot n’est pas un nouveau projet (il date de fin 2025) mais sa popularité a explosé sur GitHub depuis mi-janvier et il fait beaucoup parler de lui ces derniers jours.
ClawdBot, un agent à votre service (vous avez le choix dans le modèle)
Commençons par les présentations. ClawdBot est disponible depuis deux mois sur GitHub, sous licence MIT. Il se définit comme « un assistant personnel IA que vous utilisez sur vos machines. Il vous répond sur les canaux que vous utilisez déjà », notamment WhatsApp, Telegram, Slack, Discord, Google Chat, Signal, iMessage, Teams… Vous pouvez utiliser l’un ou l’autre des canaux (et aussi les mélanger), le bot est agnostique de la plateforme. De la documentation est disponible par ici.
Pour la partie IA, plusieurs solutions sont également possibles avec Claude (Anthropic est recommandé par les développeurs), mais aussi d’autres modèles comme ChatGPT (OpenAI), Gemini (Google) et Copilot (Microsoft). Les développeurs mettent aussi en avant sa mémoire persistante. Il est conseillé d’avoir une formule payante, faute de quoi les limitations de la version gratuite devraient rapidement se faire sentir. Même avec une version payante, les « tokens » filent relativement vite, attention.
La Gateway est le cœur de l’agent IA, c’est ici que vous configurez les modèles et les interfaces accessibles. Elle peut être locale ou à distance, pour ne pas dépendre de votre machine par exemple. En effet, si ClawdBot est installé localement, vous ne pourrez pas l’appeler si votre ordinateur est éteint. Moins pratique selon vos usages.
Avec autorisation, ClawdBot peut accéder à vos données
Il reste 80% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Le sujet fait parler depuis quelques jours : Microsoft a transmis aux autorités des clés BitLocker en réponse à une ordonnance judiciaire. La surprise n’est pas dans la réponse de Microsoft, mais sur le fait que des utilisateurs semblent découvrir qu’envoyer ses clés de chiffrement en clair sur le cloud de Microsoft permette à ce dernier d‘y accéder.
BitLocker est un outil de Microsoft pour chiffrer les données de votre périphérique de stockage. Il est intégré dans Windows et chiffre des volumes entiers. Microsoft présente cette fonctionnalité comme une « réponse aux menaces de vol de données ou d’exposition d’appareils perdus, volés ou mis hors service de manière inappropriée ».
BitLocker : « Microsoft a donné des clés au FBI »…
Pour résumer, si une personne dérobe un disque dur ou un SSD chiffré avec BitLocker, elle ne pourra pas accéder aux données sans la clé de déchiffrement. La fonction est pensée pour être la plus transparente possible pour les utilisateurs, notamment ceux qui disposent d’un module TPM sur leur machine. Il s’assure en effet « qu’un appareil n’a pas été falsifié pendant que le système est hors connexion » avant de déverrouiller l’accès aux données.
Dans le cas contraire, une clé de récupération BitLocker, « qui est un nombre à 48 chiffres, est utilisée pour récupérer l’accès au lecteur », explique Microsoft. Cela arrive parfois lorsque Windows « plante » pour une raison ou une autre (après une mise à jour par exemple). Si le périphérique de stockage est enlevé de l’ordinateur pour être lu depuis une autre machine, la clé BitLocker sera également nécessaire pour déchiffrer les données.
Dans un article, Forbes titre : « Microsoft a donné des clés au FBI pour déverrouiller des données chiffrées, révélant une grave faille de confidentialité ». So what ? Serions-nous presque tentés de dire, tant la situation n’est pas nouvelle. Nos confrères ajoutent d’ailleurs que Microsoft reçoit une vingtaine de demandes de clés BitLocker par an, et que l’entreprise « la fournit aux gouvernements en réponse à des ordonnances judiciaires valides ».
… car elles sont sauvegardées en ligne par défaut
Sur cette page, Microsoft rappelle que « votre clé de récupération peut se trouver à plusieurs endroits, en fonction du choix effectué lors de l’activation de BitLocker ». Le plus courant et le choix largement poussé par Microsoft (c’est celui par défaut) est le compte maison, automatiquement sauvegardé en ligne. Nous en parlions il y a déjà près de deux ans par exemple.
Les clés BitLocker sont ainsi rattachées à votre compte Microsoft (vous pouvez les retrouver sur cette page) et donc facilement récupérables… mais aussi accessibles à Microsoft, qui peut donc les transmettre aux autorités. Afin d’éviter d’envoyer la clé sur des serveurs tiers, vous pouvez aussi l’imprimer ou la sauvegarder en local, sur une clé USB.
Microsoft rappelle que, « si vous ne trouvez pas la clé de récupération BitLocker et que vous ne parvenez pas à annuler les modifications qui en ont causé la nécessité, vous devez réinitialiser votre appareil. [Cela] entraîne la suppression de tous vos fichiers ».
Pour Microsoft, « les clients sont les mieux placés pour décider »
« Bien que la récupération de clés offre de la commodité, elle comporte aussi un risque d’accès indésirable, donc Microsoft estime que les clients sont les mieux placés pour décider… comment gérer leurs clés », explique un porte-parole de Microsoft à Forbes. Sur la vingtaine de demandes par an, l’utilisateur n’a dans « de nombreux cas », pas stocké sa clé dans le cloud de Microsoft, qui ne peut ainsi pas la transmettre aux autorités. L’entreprise ne donne pas de chiffre précis.
Sauvegarder la clé par défaut dans le cloud et la laisser accessible à Microsoft (et donc aux autorités) est un choix de Microsoft, d’autres n’ont pas fait le même. Apple, par exemple, ne peut pas accéder aux données chiffrées sur les terminaux de ses clients. Nous en avions longuement parlé avec l’iPhone retrouvé sur un terroriste après la fusillade de San Bernardino. Les autorités étaient finalement passé par une faille pour accéder aux données, au grand dam d’Apple.
« Si Apple peut le faire, si Google peut le faire, alors Microsoft peut le faire. Microsoft est la seule entreprise qui ne fait pas cela », explique Matt Green, expert en cryptographie et professeur à l’université Johns Hopkins, à nos confrères. Microsoft propose cette fonctionnalité, mais par défaut les clés sont envoyées sur le cloud lié à votre compte Microsoft, il faut donc une action de l’utilisateur, là où c’est le comportement par défaut sur Apple. De plus, Microsoft restreint toujours plus la possibilité de créer et d’utiliser un compte local sur Windows.
Pour protéger vos données, n’envoyez jamais la clé en clair sur un « cloud »
Bref, rien de vraiment nouveau dans cette histoire de BitLocker, si ce n’est la confirmation de la transmission des clés par Microsoft sur demande d’une autorité judiciaire, et l’accès aux données par les autorités. En termes de cybersécurité de toute façon, laisser ses clés accessibles à un tiers signifie qu’il peut accéder à vos données.
BitLocker reste une protection contre le vol d’un périphérique de stockage – Microsoft ne va pas donner les clés à n’importe qui –, mais n’est pas une protection absolue contre l’accès d’un tiers et notamment les autorités… mais on le sait déjà depuis des années. Si tel est votre besoin, il ne faut JAMAIS envoyer les clés en clair sur un cloud.
Microsoft rappelle aussi que, « en plus du TPM, BitLocker peut verrouiller le processus de démarrage normal jusqu’à ce que l’utilisateur fournisse un numéro d’identification personnel (PIN) ou insère un appareil amovible contenant une clé de démarrage. Ces mesures de sécurité fournissent une authentification multifacteur et l’assurance que l’appareil ne peut pas démarrer ou reprendre sa mise en veille prolongée tant que le code confidentiel ou la clé de démarrage approprié n’est pas présenté ».
Cette annonce a été faite par Lip-Bu Tan, le CEO d’Intel, pendant la conférence de présentation des résultats de l’entreprise (une retranscription est disponible sur Seeking Alpha). Il revient évidemment sur le lancement de Panther Lake (Core Ultra Series 3) avec les premières machines attendues dès le 27 janvier.
Mais il annonce surtout la couleur pour la suite : « Avec l’arrivée de notre processeur Nova Lake de nouvelle génération fin 2026, nous disposons désormais d’une feuille de route client qui allie performances de pointe et solutions optimisées en termes de coûts ».
Nova Lake sera donc la gamme des processeurs Core Ultra Series 4 pour les ordinateurs fixes et portables, sur un nouveau socket LGA 1954. Selon les dernières rumeurs reprises par Videocardz, cette famille de CPU pourrait intégrer jusqu’à 52 cœurs (16 cœurs performances, 32 cœurs efficacité et 4 cœurs basse consommation).
Il serait aussi question de nouvelles architectures Coyote Cove pour les P-cores et Arctic Wolf pour les E-cores. Un NPU de nouvelle génération est aussi annoncé, avec toujours plus de puissance de calcul pour des IA locales.
Nous devrions donc avoir deux générations de CPU cette année, alors que 2025 était une année « blanche ». Les Core Ultra Series 3 ont en effet été annoncés en septembre 2024. Intel est, pour rappel, revenu à une gravure maison pour ses Core Ultra Series 3 avec la technologie 18A.
La suite arrive avec la technologie 14A, dont « le développement est en bonne voie », affirme Lip-Bu Tan. Il ajoute que les premières puces devraient arriver en 2027, tandis que la production en volume est prévue pour 2028, bien après les Core Ultra Series 3 donc (qui seront en Intel 18A).
Trois semaines après une cyberattaque d’envergure, La Poste revient sur le sujet. À défaut d’un post-mortem technique, l’entreprise distille quelques chiffres et affirme aussi qu’« aucune entreprise française n’a subi, à ce jour, une cyberattaque en déni de services d’une telle intensité ». Dans le monde, il y a déjà eu bien pire.
Le 22 décembre, La Poste était la cible d’une cyberattaque d’ampleur qui a rendu indisponibles ses services en ligne pendant plusieurs jours. Le 24 décembre, le groupe annonçait un retour partiel à la normale, puis les choses allaient de mieux en mieux après Noël. Le 1ᵉʳ janvier, rebelote avec de nouveau des services indisponibles à cause d’une cyberattaque DDoS.
Dans tous les cas, aucune fuite de données n’a eu lieu, affirme l’entreprise. Le but de ce genre d’attaques par déni de service n’est pas de pénétrer les systèmes pour récupérer des données, mais de les rendre indisponibles en les bombardant de requêtes pour complètement les submerger. Sur ce point, c’était gagné.
« Inédite par sa sophistication technique »
Trois semaines plus tard, Philippe Bertrand, directeur de la sécurité globale du groupe, revient sur cette période compliquée dans un jeu de questions et réponses réalisé en interne. Une manière de mener une « interview » mais de pouvoir choisir aussi bien les questions que les réponses et donc de parfaitement maitriser la communication.
Il affirme que cette cyberattaque est « inédite par sa sophistication technique », sans entrer dans les détails. Il assure qu’elle « s’est révélée d’une grande complexité car nos assaillants s’adaptaient en permanence aux réponses défensives que nous mettions en place ».
Cette cyberattaque serait aussi « inédite aussi par son intensité […] Pour vous donner une idée du volume massif de requêtes dirigés vers nos services en ligne, nous avons enregistré jusqu’à 2,5 milliards de paquets de données par seconde ».
Pour rappel, en octobre 2024, Cloudflare annonçait une attaque DDoS record avec 2,14 milliards de paquets par seconde, et un pic de trafic à 3,8 Tb/s. Ces « records » sont toujours éphémères et rapidement de nouvelles attaques encore plus puissantes sont lancées. Un an plus tard, en septembre 2025, le géant américain explosait les compteurs avec 22,2 Tb/s en pointe et jusqu’à 10,6 milliards de paquets par seconde.
Il n’en reste pas moins que 2,5 milliards de paquets par seconde est une attaque extrêmement massive. D’ailleurs, le groupe français affirme qu’« aucune autre entreprise en France n’a subi, à ce jour, une cyberattaque en DDoS d’une telle intensité ».
La puissance des pirates augmente de jour en jour
Il ajoute que cette cyberattaque est aussi « inédite par sa durée car elle a commencé le 22 décembre et a perduré jusqu’à début janvier ». Selon le patron de la cybersécurité, « il y a deux ans, une attaque de cette ampleur n’était techniquement pas envisageable. À mesure que la puissance informatique progresse, les acteurs malveillants deviennent aussi plus dangereux ».
En France, cela fait maintenant plus d’un an que les cyberattaques et fuites de données s’enchainent à vitesse grand V. De très nombreuses enseignes et associations sont touchées, mais aussi des institutions officielles.
Sur la question de l’augmentation de la puissance des attaquants, nous parlions récemment du cas des pirates qui se lancent dans la pêche au chalut quand une nouvelle faille est identifiée : ils scannent tout Internet. Ce n’était pas aussi facile et abordable il y a quelques années.
Quoi qu’il en soit, La Poste rappelle à juste titre que, peu importe « les moyens mis en place, aucune organisation ne peut empêcher les cyberattaques ». La Poste se félicite au passage de n’avoir « jamais été à l’arrêt » : ses sites industriels et bureaux de poste « ont continué leur activité ». Le groupe affirme avoir distribué pas moins de 180 millions de colis pendant les fêtes
Dans son interview maison, La Poste évite soigneusement plusieurs sujets, notamment la provenance de la cyberattaque et d’éventuelles demandes ou rançons qui auraient pu lui être adressées par les pirates. Le groupe se contente en effet de rappeler des généralités : « Nous ne sommes plus face à des hackers isolés à la recherche d’un coup d’éclat mais à des organisations criminelles de plus en plus structurées, parfois diligentées par des États, qui disposent de moyens colossaux ».
L’attaque a été revendiquée par le groupe NoName057(016), mais la prudence est toujours de mise face à ce genre de communication. Les pincettes sont toujours de rigueur dans ce genre de situation, mais encore plus cette fois-ci puisque le groupe pro-russe n’avait revendiqué l’attaque que le lendemain.
Olvid va lancer des serveurs autonomes pour les clients qui veulent les héberger eux-mêmes. Ils peuvent être ou non reliés à Internet et permettent à des clients de gérer leur messagerie, de bout en bout. Le lancement est prévu pour début 2026.
Mise à jour du 23 janvier à 18h15. Alors que la question était encore en suspens il y a quelques semaines, Olvid a finalement pris une décision concernant le code source de la partie serveur : il vient d’être publié sur GitHub sous licence AGPL 3.0. Le code source des applications est disponible depuis 2021.
« Ce dépôt contient le code source des fonctions Lambda utilisées dans le serveur de distribution de messages Olvid hébergé chez AWS. Ce code a été dépouillé de certains éléments liés à la version payante », explique la messagerie chiffrée.
L’entreprise rappelle qu’elle travaille « actuellement sur une autre version de ce serveur de distribution de messages, qui sera portable et facilement déployable sur n’importe quel fournisseur de cloud, voire sur un serveur domestique ».
Article original du 10 octobre à 8h12. Il y a deux ans, aux Assises de la cybersécurité de Monaco, la messagerie sécurisée Olvid lançait ses applications pour ordinateur (Windows, macOS et Linux), en plus des applications mobiles pour Android et iOS qui existaient déjà. Encore deux ans auparavant, fin 2021, leur code source était mis en ligne.
Olvid toujours chez AWS à cause de DynamoDB… so what ?
La société nous expliquait aussi les raisons du choix d’Amazon Web Services (AWS) pour héberger la partie serveur de son application. Une raison principale : DynamoDB. L’avantage de cette base de données est qu’elle est « scalable » quasiment à l’infini (la limite est celle de l’infrastructure d’Amazon), permettant d’absorber les pics de trafic quels qu’ils soient. L’architecture est prévue pour tenir une charge de « plusieurs centaines de milliers d’utilisateurs (voire plus) » nous expliquait l’entreprise en 2023.
Il reste 65% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
L’Arduino Uno Q est arrivé au labo, l’occasion de découvrir la partie microcontrôleur et de profiter d’une distribution Linux intégré (Debian). On en profite pour lancer quelques benchmarks sur le SoC du micro-ordinateur.
En octobre dernier, Arduino se faisait manger par Qualcomm et dévoilait au passage une nouvelle plateforme avec « deux cerveaux » : l’Uno Q. Il peut fonctionner comme un microcontrôleur branché à un PC ou bien de manière autonome comme un micro-ordinateur sous Linux avec son SoC Qualcomm Dragonwing QRB2210.
Arduino Uno Q : Docteur Microcontrôleur et Mister Linux
Cette semaine, la version avec 4 Go de mémoire et 32 Go de stockage était annoncée. C’était l’occasion de prendre en main cette machine deux en un. Nous en avons donc acheté un exemplaire (53 euros chez Amazon) afin de voir comment tout cela fonctionne.
Le micro-ordinateur est livré dans une petite boite en carton avec une notice, rien de plus. Niveau connectique, la carte dispose de « headers » pour brancher des accessoires ou des cartes d’extension (shields et carriers), d’un groupe de LED Matrix pilotables et d’un unique port USB Type-C.
À la découverte de l’Arduino App Lab et des exemples Python
Pour la partie microcontrôleur, c’est simple : on branche l’Uno Q sur un ordinateur avec un câble USB. Téléchargez l’Arduino App Lab (Windows, Linux ou macOS et laissez-vous guider par le programme d’installation). Il faut ensuite configurer votre Arduino Uno Q : nom de l’ordinateur, mot de passe et réseau Wi-Fi. Rien de sorcier.
Il reste 90% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Sur certains composants informatiques, les hausses de prix se répandent comme une trainée de poudre. Mais de combien parle-t-on exactement ? Jusqu’à 300 % de plus sur la mémoire selon nos relevés. Le stockage (SSD et HDD) n’est pas épargné, contrairement aux CPU et GPU, mais d’autres soucis les guettent.
Si vous avez récemment eu l’idée de monter un nouvel ordinateur, vous avez certainement remarqué une explosion des tarifs de la mémoire et, dans une moindre mesure du stockage. Les SSD sont les premiers touchés, mais les disques durs ne sont pas en reste.
L’IA en aspirateur à puces, la DDR en paye le prix fort
Sans mémoire vive, point d’ordinateur utilisable. Dans les machines grand public on trouve généralement entre 16 et 32 Go de mémoire, mais cela peut être bien plus selon les besoins. Les modules de DDR4 ou DDR5 sont enfichables facilement dans les cartes mères, permettant une évolution facile et rapide… mais actuellement très couteuse.
Dans le monde, on retrouve trois principaux fabricants de puces : Micron, Samsung et SK hynix. Les trois étant avant tout des sociétés commerciales, elles se tournent évidemment vers les secteurs les plus rentables. Actuellement, c’est l’intelligence artificielle, dopée par la GenAI. Moins de puces pour le grand public, mais toujours une demande forte… l’équation est simple, le résultat tout autant : les prix grimpent.
Vous voulez un exemple ? LDLC proposait il y a un an une barrette de 8 Go de DDR4 de chez G.Skill pour moins de 20 euros, contre… plus de 85 euros aujourd’hui. Le prix a été multiplié par cinq en 12 mois ! Une autre manière de le dire : 8 Go de DDR4 début 2026 coutent aussi cher que… 40 Go de DDR4 fin 2024.
Ce n’est pas un cas isolé : un kit Corsair est passé de 80 à 320 euros, un autre de la marque Textorm de LDLC de 64 Go était vendu 135 euros il y a un an et maintenant 580 euros. Les SSD suivent la même tendance avec des tarifs multipliés par deux dans l’ensemble. Du côté des disques durs, c’est aussi à la hausse.
Les CPU sont épargnés, comme les GPU au moins sur les tarifs. Les fortes marges de NVIDIA sur le monde de l’intelligence artificielle poussent visiblement l’entreprise à ralentir dans le monde du grand public, moins lucratif. Les versions « Super » de sa série RTX 50 seraient ainsi repoussées sine die pour le moment et des rumeurs relatent une baisse de production et de disponibilité des GeForce RTX, ce qui pourrait faire grimper les prix.
Une cinquantaine de relevés sur cinq catégories de produit
Mais revenons aux prix actuels, de quelles hausses parle-t-on exactement ? Pour le savoir, nous avons comparé les tarifs d’une dizaine de kits de DDR4 et DDR5 avec des relevés cette semaine, durant l’été dernier et fin 2024/début 2025. Nous avons fait de même avec des SSD, des disques durs, des processeurs et des cartes graphiques.
Il reste 78% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
La CNIL condamne Intersport – pardon, une « société X » – à 3,5 millions d’euros d’amende pour des manquements au RGPD et à la loi Informatique et libertés. Le nom de l’entreprise n’est pas donné pour ne pas « fragiliser son équilibre commercial ainsi que la confiance de ses adhérents », mais la piste est relativement facile à remonter. On vous explique comment.
La CNIL, qui enchaine les amendes ces derniers temps, vient d’en annoncer une nouvelle : « une sanction de 3,5 millions d’euros à une société pour avoir transmis les données de membres de son programme de fidélité à un réseau social à des fins de ciblage publicitaire, sans consentement valable ».
Depuis février 2018, et pendant des années, « l’entreprise transmettait les adresses électroniques et/ou les numéros de téléphone des membres de son programme de fidélité à un réseau social. Ces données étaient utilisées afin d’afficher, sur ce réseau, des publicités ciblées visant à promouvoir les articles vendus par la société ».
Intersport : cachez ce nom que je ne saurais voir
De quelle entreprise parle-t-on et vers quel réseau social ? Ce n’est pas précisé car la formation restreinte de la CNIL a décidé de leur accorder l’anonymat. Alors que la raporteure proposait « que cette décision soit rendue publique mais qu’il ne soit plus possible d’identifier nommément la société à l’expiration d’un délai de deux ans à compter de sa publication », la formation restreinte a décidé de suivre les demandes de l’entreprise condamnée sur ce point.
Pourquoi ? « Au motif notamment qu’une telle publicité risque de fragiliser son équilibre commercial ainsi que la confiance de ses adhérents, sans pour autant apporter de bénéfice à l’intérêt général et tout en favorisant ses concurrents ».
La formation restreinte enchaine avec un numéro d’équilibriste pour justifier sa décision. D’un côté, elle « considère que la publicité de la présente décision est justifiée au regard des manquements en cause et du nombre de personnes concernées » et qu’il est donc important « d’informer les personnes concernées sur les règles applicables en matière de consentement ». Mais de l’autre, elle « considère toutefois que, dans cette perspective, une publication de la décision sans que la société y soit nommément identifiée est suffisante ».
Dans sa longue délibération publiée sur Légifrance, le nom des entités est donc anonymisé… mais le texte contient suffisamment d’éléments pour remonter à la source : il s’agit d’Intersport pour la société qui a « transmis les données » et de Facebook (Meta) pour le « réseau social Z ».
Comment en sommes-nous arrivés à cette conclusion ? Avec un rapide « voyage dans le temps » et en lisant attentivement la décision de la CNIL. Vous embarquez avec nous ?
La CNIL en mode petit poucet…
Il reste 77% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
En plus de Leo, Blue Origin va lancer une autre constellation avec plus de 5 400 satellites : TeraWave. L’entreprise veut proposer 144 Gb/s symétriques via les ondes Q/V à ses clients et même jusqu’à 6 Tb/s symétrique en optique (laser) avec des satellites plus haut.
Blue Origin, une société de Jeff Bezos, vient jouer sur les platebandes de SpaceX. Elle annonce TeraWave, un « nouveau réseau spatial de 6 Tb/s ». Il sera accessible à rien de moins que « des dizaines de milliers d’entreprises, de centres de données et d’utilisateurs gouvernementaux qui ont besoin d’une connectivité fiable pour des opérations critiques ».
De 520 à 24 000 km : 5 280 satellites LEO et 128 MEO
Les principales cibles sont des « zones isolées, rurales et suburbaines » où le déploiement de la fibre optique est complexe, couteux voire impossible. TeraWave est une nouvelle constellation en orbite basse et moyenne (LEO et MEO), avec pas moins de 5 408 satellites interconnectés via des liaisons optiques. Elle viendra donc rejoindre Leo (anciennement Kuiper) qui doit disposer de plus de 3 000 satellites au terme de sa première phase.
Dans les faits, deux groupes de satellites sont à distinguer au sein de TeraWave : 5 280 sont en orbite basse (LEO), les 128 autres sur une orbite moyenne (MEO). Dans le premier cas, les satellites évoluent généralement à moins de 1 000 km d’altitude, dans le second cas, ils « évoluent à des altitudes de 19 000 à 23 000 km », mais peuvent aussi descendre plus bas. À 36 000 km, on arrive, pour rappel, aux satellites géostationnaires, ceux qui ne bougent pas dans le ciel.
Blue Origin ne donne pas beaucoup de précisions, mais comme l’entreprise a déposé une demande à la FCC, nous pouvons en apprendre davantage. Le document a également été partagé par Christian Frhr. von der Ropp dans le groupe LinkedIn Megaconstellations | Low-Earth Orbit High-Throughput Satellite Constellations (LEO-HTS).
C’est la théorie. Dans la pratique, les satellites LEO seront situés entre 520 et 540 km, c’est-à-dire dans les mêmes eaux que les satellites Starlink de SpaceX. Les MEO seront bien plus éparpillés avec des orbites entre 8 000 et 24 200 km. 104 des 128 satellites seront entre 8 000 et 8 100 km, les 24 derniers seront à plus de 24 000 km.
Les milliers de satellites LEO proposeront une connectivité dans les bandes Q (download) et V (upload), avec un débit maximum de 144 Gb/s pour les clients. Les 128 satellites MEO pour leur part proposent une liaison optique (très certainement via laser) avec un débit de 6 Tb/s maximum. Dans les deux cas, c’est du symétrique, c’est-à-dire que la vitesse est aussi bien en download qu’en upload.
Les enjeux autour de l’altitude : latence et période orbitale
L’altitude joue deux rôles importants pour la partie des télécommunications. Tout d’abord, la latence, c’est-à-dire le temps pour le signal de faire un aller/retour : 250 ms pour les satellites géostationnaires. Dans la pratique, c’est même le double (500 ms) pour une requête : le terminal l’envoie au satellite, le satellite la retourne à une station de base au sol, qui à son tour envoie la réponse au satellite, qui la transfère au terminal.
Ici la limite est la vitesse de la lumière dans le vide, qu’on ne peut pas dépasser. Si on passe de 36 000 km à 500 km environ, la distance est 72 fois moins importante, le temps de trajet aussi. De 250 ms pour un aller/retour, on descend à 3 ou 4 ms. À 8 000 km, la latence est de 55 ms environ et de 170 ms à 24 000 km, toujours pour un aller/retour. C’est la théorie, en pratique c’est toujours plus. Starlink par exemple est entre 20 et 40 ms.
L’autre point important est la vitesse orbitale permettant de maintenir un satellite dans son orbite. On vous épargne les calculs et formules, mais plus l’orbite est basse, plus la vitesse est importante.
À 36 000 km, la période orbitale du satellite est de 24 h, comme la rotation de la Terre, le satellite parait donc immobile. À 24 000 km, la période orbitale est de 13 heures environ, puis on descend à 4/5 heures aux alentours des 8 000 km et seulement quelques minutes à 500 km.
Pour résumer, plus les satellites sont hauts, plus ils peuvent couvrir une même zone longtemps. Dans le cas contraire, il faut donc établir des communications entre les satellites pour assurer la continuité. C’est le rôle des satellites placés plus haut. En effet, comme indiqué dans le schéma ci-dessous, les 128 satellites MEO serviront aussi de liaison pour les satellites de l’orbite basse.
Blue Origin affirme être capable de servir une centaine de milliers de clients avec TeraWave. Il y a le temps de voir venir puisque le déploiement ne devrait débuter qu’au 4ᵉ trimestre 2027.
Blue Origin va donc largement occuper l’espace en orbite basse avec 5 000 nouveaux satellites, alors que SpaceX est aussi présent. Le problème étant que, si le nombre de places est virtuellement illimité (l’espace c’est surtout du vide), en pratique ça sera plus compliqué, car il y a six places à prendre dans la course mondiale, expliquait l’ANFR : « Il faut en prendre au moins une, peut-être plus, pour l’Europe », expliquait Gilles Brégant (directeur général de l’ANFR).
Ce processeur avait été annoncé au CES de Las Vegas par AMD. Il s’agit, pour rappel, de donner un coup de boost au Ryzen 7 9800X3D. On retrouve donc toujours 8 cœurs et 16 threads Zen 5, mais avec une fréquence plus élevée : 5,6 GHz au lieu de 5,2 GHz en mode boost, contre 4,7 GHz de base dans les deux cas.
Comme son nom l’indique (X3D), ce processeur dispose d’un 3D V-Cache de 2ᵉ génération de 96 Mo, pour un total de 104 Mo de mémoire cache sur le CPU. AMD met en avant les performances dans les jeux : « Sur une moyenne de plus de 30 jeux, la différence de FPS entre la DDR5-4800 et la DDR5-6000 s’est avérée inférieure à 1 % ».
AMD indique un tarif conseillé de 499 dollars pour le Ryzen 7 9850X3D, mais ne le donne pas en euros. Le Ryzen 7 9800X3D se trouve actuellement autour de 450 euros sur les marketplaces (par exemple chez Cdiscount), contre 465 à 500 euros sur les boutiques classiques en ligne.
À voir maintenant le prix en euros du Ryzen 7 9850X3D (nous l’avons demandé à AMD). Il sera disponible à partir du 29 janvier. En attendant, certains en profitent pour afficher des tarifs farfelus, comme un revendeur à… plus de 1 000 euros chez PC Componentes.
Alerte générale ! En théorie, il n’y a pas de raison de paniquer, mais en pratique… C’est, en creux, un peu le sens du dernier bulletin du CERT-FR. Une faille triviale a été identifiée dans Telnet ; elle permet de se connecter en root. En théorie, un serveur Telnet ne devrait jamais être accessible… mais c’est la théorie.
Le CERT-FR a publié un bulletin d’alerte pour informer que « les détails de la vulnérabilité CVE-2026-24061, affectant telnetd, ont été publiés ». Ils sont en effet disponibles sur un fil de discussion Openwall, dans la liste de diffusion oss-security.
Une faille et hop, vous voilà connecté en root sur le serveur
Telnetd – ou Telnet daemon – est la partie serveur du protocole Telnet (terminal network), « permettant de communiquer avec un serveur distant en échangeant des lignes de texte et en recevant des réponses également sous forme de texte » pour reprendre Wikipédia.
« Cette vulnérabilité permet à un attaquant de contourner l’authentification et de se connecter à une machine vulnérable en tant que l’utilisateur root ». Autant dire que c’est le scénario catastrophe, puisque root est l’utilisateur avec tous les droits, d’autant plus que le CERT-FR ajoute que cette faille a été « introduite en mars 2015 et affecte GNU InetUtils versions 1.9.3 à 2.7 », soit la dernière version disponible actuellement.
« Aucun correctif officiel n’est disponible pour l’instant », ajoute le CERT-FR. Vous en voulez encore ? « Un code d’exploitation est publiquement disponible ». Cette vilaine faille est référencée sous le nom CVE-2026-24061 et son score CVSS 3.1 est de 9,8 sur 10.
#Fear Des serveurs telnet sont accessibles sur Internet
Selon les constatations du CERT-FR, des services telnet sont accessibles sur Internet, « ce qui est contraire aux bonnes pratiques »… Au-delà de la faille, il y a depuis toujours une bonne raison de ne pas exposer Telnet sur le Net : « Les mots de passe Telnet ne sont pas chiffrés lorsqu’ils sont envoyés entre le client traditionnel et le serveur », comme le rappelle IBM.
Le CERT-FR recommande donc de supprimer les services telnet et, si c’est impossible, de ne pas exposer le service directement sur Internet, ou a minima d’en restreindre l’accès à certaines adresses IP (liste blanche). Évidemment, il faudra appliquer les correctifs dès que possible une fois ces derniers disponibles.
Telnet est remplacé par SSH depuis longtemps
Telnet est un vieux protocole, remplacé depuis longtemps par d’autres plus récents, dont SSH, ce qui devrait (en théorie) limiter les risques. En cybersécurité, on n’est jamais à l’abri d’une mauvaise nouvelle et/ou configuration.
Comme le rappelait déjà l’ANSSI en 2015, « SSH, ou Secure SHell, est un protocole applicatif qui vise à corriger les déficiences connues dans les protocoles FTP, RSH, RCP et Telnet ». L’Agence ajoutait que « l’avantage évident apporté par SSH est sa sécurité ».
« Là où Telnet n’apporte ni authentification du serveur ni création d’un canal chiffré et authentifié, SSH va permettre de le faire dès lors que quelques règles d’hygiène simples sont appliquées », détaillait l’ANSSI. Les recommandations d’il y a 10 ans étaient claires : utiliser SSH à la place des protocoles historiques pour des accès shell distants, mais aussi désinstaller Telnet comme service d’accès à distance.
Pour rappel, SSH est par défaut sur le port 22, Telnet sur le 23. Si, côté client, vous avez un doute, regardez la configuration de votre PUTTY : Connection type doit être sur SSH (port 22) et pas sur Other: Telnet (port 23).
En l’espace de quelques minutes, Bouygues Telecom, Orange et Free (iliad) ont envoyé par e-mail un communiqué de presse commun (.pdf) : « Le consortium composé des trois opérateurs Bouygues Telecom, Free-Groupe iliad et Orange, confirme l’existence de discussions avec le Groupe Altice en vue de l’acquisition potentielle d’une grande partie des activités de télécommunications du groupe Altice en France ».
Ce n’est pas un scoop, loin de là. Mi-octobre, les trois concurrents annonçaient officiellement le dépôt d’une offre de rachat pour SFR, en traçant les grandes lignes du partage. Sitôt déposée, sitôt refusée par Altice. Selon BFM Business, Bouygues Telecom, Free et Orange envisageraient de réhausser leur offre à 20 milliards d’euros (soit trois milliards de plus). La partie de poker menteur continue donc et pourrait encore durer longtemps.
Le communiqué du jour n’indique rien de neuf, si ce n’est que « des travaux de due diligence ont été engagés depuis début janvier 2026 », c’est-à-dire des audits pour sonder plus en profondeur la santé économique de SFR. C’est tout de même un signe que le dossier avance, doucement. Quoi qu’il en soit, « les conditions juridiques et financières de la transaction ne font l’objet d’aucun accord à date », précisent les trois compères.
Ils ajoutent qu’il « n’y a aucune certitude que ce processus aboutisse à un accord qui devra en toute hypothèse être soumis à l’approbation des organes de gouvernance des sociétés concernées et restera sous réserve des conditions usuelles en la matière ». L’Autorité de la concurrence aura du pain sur la planche si un accord devait être trouvé.
Son président, Benoît Cœuré, avait ouvert la porte pour un retour à trois opérateurs : « Si cette opération devait être notifiée, nous la regarderions sans camper sur nos positions d’il y a neuf ans ». L’Autorité nous indiquait par contre en octobre qu’aucun projet ne lui avait été notifié ; c’est le point de départ de l’instruction.
Fin 2022, la première mission Artemis décollait et plaçait le vaisseau spatial Orion en orbite autour de la Lune. La capsule était inhabitée, c’était une répétition générale grandeur nature avant d’envoyer des humains.
Artemis II est prévue pour avoir « un plan de vol similaire » selon l’ESA, mais avec quatre astronautes à son bord. C’est désormais à son tour d’être sur le pas de tir, en position verticale. Il a fallu une douzaine d’heures à la fusée (et son convoi, totalisant 5 500 tonnes) pour parcourir les 6 km entre son hall d’assemblage et son pas de tir.
Selon la NASA, 16 fenêtres de tir seront possibles entre les 6 février et 30 avril ; la mission doit durer une dizaine de jours. Comme le rappelle la Cité de l’Espace, ce sera la « première mission habitée autour de la Lune depuis plus de 50 ans ».
Comme l’expliquent nos confrères, la répétition générale avant le décollage n’est pas terminée. Il reste encore la procédure « WDR pour Wet Dress Rehearsal où Wet (humide) fait référence au remplissage des réservoirs pour une Dress Rehearsal (répétition générale) ». Elle doit être faite avant le 2 février. La NASA a prévenu que « des répétitions générales supplémentaires peuvent être nécessaires pour s’assurer que le lanceur est entièrement vérifié et prêt pour le vol ».
En 2020, le calendrier de l’Agence spatiale américaine envisageait déjà Artemis III : « En 2024, la troisième mission Artemis emmènera des astronautes jusqu’au satellite naturel de la Terre ; ils seront les premiers à s’y poser depuis l’équipage d’Apollo 17, après une interruption de plus de cinquante ans ».
Nous sommes début 2026 et ce n’est finalement que la deuxième mission qui est dans les starting-blocks. Artemis III est pour le moment prévue pour 2028.
Apple vient de remporter des manches dans deux batailles judiciaires. La première en France, sur son dispositif App Tracking Transparency qu’elle peut continuer à utiliser. La seconde aux États-Unis, avec un recours collectif sur la collecte de données personnelles, qui prend (encore) du plomb dans l’aile.
C’est une victoire pour Apple : le tribunal judiciaire de Paris n’impose pas à l’entreprise de suspendre ou de modifier son dispositif App Tracking Transparency (ATT). Ce dernier n’est toutefois pas totalement tiré d’affaire puisqu’une autre procédure au fond est toujours en cours.
Il reste 96% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
En octobre, Arduino annonçait deux grosses nouveautés. La première, son rachat par Qualcomm, un séisme dans le monde des microcontrôleurs, soulevant des inquiétudes malgré des promesses de laisser à Arduino « sa marque, ses outils et sa mission indépendants ».
La deuxième annonce était l’Arduino Uno Q et un SoC Qualcomm Dragonwing (d’où le Q dans le nom), avec une conception hybride. Ce produit peut se brancher à un ordinateur ou bien fonctionner de manière autonome grâce à un SoC et Linux.
Seule la version avec 2 Go de mémoire et 16 Go de stockage était disponible, celle avec respectivement 4 et 32 Go devait arriver plus tard. Elle était prévue pour novembre, mais vient seulement d’arriver, comme annoncé par Arduino. Pas de changement au niveau du cœur de la machine : SoC Qualcomm Dragonwing QRB2210 et microcontrôleur STM32U58.
Arduino annonçait à l’époque un tarif de 59 euros, alors que la carte est vendue 64,66 euros aujourd’hui, sur la boutique officielle d’Arduino. Elle est vendue 64 euros chez RS, 64 euros aussi chez Kubii, 61 euros chez Farnell, mais seulement 53 euros chez Amazon.
C’est via un message sur LinkedIn que le principal intéressé confirme son changement de crémerie. Le monde des GPU, il connait puisque cela fait plus de 25 ans qu’il baigne dedans.
Au début des années 2000, il est chez ATI, puis il passe chez AMD après le rachat. Il part ensuite pour un voyage de 14 ans chez Qualcomm pour finir vice-président senior de l’ingénierie, en charge du développement des GPU de Qualcomm, la gamme de produits Adreno.
Chez Intel, il occupe le poste de vice-président senior (des vice-présidents, il y en a à la pelle) en charge de l’architecture GPU. Il précise à CRN que, dans ses missions, il y a un « focus sur l’IA ». Intel a, pour rappel, annoncé récemment une nouvelle série de CPU pour le mobile : les Core Ultra Series 3, notamment avec la gamme « X » équipée d’un GPU Arc B390. Rendez-vous le 27 janvier pour les premiers tests indépendants.
Dans un message sur LinkedIn, il explique que cette décision vient d’une discussion avec sa femme sur l’avenir et de rencontres avec Lip-Bu Tan (le patron d’Intel) : « Il m’a impressionné. Charmant, intelligent et clairement stratégique dans ses opinions sur Intel ». Pas un mot par contre sur Qualcomm, son ancien employeur.
Bouygues Telecom vient d’annoncer deux nouveaux produits utilisant son réseau mobile 5G : du « WiFi de secours 5G et la Bbox 5G WiFi 7 avec répéteur et TV ». La première joue sur la peur de la coupure, la seconde vise les oubliés de la fibre optique.
Avec son Extra Bbox, Bouygues Telecom cible les clients qui ont peur de subir une coupure sur leur connexion fixe à la maison.
Bouygues Telecom réinvente en quelque sorte les dongle et autres Hot Spot Wi-Fi avec de la 4G/5G permettant de partager une connexion mobile en Wi-Fi. C’est, pour rappel, aussi faisable avec son smartphone depuis de très nombreuses années, aussi bien sur Android qu’iOS.
Extra Bbox : 12,99 euros par mois, pour 100 Go de data
Pour mettre en avant son offre, Bouygues Telecom « joue » clairement sur la peur de la coupure, avec une statistique maison : « en 2025, 56% des Français déclarent avoir observé une coupure ou un ralentissement de leur connexion fibre ». Ce chiffre vient en effet d’une étude de… « Bouygues Telecom menée par Ipsos-BVA, 2025 ».
Les débits maximums théoriques sont de 1,1 Gb/s en téléchargement et de 58 Mb/s en upload. L’offre sera disponible dès le 26 janvier, pour 12,99 euros par mois avec 100 Go de data (bloqué au-delà). Il faut également ajouter 29 euros de frais de mise en service et autant de résiliation.
Bouygues Telecom propose aussi un forfait avec 120 Go de 5G pour 11,99 euros par mois, soit un euro de moins… Si vous avez déjà un Hot Spot 4G/5G qui traine à la maison ou un smartphone, cela vous coutera donc moins cher, avec plus de data.
Backup Freebox, prêt d’Airbox chez Orange, Internet Garanti SFR
Free propose, pour rappel, une option Backup Freebox qui « permet de conserver un accès à internet et aux services TV en cas de coupure ou perte de connexion à votre domicile ». Cette option est mise « à disposition sur demande et après diagnostic » pour 4,99 euros par mois, selon la fiche d’information standardisée. Il était pendant un temps question de la rendre disponible en standalone pour les Freebox Delta et Pop, mais il n’en est rien actuellement. Seuls les abonnés Freebox Ultra semblent pouvoir le commander, selon cette page de l’assistance. Pour les autres, il faut attendre la panne avant d’en faire la demande.
Sosh propose de son côté un service de continuité de connexion, avec « 200 Go internet mobile par mois, pendant 2 mois sur votre forfait forfait Sosh mobile ou Orange mobile ou offre Let’s Go ». Attention, seulement sur une ligne mobile Sosh ou Orange !
Orange aussi propose ce genre d’option à ses clients (200 Go en plus sur un maximum de cinq forfaits), mais vous pouvez aussi avoir un prêt d’Airbox, un routeur Wi-Fi 4G, avec 200 Go de data. Il est possible de le retirer en boutique pour l’avoir plus rapidement. Cette offre n’est pas disponible de manière préventive, il faut avoir une coupure pour en faire la demande.
Chez SFR, une option Internet Garanti est proposée à l’ensemble des clients, pour 5 euros par mois (incluse dans Box SFR Premium). Vous pouvez y souscrire avant d’avoir une panne. Cette offre permet d’avoir une box de poche 4G avec 30 Go par mois en temps normal. En cas de panne, et après avoir contacté SFR, vous bénéficiez « de data illimité via votre box de poche ».
Et une Bbox 5G à 44,99 euros par mois, avec Wi-Fi 7
La seconde offre du jour concerne une « Bbox 5G et son répéteur certifiés WiFi 7, avec une clé TV pour une expérience TV inédite ». L’opérateur annonce « des débits jusqu’à 1,1 Gb/s en descendant et 175 Mb/s en débit montant, un design vertical intégrant 4 antennes par bande de fréquence ».
Le répéteur Wi-Fi 7, bi-bandes lui aussi, est disponible sur commande. Là encore, il faudra attendre le 26 janvier pour en profiter, pour 44,99 euros par mois. De nouveau, des frais de mise en service de 29 euros et de résiliation de 29 euros également sont de la partie. L’accès se fait « sous réserve de couverture 5G (3,5 GHz) » et d’éligibilité de votre adresse de souscription. L’ensemble des opérateurs imposent des conditions pour souscrire à une telle offre.
Free propose lui aussi une Box 5G avec du Wi-Fi 7, mais sans la certification par la Wi-Fi Alliance (cela n’empêche évidemment pas le box de fonctionner en Wi-Fi 7 avec d’autres appareils), ce qui provoque quelques tensions avec Bouygues Telecom. Elle est proposée à 39,99 euros par mois (après un an à 29,99 euros par mois), avec « accès à la télévision avec l’application Free TV ». Les débits sont de 1,5 Gb/s en téléchargement et 130 Mb/s dans l’autre sens.
Comptez 42,99 euros chez Orange pour une box 5G+ Home avec elle aussi du Wi-Fi 7. Chez Orange, les débits sont plus élevés : « jusqu’à 1,5 Gb/s en téléchargement et 250 Mb/s en envoi ». L’application TV d’Orange permet d’accéder à « 200 chaînes incluses sur PC, mobile, tablette ».
Chez SFR, la Box 5G est à 39,99 euros par mois, sans engagement mais avec du Wi-Fi 6 « seulement ». Les débits sont de 1,1 Gb/s et 150 Mb/s respectivement, avec 200 chaines de télévision via l’application SFR.
Free, Orange et Bouygues Telecom proposent l’accès aux chaînes de télévision via une application, comme Bouygues Telecom avec BTV+. Mais l’opérateur propose aussi sa clé HDMI b.tv avec sa Bbox 5G WiFi 7… à condition de l’acheter pour 20 euros. Elle prend en charge « les derniers standards audio et vidéo (dont Dolby Atmos), l’assistant vocal Google et la fonction Cast ».
Comment fonctionne l’algorithme de recommandation des contenus de X, celui qui est responsable des messages qui arrivent dans l’onglet « Pour vous » ? Le réseau social publie le code source, mais il manque des éléments importants… cachés pour « des raisons de sécurité ». Plongez avec nous dans le code.
Sur son réseau social, Elon Musk reconnait que l’algorithme de recommandations « est stupide et qu’il a besoin d’améliorations considérables ». Il répondait à un message du compte officiel X Engineering, qui vient d’annoncer la mise en ligne du code source de l’algorithme sur GitHub, sous licence Apache 2.0.
Selon Elon Musk, le partager permettra de voir les développeurs « s’efforcer de l’améliorer en temps réel et en toute transparence ».
Du code majoritairement en Rust, sur GitHub
Plusieurs points tout d’abord : il faut croire X et Elon Musk sur parole quand ils affirment que c’est le code actuellement utilisé par le réseau social.
Le code partagé est à 63 % composé de Rust (un langage qui a récemment fêté ses 10 ans) et à 37 % de Python (à qui on ne va pas demander son âge…), selon GitHub. Il comporte une centaine de fichiers pour un peu moins de 10 000 lignes de code.
Ensuite, ce dépôt ne contient pas l’ensemble du code, mais uniquement « le système de recommandations de base alimentant le flux “Pour vous” sur X. Il combine des contenus de votre réseau (provenant de comptes que vous suivez) avec des contenus hors réseau (découverts via de l’apprentissage automatique) et classe le tout en utilisant un modèle basé sur Grok ».
Il faut distinguer deux algorithmes :
Il reste 87% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Après avoir racheté VMware pour 61 milliards de dollars en 2022, Broadcom s’est rapidement mis en tête de rentabiliser au maximum son emplette avec des modifications brutales des conditions de ventes, y compris sur d’anciens contrats.
Le ton est rapidement monté avec des attaques en justice de géants comme AT&T, Orange et Thales. Chez AT&T par exemple, il était question d’une hausse de… 1050 % sur la facture.
Comme le rapporte Silicon, un autre acteur est passé par la case justice pour faire valoir ses droits : la Caisse nationale d’assurance maladie (CNAM). Nos confrères expliquent que « la CNAMa obtenu de Broadcom la possibilité de convertir des jetons en licences perpétuelles. Une affaire passée par le juge des référés ».
Nos confrères ajoutent que « Broadcom a fini par accéder à la demande », la CNAM s’est ensuite désistée de sa requête le 23 décembre.
À CIO, l’avocat François-Pierre Lani explique que « le précédent Thales a tout de même fragilisé la position de Broadcom ». Durant l‘été 2024, un jugement avait en effet contraint VMware à laisser en place des contrats de licence. « Autrement dit, pour la justice, l’éditeur ne peut pas tirer un trait sur les droits acquis pendant l’exécution des contrats existants », ajoutaient nos confrères. L’avocat précise qu’il « faut mettre à chaque fois Broadcom au pied du mur » pour obtenir gain de cause.
Les deepfakes ne sont pas nouveaux, loin de là. Nous en parlions déjà en 2018. Avec le temps, la qualité des rendus s‘est largement améliorée. Un palier a été franchi fin 2025, c’est indéniable, et il est désormais « très difficile » de détecter les faux contenus multimédias. Les réseaux sociaux sont en ordre dispersé face à ce qui est déjà « un enfer », pour reprendre des mots de l’ANSSI.
Les deepfakes sont des contenus multimédias – aussi bien des images, des vidéos que de l’audio – qui sont générés ou modifiés grâce à des algorithmes et/ou de l’intelligence artificielle (générative). Plus les moyens et les modèles évoluent, plus les résultats sont saisissants de réalisme.
Avec l’arrivée des nouveaux outils, nous avons eu droit à toute une série de photos regroupant le « who’s who » de la tech : Sam Altman, Jeff Bezos, Tim Cook, Jensen Huang, Elon Musk, Sundar Pichai, Mark Zuckerberg… Des bugs persistent sur les détails, mais de moins en moins, et la cohérence générale de l’image est impressionnante. S’il reste des imperfections, nul doute que cela ne va aller qu’en s’améliorant au fil du temps.
Avec la publication de Sora 2 par OpenAI et surtout avec les nouvelles versions de Nano Banana par Google, plusieurs spécialistes ont noté une véritable avancée dans la création de deepfake d’images et de vidéos. S’ajoutent à cela des techniques de contrôle du mouvement (motion control) et de synchronisation labiale (lipsync) ; vous avez un combo explosif entre les mains. Kling AI s’est fait une certaine réputation dans ce domaine. Les exemples sont nombreux, ici et là par exemple.
Il reste 71% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.