Vue lecture

Quand le web ne tient qu’à un fil

Hier, le monde s’est arrêté. Pas à cause d’une météorite ou d’une guerre nucléaire, mais d’un bug. Comment notre civilisation ultra-moderne est-elle devenue dépendante d’un système où tout ou rien ne fonctionne ? Récit d’une fragilité invisible.

Pendant trois heures, certains sites dont les très populaires fournisseurs d’IA ChatGPT et Claude étaient bloqués, votre paiement en ligne a pu être refusé, des professionnels de santé n’avaient plus accès aux dossiers patients, le réseau social X/Twitter fonctionnait mal et votre jeu vidéo en ligne ne pouvait pas se lancer. L’incident a été bref, mais il a montré notre vulnérabilité – et notre impatience.

Car l’instantanéité est devenue notre drogue. Quand vous cliquez sur une vidéo, vous exigez qu’elle démarre dans la seconde, que vous soyez à Paris, Tokyo ou au fond de la Creuse. Pour réussir ce tour de magie quotidien, Internet ne se contente pas de serveurs classiques, centralisés. Il a fallu inventer des « super-livreurs ».

Dans le jargon, on les appelle les CDN (Content Delivery Networks) ou les plateformes d’« edge computing ». Pour comprendre, imaginez un auteur à succès. S’il devait envoyer chaque livre par la poste depuis sa propre maison, les délais seraient infernaux. La solution ? Il stocke des milliers d’exemplaires dans des entrepôts locaux pour les commandes Internet ou dans des librairies, au plus près des lecteurs. Sur le web, c’est pareil : des géants comme Cloudflare ou CloudFront (Amazon) ont une copie des contenus des sites web de leurs clients dans des milliers de « petits entrepôts numériques », redondants, partout sur la planète.

Le résultat est spectaculaire : Cloudflare gère à lui seul le trafic de plus de 20 % des sites mondiaux. Amazon a récemment pulvérisé les records en faisant transiter l’équivalent de millions de films HD (268 térabits !) en une seule seconde pour la sortie d’un jeu vidéo. Sauf qu’à force de vouloir aller vite, nous avons mis tous nos œufs numériques dans le même panier.

L’effet papillon : une erreur locale, une catastrophe mondiale

Gérer ces milliers d’entrepôts numériques ne se fait pas à la main. C’est là qu’intervient l’automatisation, la véritable épée à double tranchant du cloud moderne.

Les ingénieurs utilisent des outils surpuissants capables de mettre à jour la sécurité de la planète entière en un clic. C’est une force inouïe : une faille est découverte ? Elle est colmatée partout en dix secondes. Mais c’est aussi notre talon d’Achille. Si la mise à jour contient une erreur, une instruction contradictoire ou déclenche un bug non détecté auparavant (le cas pour cette panne), cette erreur se propage, elle aussi, à la vitesse de la lumière.

Il n’y a plus de fusible local. L’erreur ne fait pas sauter les plombs de la cuisine, elle se propage et éteint la ville, le pays, le continent. Le système est binaire : tout fonctionne à merveille, ou plus rien ne marche.

Les signes avant-coureurs étaient là

Ce scénario de « Grand Black-out » est la suite logique d’une série d’avertissements que nous avons collectivement ignorés.

Souvenez-vous (ou pas) de juillet 2019. Une grande partie du web devient inaccessible pendant trente minutes. La cause ? Une règle de pare-feu applicatif (WAF) mal écrite chez Cloudflare. Ce logiciel, censé trier les visiteurs légitimes des pirates, s’est emballé et a consommé toute la capacité de calcul des serveurs, bloquant tout le monde, même les gentils.

Rebelote en juin 2022. Une opération de maintenance, destinée ironiquement à rendre le réseau plus solide, a provoqué une panne. Depuis, les parts de marché de Cloudflare ne cessent de progresser, car le service est gratuit, simple et efficace, faisant oublier son aspect systémique.

Ce qui est effrayant, c’est l’effet domino. Aujourd’hui, un site web est comme un jeu de construction Lego. Il pioche ses briques un peu partout : la police d’écriture vient d’un CDN, la bibliothèque qui permet au site de s’afficher dépend des serveurs de Google et le panier d’achat s’appuie sur un élément JavaScript hébergé chez Cloudflare. Si l’un de ces géants de l’infrastructure tombe, il emporte tout le château avec lui. Votre site préféré n’est peut-être pas en panne, mais s’il ne peut plus charger ses briques essentielles, il s’affiche partiellement ou comme une page blanche. Pour vous, le résultat est le même : écran noir.

Le casse-tête de la souveraineté : quand le garde du corps est américain

J’approfondis

Le vaccin du chaos : casser pour mieux réparer

Faut-il pour autant jeter nos smartphones et revenir au papier carbone ? Certainement pas. L’innovation porte en elle les solutions à ses propres excès. Face à cette fragilité, une nouvelle philosophie d’ingénierie émerge, audacieuse et contre-intuitive : le « chaos engineering ».

L’idée est simple mais radicale : pour éviter la panne surprise, il faut provoquer des pannes volontaires. Des pionniers comme Netflix ont ouvert la voie avec un programme nommé « Chaos Monkey ». C’est un petit logiciel qui se promène dans leur infrastructure et « tue » des serveurs au hasard, en pleine journée, pendant que vous regardez votre série.

Cela semble suicidaire ? C’est en fait du génie. C’est un vaccin numérique. En inoculant des petites doses de désordre contrôlé, on force les ingénieurs à concevoir des systèmes capables de s’autoréparer, de cicatriser instantanément. Si un serveur meurt, un autre doit prendre le relais sans que l’image ne saute.

L’avenir d’un web robuste ne réside pas dans la perfection statique, mais dans la résilience dynamique. Nous ne devons plus prier pour que « ça tienne », nous devons brutaliser nos technologies pour les endurcir, à tous les niveaux. Grâce à cette culture du crash-test permanent, nous détectons mieux nos faiblesses structurelles et dépendances technologiques. Le web de demain ne doit pas tenir qu’à un fil, mais à une toile capable de se retisser elle-même.

L’article Quand le web ne tient qu’à un fil est apparu en premier sur Les Électrons Libres.

  •  

Kimi K2 Thinking, l’IA qui pense et qui agit

Une IA open source, capable de rivaliser avec les meilleurs modèles, entraînée pour seulement quelques millions d’euros ? C’est la révolution Moonshot AI : une prouesse qui balaie les scénarios catastrophes sur le coût énergétique de l’intelligence artificielle.

La start-up chinoise Moonshot AI, soutenue par Alibaba, vient de dévoiler Kimi K2 Thinking, son modèle de langage qui ne se contente pas de répondre, mais qui réfléchit et agit en exécutant de 200 à 300 appels d’outils séquentiellement, grâce à un raisonnement adaptatif et à long terme. Tel un ingénieur, il peut enchaîner les cycles de réflexion, de recherche, de navigation Internet, de développement — en boucle — jusqu’à trouver la solution à un problème complexe.

Comme la plupart des solutions d’IA chinoises, Kimi K2 Thinking est proposé en open source, ce qui va permettre aux autres acteurs de s’en inspirer et de progresser à leur tour. Un cycle vertueux de développement et de partage qui fait l’excellence et la fertilité de l’IA chinoise et que pratiquement aucune société américaine n’applique, sinon sur de petits modèles parfois destinés à faire de la communication plutôt qu’a un usage réel.

Ici, le modèle compte 1 000 milliards de paramètres : il rivalise donc en taille avec les plus grands opus des géants américains OpenAI, Google et Anthropic. Mais si la taille est une métrique, la performance en est une autre — et c’est là que Kimi K2 Thinking fait fort, en battant assez largement ses concurrents payants dans de nombreux benchmarks de raisonnement, notamment ceux qui n’impliquent pas d’étapes de programmation.

Mais ce n’est pas tout. Moonshot AI, loin des élucubrations actuelles sur les gigadatacenters pour l’entraînement de l’IA, qui consommeraient l’équivalent de la production d’une tranche complète de centrale nucléaire (la France en possède 56), annonce un coût d’entraînement record de 4,6 millions de dollars, contre des sommes des dizaines de fois plus importantes chez ses concurrents américains. Ce chiffre ne concerne que la puissance de calcul nécessaire pour entraîner le modèle, pas les salaires des ingénieurs, ni la collecte de données ou les autres frais de développement.

Cette prouesse est obtenue grâce à une astuce intelligente : Kimi K2 Thinking est entrainé à partir de son petit frère Kimi K2 (Instruct – modèle sans raisonnement) avec une précision ultra-réduite (QAT 4 bits), ce qui divise, sans perte notable de qualité, jusqu’à quatre fois la mémoire et les calculs requis. De plus, il n’active à chaque utilisation que quelques experts de 32 de ses 1 000 milliards de paramètres (architecture dite Mixture of Experts (MoE)). C’est le premier modèle de raisonnement à utiliser le QAT et le MoE, ce qui le place aussi premier à offrir un coût d’inférence aussi compétitif avec un usage plus rapide.

Puisqu’il est gratuit, combien cela vous coûterait-il de faire tourner cet ingénieur maison 24/7 ? Le ticket d’entrée, qui ne cesse de baisser, est d’environ 200 000 euros pour le serveur capable de s’y mettre. La compétition avec l’humain se rapproche.

L’article Kimi K2 Thinking, l’IA qui pense et qui agit est apparu en premier sur Les Électrons Libres.

  •  
❌