Vue lecture

Les nord-coréens de Lazarus ciblent le monde de la crypto via de faux entretiens d’embauche

Pwnd
Les nord-coréens de Lazarus ciblent le monde de la crypto via de faux entretiens d’embauche

Le groupe de pirates Lazarus, lié à l’état nord-coréen, a mis en place un système de piratage visant le monde de la cryptomonnaie, notamment en organisant de faux entretiens d’embauche et en poussant à l’installation de logiciels malveillants via des techniques de social engineering.

En octobre dernier, nous nous étions faits l’écho de la propagation d’une arnaque au recrutement qui cible les développeurs amateurs de crypto. Les soupçons se tournaient vers Lazarus, groupe de pirates nord-coréen auquel est aussi attribué l’immense vol de cryptoactifs, d’une valeur approchant 1,5 milliard de dollars, révélé en février dernier.

L’éditeur de logiciel de cybersécurité français Sekoia confirme dans un rapport que le groupe de pirates est à l’origine d’une campagne d’arnaque au recrutement de ce type. « Il utilise des sites web d’entretiens d’embauche légitimes pour exploiter la tactique ClickFix et installer des portes dérobées pour Windows et macOS », explique l’entreprise française.

Le ClickFix est une tactique d’ingénierie sociale qui « consiste à afficher de faux messages d’erreur dans les navigateurs web pour tromper les utilisateurs et les inciter à copier et à exécuter un code PowerShell malveillant donné, ce qui finit par infecter leurs systèmes », expliquait Sekoia en octobre dernier. Détectée en mai 2024, cette tactique est déjà qualifiée de « tristement célèbre » par Sekoia.

Windows et MacOS, deux variantes

Selon l’entreprise de sécurité, la chaine d’infection utilisée par Lazarus ciblerait les systèmes d’exploitation Windows et MacOS de deux façons différentes. Sur le premier, le groupe de pirates passerait par un script VBS puis un script NodeJS et sur le second via un script Bash puis le malware FrostyFerret pour récupérer le mot de passe système. Mais à la fin, ils utiliseraient un virus, nommé GolangGhost par Sekoia, écrit en GO. Ce code a déjà été partiellement étudié par les spécialistes de cybersécurité Sonatype et dmpdump. Sekoia explique que GolangGhost est prévu pour fonctionner sur Windows et macOS et permet de mettre en place une porte dérobée puis de voler des données via Chrome.

Sous MacOS, FrostyFerret affiche une fausse fenêtre indiquant que le navigateur web Chrome a besoin d’accéder à la caméra ou au microphone. Ensuite, le malware demande à l’utilisateur de saisir le mot de passe du système. Celui-ci est ensuite récupéré et envoyé vers un espace Dropbox.

Essentiellement des acteurs de la CeFi utilisés comme appâts

En analysant cette attaque, Sekoia a récupéré 184 invitations différentes pour des entretiens d’embauche. Parmi ces invitations, elle a trouvé 14 noms d’entreprises utilisés pour inciter la victime à compléter le processus de demande. Parmi elles, Coinbase est celle dont le nom est le plus utilisé par Lazarus pour attirer l’attention de ses proies :

Sekoia fait remarquer que 9 des 14 entreprises « proposent des services financiers centralisés (CeFi), c’est-à-dire des services financiers construits autour des crypto-monnaies qui s’appuient sur des intermédiaires, tels que des échanges et des plateformes de prêt, pour faciliter les transactions ». L’entreprise de sécurité rappelle que « ces plateformes sont dites « centralisées » car elles obligent les utilisateurs à faire confiance à une entité centrale pour gérer les fonds, traiter les transactions et assurer la sécurité ». Archblock est la seule plateforme de services financiers décentralisés (DeFi) détectée par Sekoia comme cible de Lazarus.

Lazarus vise des profils moins tech

Mais si les développeurs amateurs de crypto sont ciblés, l’analyse de Sekoia montre qu’ils ne sont ni les seuls, ni la principale cible. En effet, l’entreprise explique qu’ « il s’agit principalement de postes de responsables axés sur le développement commercial, la gestion des actifs, le développement de produits ou de spécialistes de la finance décentralisée ». Et elle explique que c’est un changement important s’agissant des attaques de Lazarus qui, jusque-là, « visaient principalement les développeurs et les ingénieurs en informatique ».

Sekoia livre une liste des faux sites d’entretiens que l’entreprise a détectés :

50 ans de hardware chez Microsoft : du « pirate » des années 80 au musée des oubliés

Le hard, parfois c’est hard
50 ans de hardware chez Microsoft : du « pirate » des années 80 au musée des oubliés

Pour les 50 ans de Microsoft, Next vous propose un retour sur le hardware de l’entreprise. On débute dans les années 80 avec des « cartes » d’extension maison surprenantes, pour finir avec des CPU, en passant par des produits pour le moins étranges !

Nous vous avons déjà proposé une rétrospective sur l’histoire de son produit phare – Windows (et son ancêtre MS-DOS). Car oui, il y a eu une longue période avant Windows et son interface graphique. Au début des années 80, c’était MS-DOS qui était à l’honneur, mais aussi une gamme de produits que l’on pourrait estampiller Microsoft Hardware.

Durant plusieurs décennies, la société a proposé de nombreux produits : manettes de jeu, webcams, routeurs, smartphones, montres connectées, lecteurs MP3, consoles de jeux, etc. Depuis quelques années maintenant, ce sont les ordinateurs et tablettes Surface qui sont à l’honneur, avec toujours des Xbox évidemment.

Microsoft : « roi » du hack hardware dans les années 80 !

Le premier produit hardware de Microsoft était la (Z-80) SoftCard pour l’ordinateur Apple II (qui était livré par défaut avec Apple DOS). Elle permettait à l’ordinateur d’exécuter le système d’exploitation C/PM de Digital Research. Ce système était utilisé par les Amstrad CPC, Commodore 128, Osborne 1 et ZX Spectrum (pour ne citer qu’eux).


Il reste 94% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ WordPress : Automattic licencie 16 % de ses effectifs

Matt Mullenweg, CEO d’Automattic, a dévoilé mercredi les contours d’un vaste plan de restructuration, annoncé le jour même en interne, qui passe essentiellement par le licenciement de 16 % des effectifs. L’entreprise ne précise pas le nombre exacte de salariés concernés, mais sa page A propos livre de façon indirecte le détail : le 20 mars dernier, elle mentionnait des équipes composées de 1 781 personnes. Au 4 avril, elle n’évoque plus que 1 495 « Automatticians », ce qui correspondrait à 286 départs officialisés au cours des deux derniers jours.

« Bien que notre chiffre d’affaires continue de croître, Automattic évolue dans un marché hautement concurrentiel et la technologie connaît une évolution sans précédent. Pour accompagner nos clients et nos produits, nous devons améliorer notre productivité, notre rentabilité et notre capacité d’investissement », justifie Matt Mullenweg. Le plan de restructuration permettrait selon lui de redonner un surcroît d’agilité à l’entreprise, éliminer certains silos et améliorer la qualité générale des produits édités par Automattic.

Cette vague de licenciement intervient après une période troublée pour l’écosystème commercial de WordPress, qui a vu Matt Mullenweg s’écharper publiquement avec son concurrent WP Engine, l’accusant d’utiliser la marque WordPress de façon abusive et de ne pas collaborer assez au projet open source éponyme. En réaction à cette affaire et suite à une manche juridique perdue face à WP Engine, Automattic avait annoncé début janvier « réduire ses contributions au projet WordPress ».

En octobre dernier, suite à ce conflit, Matt Mullenweg affirmait qu’Automattic était à court d’employés.

IA : OpenAI et Anthropic ciblent les étudiants

Aie confiance, crois en moi, que je puisse veiller sur toi
IA : OpenAI et Anthropic ciblent les étudiants

OpenAI et Anthropic viennent tous deux de lancer une offensive en direction du monde universitaire outre-Atlantique. Le premier choisit de rendre son abonnement ChatGPT Plus gratuit pour tous les étudiants aux États-Unis et au Canada jusqu’au mois de mai. Le second mise sur la création d’une offre dédiée, Claude for Education.

Les étudiants d’aujourd’hui sont les professionnels de demain, et cette logique, qui explique en partie pourquoi des éditeurs comme Microsoft courtisent le monde de l’éducation, n’a pas échappé aux ténors de l’intelligence artificielle générative, comme l’illustrent deux annonces quasi simultanées.

ChatGPT Plus gratuit pour les étudiants… pendant deux mois

La première émane d’OpenAI, qui vient de lancer une offre d’essai promotionnelle dédiée à son abonnement payant, ChatGPT Plus. L’entreprise dirigée par Sam Altman offre aux étudiants deux mois d’accès gratuits (valables jusqu’au 31 mai 2025), sous réserve qu’ils soient inscrits dans un établissement supérieur, aux États-Unis ou au Canada. Le statut d’étudiant sera vérifié au travers du système SheerID, indique OpenAI.

Il appartiendra ensuite aux étudiants ayant souscrit l’abonnement de résilier avant le 31 mai ou, à défaut de s’acquitter du montant de l’abonnement, soit 20 dollars par mois. « Votre abonnement se renouvelle automatiquement au tarif mensuel standard de ChatGPT Plus, sauf résiliation. Si vous ne souhaitez plus continuer, veuillez résilier avant la première date de facturation suivant la période promotionnelle », avertit l’éditeur.

OpenAI cible ici directement l’utilisateur final, alors que l’entreprise mène en parallèle une politique de conquête commerciale tournée vers les établissements supérieurs avec une offre dédiée, ChatGPT Edu, qui propose notamment des possibilités plus poussées en matière d’administration, de sécurité et de création d’agents personnalisés.

Anthropic lance Claude for Education

Concurrent d’OpenAI avec ses modèles Claude, Anthropic lance justement sa propre offensive en la matière. L’entreprise a en effet annoncé mercredi le lancement de Claude for Education, une offre qui vise à fournir aux établissements supérieurs un accès personnalisé à ses outils d’IA générative. Anthropic promet notamment une « nouvelle expérience Claude qui guide le processus de raisonnement des élèves plutôt que de fournir des réponses, contribuant ainsi à développer des compétences de pensée critique ».

En attendant de voir ce que recouvre cette dernière, Anthropic ne cache pas son ambition de contribuer à améliorer le taux de pénétration de ses IA parmi le public des étudiants. Le lancement de Claude for Education s’accompagne ainsi d’accords commerciaux avec plusieurs grands campus (Northeastern University à Boston, London School of Economics and Political Science (LSE), Champlain College au Canada), dont les étudiants accèderont gratuitement aux outils d’Anthropic.

La société présente également un programme d’étudiants ambassadeurs, à qui elle promet un accès privilégié à ses équipes, mais aussi une formule de crédits gratuits pour les étudiants qui souhaiteraient élaborer leurs projets d’étude grâce à Claude. Anthropic annonce par ailleurs rejoindre à cette occasion le consortium Internet2 et collaborer avec la ed tech américaine Instructure pour interfacer Claude avec la plateforme d’apprentissage Canvas LMS.

Études : les bénéfices de l’IA toujours contestés

« L’IA change ce que signifie être paré à l’emploi et, en tant qu’établissement tourné vers l’avenir, Champlain offre aux étudiants la possibilité d’utiliser l’IA afin qu’ils puissent être opérationnels dès l’obtention de leur diplôme », se réjouit Alex Hernandez, président du Champlain College, cité par Anthopic.

Si la capacité à utiliser l’IA générative, comprendre leurs atouts et se prémunir de leurs limites constitue assurément un atout, plusieurs études alertent déjà sur les risques associés à l’omniprésence de ces outils dans les cursus étudiants. Des chercheurs de Microsoft, en partenariat avec l’université de Carnegie Mellon, ont par exemple récemment conclu que l’utilisation de l’IA générative contribuait à une diminution de l’esprit critique.

☕️ Le CNRS se demande ce qu’est la conscience et si l’IA peut y accéder

Dans son Journal, le CNRS se pose des questions existentielles autour de la conscience : « Quand commence-t-elle et où finit-elle ? Comment la mesurer ? Et l’IA en est-elle douée ? ». De quoi ouvrir de nombreux débats…

L’article s’articule autour de cinq questions avec des réponses de plusieurs chercheurs, notamment Catherine Tallon-Baudry, (directrice de recherche CNRS au Laboratoire de neurosciences cognitives computationnelles à Paris) et Jean-Rémy Hochmann (directeur de recherche CNRS à l’Institut des sciences cognitives Marc-Jeannerod).

La question des intelligences artificielles est évidemment abordée par le CNRS : « une intelligence artificielle (IA) pourrait-elle, à terme, être consciente ? Si l’on définit la conscience uniquement par la capacité à traiter l’information et à raisonner, certaines intelligences artificielles pourraient déjà être considérées comme conscientes. Mais si la conscience implique nécessairement une dimension organique, subjective et sensible, alors les machines en sont encore très loin ».

Boite de conserve avec du faux cerveau en cube pixelisé par Flock

D’après le Journal, les chercheurs suggèrent que, chez les humains, « les structures de base, cognitives et neuronales, qui permettent la conscience sont déjà en place très tôt, peut-être dès la naissance ». Mais la conscience est-elle seulement dans le cerveau ? Catherine Tallon-Baudry soutient l’idée que « la conscience résulte d’une interaction complexe entre le cerveau et le corps – un aspect souvent négligé par les théories classiques », explique le CNRS.

Quoi qu’il en soit, n’attendez pas une réponse tranchée (il faudrait déjà s’accorder sur le sens précis de la question et des mots utilisés). L’article termine par une autre question : « une intelligence artificielle pourrait-elle un jour devenir consciente ? ». Vous avez deux heures.

Windows 11, la drôle d’histoire

« Pas si pire »
Windows 11, la drôle d’histoire

À l’occasion des 50 ans de Microsoft, nous avons republié notre dossier sur l’histoire de Windows. Le dernier de la série, Windows 11, est pourtant un cas à part : sa genèse est floue et personne ne l’attendait. Son arrivée sonne surtout une fin de vie difficile pour Windows 10 et comme un prélude à un Windows 12 dans un monde dominé par l’IA et le cloud.

Windows 10 devait être le dernier. Ce n’était pas une figure de style : Microsoft l’avait présenté ainsi lors d’une conférence Ignite en 2015, un « système d’exploitation en tant que service ».

Initialement, le système était pensé pour évoluer une à deux fois par an, via des mises à jour majeures lui apportant petit à petit améliorations et nouvelles fonctions. C’est effectivement ce qu’a fait l’éditeur, à un rythme plus ou moins régulier. Toutefois, la carrière de Windows 10 n’a pas été de tout repos, son parcours ayant été émaillé à plusieurs reprises de mises à jour problématiques.

Notre dossier sur l’histoire de Windows :

Un mystérieux projet Sun Valley

Nous sommes donc en 2021 et le monde s’est habitué à un Windows évoluant petit à petit, en fonction des usages et besoins. La première moitié de l’année est marquée par des rumeurs insistantes autour d’un projet nommé Sun Valley. Nous nous en étions fait l’écho à plusieurs reprises. Et pour cause : il était présenté comme un grand renouvellement de l’interface, une modernisation tenant compte de l’évolution des canons esthétiques. Un « flat design » moins flat et moins austère (Windows 10 avait poussé fort ce curseur, certains le qualifiant de « monochrome »).

Ces rumeurs plongeaient elles-mêmes leurs racines dans un projet annoncé en octobre 2019 : Windows 10X. L’objectif de Microsoft était alors de concevoir un système taillé spécifiquement pour les appareils à deux écrans tactiles. On parle d’interface adaptée, de barre des tâches centrée, de configurations d’écrans dépendant du contexte, d’un nouveau menu Démarrer… Le projet a par la suite évolué, pour être finalement annulé.

En revanche, le travail accompli sur le projet n’est pas complètement perdu. On parle alors d’une mise à jour conséquente pour Windows 10, prévue pour l’automne 2021. Mais en mai de cette année, lors de la conférence Build, Satya Nadella, PDG de l’entreprise, lance une bombe : l’entreprise se dit prête pour la « nouvelle génération » de Windows.

Une surprise gâchée

Tout s’enchaine alors très vite. Un évènement spécial est annoncé pour le 24 juin. Tout le monde ne parle plus alors que de « Windows 11 » comme successeur logique. Une semaine avant la conférence de présentation, le secret est brisé par un forum chinois : une préversion du système a fuité et des captures arrivent dans la presse américaine, puis internationale. Déjà, des réactions circonspectes apparaissent, la cohérence de l’ensemble étant mise en doute.


Il reste 79% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Amazon va lancer les 27 premiers satellites de sa constellation Kuiper

Le géant du Net prépare depuis des années un concurrent à Starlink de SpaceX : Kuiper. Les premiers prototypes ont été lancés fin 2023 et il est cette fois-ci question de commencer le « déploiement à grande échelle du réseau Internet par satellite ». En France, des stations de base ont déjà été autorisées par l’Arcep.

Cette mission se nomme Atlas V Kuiper 1 pour Kuiper Atlas 01. Elle sera lancée à bord d’une fusée Atlas V de United Launch Alliance (ULA) depuis Cap Canaveral (Floride). Elle « déploiera 27 satellites à une altitude de 450 kilomètres au-dessus de la Terre ». Le lancement est programmé pour le 9 avril. Amazon affirme que ce sera « la charge utile la plus lourde jamais transportée par la fusée Atlas V d’ULA ».

L’entreprise indique avoir largement revu sa copie depuis ses prototypes : « Nous avons amélioré les performances de tous les systèmes et sous-systèmes à bord, y compris les antennes réseau, les processeurs, les panneaux solaires, les systèmes de propulsion et les liaisons optiques entre les satellites. De plus, les satellites sont recouverts d’un film miroir diélectrique unique à Kuiper qui disperse la lumière du soleil pour les rendre moins visibles pour les astronomes au sol ».

Amazon prévoit ensuite 7 autres lancements sur Atlas V, 38 supplémentaires sur Vulcan Centaur d’ULA et 30 autres chez des partenaires tels qu’Arianespace, Blue Origin et SpaceX.

[Dossier] Internet, mode d’emploi : fibres optiques et câbles sous-marins (partie 6)

We all live in a cable submarine, cable submarine, cable submarine
[Dossier] Internet, mode d’emploi : fibres optiques et câbles sous-marins (partie 6)

Les câbles sous-marins à fibre optique sont les véritable épines dorsales de l’Internet mondial. Ils permettent de relier des pays et des continents, en complément de la fibre optique sur terre (et en l’air). Sur le papier, la solution semble idéale, mais elle a des contraintes techniques, notamment le besoin de répéteurs à intervalles réguliers.

Dans les précédents articles de notre dossier sur le fonctionnement d’Internet, nous avons pu suivre le voyage d’une requête. Nous sommes partis d’une URL, passée à la moulinette du DNS pour trouver l’adresse IP du serveur, puis nous avons utilisé les routes BGP pour le rejoindre. Un peu de peering et de transit via des points d’échange, éventuellement un « détour » par les CDN pour éviter de faire le tour de la Terre pour pas grand-chose, nous voilà à destination. Sur le papier, cela fonctionne bien. Mais en pratique, comment relie-t-on ce petit monde ?

Dans cette sixième partie, nous allons parler du cœur des réseaux. La principale technologie utilisée pour transporter des données est la fibre optique… mais on va commencer par briser un mythe auquel certains sont peut-être encore attachés : la fibre n’est pas le moyen le plus rapide (au sens de la latence) de transmettre des données.


Il reste 92% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Les crawlers des IA deviennent un sérieux problème pour le web, même pour Wikimédia

DDoS généré pour IA
Les crawlers des IA deviennent un sérieux problème pour le web, même pour Wikimédia

Pour entrainer et tenir à jour leurs intelligences artificielles, les crawlers des entreprises d’IA parcourent le web en permanence et sont suspectés de ne pas respecter les fameux robots.txt censés permettre leur blocage. Leur activité va jusqu’à mettre en péril des sites web de projets de logiciels libres ou toucher fortement les activités de Wikimédia.

Les entreprises qui ont mis en place des IA génératives comme OpenAI, Meta, Anthropic, Mistral ou encore Amazon, Google et Microsoft ont besoin d’indexer des contenus sur le web en permanence pour entrainer leurs grands modèles de langage (LLM), récupérer les nouvelles informations afin que leurs outils soient capables de répondre aux demandes de leurs utilisateurs.

Un trafic difficile à gérer, même pour la fondation Wikimédia

Mais en venant en permanence sur les sites web, ils ajoutent du trafic important à leur bande passante, au point de saturer certains. La fondation Wikimédia a publié un billet pour expliquer à quel point ces robots ont un impact sur ses projets : « Notre infrastructure est conçue pour supporter des pics soudains de trafic d’origine humaine lors d’événements très intéressants, mais le volume de trafic généré par les robots scrapeurs est sans précédent et présente des risques et des coûts croissants ».

En effet, ces entreprises récupèrent ces contenus à l’aide de « crawlers », des robots d’indexation, ou plutôt ici de récupération de données. OpenAI a officiellement donné le nom de son robot, GPTBot, en aout 2023, suscitant immédiatement la réaction de RSF qui a rapidement invité « tous les médias à configurer leurs sites pour éviter qu’OpenAI ne récupère leur contenu gratuitement ». C’est ce qu’ont fait beaucoup de sites web.

Un blocage pas si efficace

Pour cela, il « suffit » de lister dans le fichier robots.txt de son site les robots dont on ne veut pas. Mais, comme l’ont démontré récemment des chercheuses, certains robots récupèrent des informations de sites qui, pourtant, les ont ajoutés dans leurs listes. De plus, l’outil d’IA générative de Microsoft, Copilot, utilise BingBot, le robot d’indexation du moteur de recherche de l’entreprise. Un site qui voudrait bloquer l’IA de Microsoft ne serait plus indexé dans le moteur de recherche Bing.

Et, comme on l’a vu récemment, certains sites peuvent être visités 2 millions de fois par un bot en un trimestre. Il est déjà difficile pour des infrastructures comme celles de la Fondation Wikimédia de faire face à cet afflux « artificiel » pour gérer sa bande passante, mais ça l’est encore plus pour des projets qui ont moins de moyens.

Certains expriment leur ras-le-bol

Plusieurs responsables de projets de logiciels libres se sont plaints du problème, expliquait récemment ArsTechnica. Le développeur Xe Iaso a, par exemple, exprimé son ras-le-bol en janvier face au crawler d’Amazon : « À la personne qui gère AmazonBot, veuillez ajouter git.xeserv.us à votre liste de domaines bloqués. Si vous connaissez quelqu’un chez Amazon, merci de lui transmettre ce message et de lui demander de le transmettre à l’équipe d’AmazonBot » alors qu’il avait radicalement bloqué tous les robots dans son fichier robots.txt.

TheLibre.News a aussi recensé plusieurs infrastructures de logiciels libres touchés par ce problème. Le GitLab des développeurs de KDE a, par exemple, été touché par des crawlers ayant des IP détenues par Alibaba, ce qui l’a rendu temporairement inaccessible. L’un des administrateurs systèmes du projet Pagure de Fedora a, lui aussi, constaté un afflux massif de robots de récupération de données venant du Brésil. Il explique avoir décidé de bloquer temporairement toutes les IP brésiliennes pour en venir à bout tout en sachant bien que ce n’était pas une solution de long terme.

Gergely Orosz, qui publie la newsletter The Pragmatic Engineer, explique sur LinkedIn que le site d’un de ses projets personnels qui déclinait a reçu récemment un trafic important « lorsque le crawler AI de Meta et d’autres bots comme Imagesiftbot ont commencé à crawler le site sans réfléchir : ça a poussé le trafic à plus de 700Go par mois » alors qu’il était aux alentours de 100Go par mois un peu avant.

« Le site est hébergé sur Render où 500Go/mois sont inclus, au-delà c’est 30 $ pour 100Go. Ce mois-ci, je paie donc 90 $ pour l’entrainement de ces LLM », commente-t-il. Et lui aussi pointe que « l’ironie est que les robots – y compris Meta ! – ignorent manifestement le fichier robots.txt du site qui leur dit de « s’il vous plait, restez à l’écart » ».

Drew DeVault, le fondateur de la plateforme d’outils open source Source Hut, a publié un billet de blog le 17 mars dernier demandant aux entreprises d’IA génératives d’ « arrêter d’externaliser [leur] coûts directement sur [lui] ». « Au lieu de travailler sur nos priorités à SourceHut, j’ai passé entre 20 et 100 % de mon temps à atténuer les crawlers LLM hyper-agressifs », s’y lamente-t-il. Il explique que Source Hut subit des « dizaines de brèves pannes par semaine » et qu’il doit chercher tous les jours de nouvelles solutions pour ne pas voir la situation empirer. Le même jour, son entreprise expliquait que des crawlers de LLM continuaient à provoquer un DDoS sur SourceHut.

Des solutions pour piéger les crawlers d’IA

Elle expliquait avoir décidé de déployer Anubis pour essayer de bloquer les bots des entreprises d’IA. « Ce logiciel présente à certains utilisateurs un défi de preuve de travail qui est résolu par le navigateur de l’utilisateur à l’aide de JavaScript », explique SourceHut. C’est en fait une solution qu’a développée Xe Iaso après avoir publié son ras-le-bol.

D’autres solutions commencent à être développées, notamment en essayant de piéger les IA dans un labyrinthe de liens. Nepenthes, par exemple. Sa documentation explique que le logiciel « fonctionne en générant des séquences infinies de pages, chacune contenant des dizaines de liens, qui retournent simplement dans un piège ». Nepenthes ajoute des petits détails comme un délai ou une fausse apparence de fichiers statiques pour tromper le crawler.

De son côté, Cloudflare a aussi pensé à une solution de labyrinthe, explique-t-elle dans un billet de blog. Celle-ci « utilise du contenu généré par l’IA pour ralentir, embrouiller et gaspiller les ressources des AI Crawlers et d’autres robots qui ne respectent pas les directives « no crawl » ». L’entreprise, connue pour vendre des solutions pour augmenter la sécurité et les performances des sites internet, propose pour le moment à tous ses utilisateurs la possibilité d’activer gratuitement cette fonctionnalité.

RSF et les ayants droit dénoncent le projet de Code de bonnes pratiques de l’AI Act

GenAÏe
RSF et les ayants droit dénoncent le projet de Code de bonnes pratiques de l’AI Act

Évoquant des pressions et concessions en faveur des industriels, Reporters sans frontières estime que « rien de concret n’est fait pour protéger le droit des citoyens à accéder à une information fiable » dans l’AI Act. Une coalition de 38 organisations représentant les ayants droit déplore de son côté qu’il contrevienne « au droit de l’UE et ignore l’intention du législateur européen ».

L’ONG Reporters sans frontières (RSF) vient d’annoncer qu’elle quittait la table des négociations du Code de bonnes pratiques du règlement européen sur l’intelligence artificielle (AI Act). « Après avoir joué, en vain, le jeu de la négociation », elle « dénonce l’absence de garanties sur le droit à l’information et le poids exorbitant de l’industrie dans le processus ».

Au terme de trois mois de négociations « sous la pression croissante des géants technologiques », souligne RSF, le Bureau européen de l’IA a en effet publié ce 11 mars 2025, la troisième version de travail de son Code de bonnes pratiques de l’AI Act.

« Le projet repose sur une liste concise d’engagements de haut niveau et prévoit des mesures plus détaillées pour mettre en œuvre chaque engagement », précise la Commission, qui en propose un résumé dédié et un site web interactif.

Il s’agit de « 2 engagements liés à la transparence et au droit d’auteur » pour tous les fournisseurs de modèles d’IA à usage général, mais « avec des exemptions notables aux obligations de transparence pour les fournisseurs de certains modèles open source conformément à la loi sur la transparence », et de « 16 autres engagements liés à la sûreté et à la sécurité », mais « uniquement pour un petit nombre » de fournisseurs de modèles d’IA classés comme « présentant un risque systémique ».

Le processus de rédaction de ce code s’étalera jusqu’en mai 2025 et implique près de 1000 parties prenantes, dont des représentants des États membres de l’UE et des observateurs européens et internationaux, précise la Commission dans sa FAQ consacrée à la question.

Mais « toutes ne bénéficient cependant pas du même statut », relevait RSF en décembre dernier : les fournisseurs d’IA sont en effet invités à des « ateliers de rédaction » tandis que les autres acteurs, comme les universitaires et organisations de la société civile, « sont uniquement conviés à émettre leur avis sur les versions intermédiaires du texte, et à participer à des groupes de travail – auxquels participent également les fournisseurs d’IA ».

Un outil d’autorégulation par et pour les concepteurs d’IA


Il reste 71% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Le noyau Linux 6.15 permet à exFAT de supprimer les fichiers bien plus vite

exFAT est un système de fichier créé par Microsoft en 2006 pour les supports amovibles, particulièrement les cartes SD, avec un accent mis sur la gestion des métadonnées. Il s’agissait alors d’un système de fichiers propriétaire. Les spécifications ont finalement été ouvertes en 2019 et la propriété des brevets transférée à l’Open Invention Network. Ce n’est cependant pas une technologie ouverte.

Son support dans Linux a toujours été bancal, malgré des améliorations notables de temps en temps. La version 6.15 du noyau devrait cependant donner un gros coup de fouet, notamment lors de la suppression de fichiers, quand l’option de montage « discard » est active. Cette dernière signifie qu’une opération informe le périphérique de stockage que les blocs sous-jacents ne sont plus utilisés. Supprimer un fichier envoie ainsi un signal pour passer ces blocs du statut « occupé » à « libre ».

Disque dur

C’est un ingénieur de Sony, Yuezhang Mo, qui a apporté la modification. Il explique ainsi qu’en mode discard, les clusters sont éliminés un par un quand l’utilisateur déclenche une suppression de fichiers. Plus le nombre et le poids des fichiers augmente, plus l’opération prend de temps. Au point que ce dernier peut devenir excessif et entrainer un plantage des composants logiciels impliqués, jusqu’au blocage parfois de la machine. Sa modification a donc consisté à permettre le traitement par lots des clusters impliqués, comme le rapporte notamment Phoronix.

Pour donner un ordre d’idée, la suppression d’un fichier unique de 80 Go prenait la bagatelle de 286 secondes, un temps que l’on peut considérer comme « fou ». Avec le noyau Linux 6.15, la même opération prend… 1,6 seconde.

Les droits de douane Trump relancent l’hypothèse d’une taxe GAFAM européenne

Seul contre tous
Les droits de douane Trump relancent l’hypothèse d’une taxe GAFAM européenne

Donald Trump a tenu parole, en annonçant, mercredi, de nouveaux droits de douane exceptionnels, censés favoriser selon lui la réindustrialisation des États-Unis. Si la sidération domine encore sur les marchés financiers, les réactions politiques ne se sont pas fait attendre. L’Europe et la France défendent déjà l’idée de contre-mesures, parmi lesquelles l’hypothèse d’une taxe GAFAM, appliquée sur les flux financiers des géants du numérique, risque de s’imposer comme une évidence.

L’incertitude a duré jusqu’aux dernières heures : jusqu’où Donald Trump allait-il mettre à exécution ses menaces de droits de douane ? Le président des États-Unis n’a finalement pas mis d’eau dans son vin. Il a annoncé mercredi, à l’occasion de ce qu’il qualifie de « Liberation Day », un jeu de mesures exceptionnelles, qui instaurent des droits de douane particulièrement lourds pour les marchandises importées aux États-Unis. La Chine et les autres pays de l’Asie manufacturière sont particulièrement touchés, tout comme l’Union européenne.

Outre une taxe plancher sur les importations de 10 %, valable pour tous les pays – une approche systématique qui conduit à introduire des droits de douane sur des archipels peuplés uniquement de manchots et d’oiseaux, Trump prévoit des droits de douane individualisés et réciproques plus élevés pour les pays avec lesquels les États-Unis entretiennent une balance commerciale déficitaire.

Présentés à grands renforts de tableaux pendant une conférence de presse, ces droits de douane se montent à 20 % pour l’Union européenne, 54 % pour la Chine (en intégrant les précédentes taxes de 20 % entrées en vigueur début mars), 32 % pour Taïwan, 24 % pour le Japon, 49 % pour le Cambodge ou 46 % pour le Vietnam, 48% pour le Laos, 47% pour Madagascar, 44% pour le Sri Lanka, etc.

Ils ne préjugent pas, par ailleurs, d’éventuelles taxes spécifiques, comme les 25 % désormais prélevés sur l’importation de véhicules produits en dehors des États-Unis.

Une méthodologie qui interroge

Outre les cas particuliers comme le Canada, le Mexique ou la Chine, pourquoi de telles variations entre, disons, le Vietnam et le Cambodge ? Après analyse des chiffres, l’économiste américain James Surowiecki a remarqué une corrélation entre le déficit commercial des États-Unis avec le pays concerné et le niveau de droits de douane appliqué. Une hypothèse qu’a partiellement confirmée le bureau du représentant américain au commerce (USPTR), en publiant, jeudi, l’équation ayant soi-disant présidé au calcul.

Si les modalités de ce calcul interrogent, c’est aussi parce que Donald Trump parle de droits de douane réciproques, comme si les États-Unis ne faisaient que réagir aux pressions commerciales que lui font subir les autres pays du monde. L’Europe est dans ce contexte accusée de taxer à hauteur de 39 % les importations venues de l’autre côté de l’Atlantique, mais d’où vient ce chiffre ?

De façon empirique, un journaliste de Wired vérifie, sur 182 des 185 pays concernés, l’hypothèse de Surowiecki : « pour chaque pays, ils ont simplement pris notre déficit commercial avec ce pays et l’ont divisé par les exportations de ce pays vers nous ». En 2024, l’Union européenne a, par exemple, exporté l’équivalent de 605 milliards de dollars vers les États-Unis, mais importé uniquement 370 milliards de dollars, soit une balance déficitaire de 236 milliards de dollars… qui représente 39 % de ce que les États-Unis ont consommé en provenance de l’Europe.

Quel impact sur le secteur de la tech ?

Jeudi matin, les marchés européens ont vu rouge, très rouge, et l’ouverture de Wall Street s’annonce difficile. Bien que Trump défende l’impact positif de ses mesures pour l’économie américaine, ces droits de douane risquent en effet de soulever de nombreuses difficultés pour les sociétés qui produisent ou s’approvisionnent dans le reste du monde. Apple, qui fabrique massivement en Asie (Chine, Inde, Vietnam) ou Amazon, dont les rayons virtuels débordent de produits manufacturés à l’étranger, figurent parmi les acteurs de premier plan les plus exposés.

Les répercussions à plus long terme sont toutefois difficiles à mesurer. D’abord, parce que l’économie de la tech repose sur une infinité d’interdépendances entre composants, technologies, logiciels et flux financiers mondialisés. Ensuite, parce que la manœuvre de Donald Trump recèle une part variable non négligeable.

« Ces droits de douane resteront en vigueur jusqu’à ce que le président Trump détermine que la menace posée par le déficit commercial et le traitement non réciproque sous-jacent est satisfaite, résolue ou atténuée », expose clairement la Maison blanche. Le président ne s’en cache pas : il cherche à faire pression sur les états comme sur les acteurs économiques, pour obtenir des mesures favorables à l’économie des États-Unis, et ramener sur son sol des investissements, des usines et des emplois.

Vers une guerre commerciale ?

Droits de douane contre droits de douane, l’hypothèse laisse supposer une hausse généralisée des prix avec, à la clé, un risque de récession de l’économie américaine, dont la consommation des ménages représente près de 70 %. Un risque assumé par Donald Trump. « Ce que nous faisons est grand, nous rapportons la richesse à l’Amérique, et il y aura une période de transition. Il faut du temps », déclarait-il le 9 mars dernier, au micro de NBC.

En attendant, une forme de riposte s’organise, même si les contours en sont encore flous. Ursula Von der Leyen, présidente de la Commission européenne, a rappelé jeudi matin que l’Union préparait déjà un lot de mesures visant à taxer les marchandises venues des États-Unis, en réponse aux droits de douane déjà instaurés par Donald Trump sur les produits contenant de l’acier et de l’aluminium. « Et nous nous préparons maintenant à de nouvelles contre-mesures pour protéger nos intérêts et nos entreprises si les négociations échouent », a-t-elle ajouté lors de sa déclaration.

Le retour d’une taxe GAFAM européenne ?

Il est toutefois probable que d’autres mesures, moins « réciproques », soient aussi envisagées, et l’hypothèse d’une taxe GAFAM suscite déjà, dans ce contexte, de premières déclarations. Elle apparaît en effet comme une mesure de rétorsion relativement évidente, du fait de la part prépondérante des services, et donc de l’économie numérique, dans la balance commerciale états-unienne. Un point que Donald Trump omet sciemment dans ses propres chiffres et déclarations, qui ne raisonnent que sur la base des biens matériels.

En 2023, l’Europe exportait par exemple 503 milliards d’euros de marchandises vers les États-Unis, et en importait 347 milliards d’euros. Or la situation s’inverse quand on regarde les services : l’Union européenne exportait l’équivalent de 319 milliards d’euros vers les États-Unis, alors que ces derniers génèraient 427 milliards d’euros à partir du marché européen. En matière de services, les États-Unis bénéficient donc d’un excédent commercial significatif vis à vis de l’Europe.

La France semble déjà pencher en faveur de l’idée d’une taxe GAFAM, comme l’a laissé entendre Sophie Primas, porte-parole du gouvernement, sur RTL. Rappelant le premier volet de la riposte européenne relative à l’aluminium et à l’acier, elle évoque un second volet, plus large, « probablement prêt à la fin du mois d’avril sur l’ensemble des produits et des services, et j’insiste bien sur les services, avec de nouveaux outils » réglementaires, dits anti-coercition.

L’histoire de Windows 10

Une histoire sans fin ?
L'histoire de Windows (10)

Mise à jour du 3 avril 2025 : À l’occasion des 50 ans de Microsoft, nous republions petit à petit notre dossier sur l’histoire de Windows. À l’époque, il s’était achevé sur Windows 10. Nous le complèterons demain par une nouvelle partie consacrée à Windows 11.

Article original du 18 novembre 2020 :

Après Windows 8, il devient urgent pour Microsoft de rétablir le consensus. L’aventure Windows 8 avait prouvé que les grandes cassures ergonomiques n’étaient pas possibles. Après tout, on ne pouvait pas tabler sur une philosophie héritée de Windows 95 et tout jeter sans prendre de gants.

Le nom même de Windows 10 a été sélectionné pour incarner un changement important chez Microsoft. À l’heure actuelle, le système doit être considéré comme le dernier des Windows. Aucune autre version majeure ne semble pour l’instant en développement, l’éditeur ayant choisi une autre approche, à savoir des mises à jour fonctionnelles.

Le produit a volontiers été décrit par Microsoft comme un « system as a service », ce qui n’a pas que des avantages. À sa sortie, Windows 10 a conservé le niveau de rapidité de son prédécesseur. En fait, le matériel minimum requis n’a pas bougé depuis Vista, à savoir un processeur de 1 GHz et 1 ou 2 Go de mémoire selon que l’on utilise une édition 32 ou 64 bits. Actuellement, le système est mis à jour tous les six mois, les nouvelles versions étant finalisées en mars et septembre, pour des distributions en avril et octobre.

Les éditions proposées sont toujours les mêmes. La Famille ne pouvait initialement repousser l’installation des mises à jour semestrielle, tandis que les versions Professionnelle et Entreprise ont davantage d’outils. Le menu Démarrer est de retour sous une forme plus complète et personnalisable. Le style graphique reste cependant celui de Windows 8, avec ses vignettes de couleur dynamiques. Windows 10 a beau être une plateforme de consensus, ce courant graphique continue de s’étaler, comme on le voit dans les Paramètres ou dans les applications fournies.

Notre dossier sur l’histoire de Windows :

Une révolution de l’intérieur


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Spam : l’Arcep confirme une explosion des appels et messages abusifs en 2024

Oui allo ? Alors je sais, vous avez sûrement…
Spam : l’Arcep confirme une explosion des appels et messages abusifs en 2024

En 2024, comme les années précédentes, le nombre de plaintes envoyées à l’Arcep est en hausse. Les alertes concernant la fibre optique sont sans surprise les plus importantes. Sur le mobile, on note aussi une explosion des spams téléphonique. Dans le même temps, l’Observatoire de la satisfaction client 2025 est aussi disponible.

L’Arcep (régulateur des télécoms) vient de publier le bilan annuel de sa plateforme J’alerte l’Arcep. Lancée fin 2017, elle permet à tout un chacun (particuliers et professionnels) de lui signaler un problème. « Les alertes recueillies permettent de suivre en temps réel les difficultés rencontrées par les utilisateurs, d’identifier les dysfonctionnements récurrents ou les pics d’alertes », explique l’Autorité.

En 2024, le gendarme des télécoms a reçu plus de « 57 000 [+ 8% par rapport à 2023, ndlr] alertes dont environ 49 000 directement sur la plateforme ». Sans surprise, « l’utilisation de j’alerte l’Arcep, en hausse constante, reflète les évolutions des problèmes rencontrés depuis 2018 ».

Le nombre d’alertes sur les réseaux hors fibre décroit (sauf un petit rebond en 2023), tandis que celui sur la fibre optique représente désormais plus de la moitié des signalements. On peut également voir (zone rose) une forte hausse des appels/messages non sollicités ou abusifs sur le mobile, nous allons y revenir.

Signalements : Free (en tête) vs les trois autres opérateurs

Au niveau des opérateurs, Free se démarque à la fois sur le fixe et sur le mobile, mais pas de la meilleure des manières :

« Les signalements reçus concernant les opérateurs Orange, SFR et Bouygues sont en baisse en 2024 et compris entre 75 et 100 pour 100 000 utilisateurs, ceux pour Free sont stables aux alentours de 150 pour 100 000 utilisateurs.

Sur le marché mobile, les signalements reçus concernant les opérateurs Bouygues, Orange et SFR sont plutôt stables depuis 3 ans et sont compris entre 5 et 10 pour 100 000 utilisateurs, ceux pour Free sont en hausse et sont compris entre 10 et 15 pour 100 000 utilisateurs ».

Satisfaction client : Free aussi en tête

Si Free arrive premier sur le nombre de signalements, l’opérateur est aussi en tête sur les notes de satisfaction attribuées par les utilisateurs au service client, avec 2,8/5. Bouygues Telecom et Orange sont deuxièmes avec 2,4/5 et SFR dernier avec 2,2 sur 5.

Autre indicateur : la satisfaction globale des abonnés à un réseau fixe et/ou mobile. Elle « est en légère hausse, pour l’ensemble des opérateurs, par rapport à l’année précédente ». Free est en tête avec 8,1 sur 10, Orange deuxième avec 8,0, Bouygues Telecom troisième avec 7,8 et SFR encore dernier avec 7,5.

« La satisfaction des utilisateurs vis-à-vis des opérateurs mobiles (notés 7,9/10 en moyenne) est
équivalente à celle vis-à-vis des fournisseurs d’accès à internet fixe (notés 7,8/10 en moyenne)
 », ajoute l’Arcep.

Le bilan complet de la satisfaction des utilisateurs vis-à-vis des opérateurs mobiles et Internet est disponible ici. Le document (PDF) fait pas moins de 111 pages. C’était un questionnaire en ligne auto-administré d’une quinzaine de minutes réalisé entre le 23 septembre et le 11 octobre sur un échantillon de 4 006 consommateurs âgés de 18 ans et plus.

Grogne sur les déploiements

Les alertes sur le fixe sont encore et toujours majoritaires avec 85,4%, contre 14,6 % pour le mobile. Néanmoins, « les signalements relatifs au marché fixe ont, pour la première fois depuis le début du lancement de la plateforme de « J’alerte », diminué en 2024 », avec presque deux points de moins.

Dans le détail, sur le fixe chez le grand public, le déploiement des réseaux et la qualité de services et du SAV représentent 94,7 % des signalements. Entre 2023 et 2024, il y a eu un fort mouvement : les plaintes sur les déploiements ont augmenté de presque 50 %, tandis que celles sur la qualité de service ont baissé de 67 %.

Spam téléphonique : explosion des alertes

Cela ne surprendra personne : « en 2024, le volume des signalements relatifs au phénomène d’usurpation de numéro a été multiplié par 16 passant approximativement de 500 alertes en 2023 à 8500 en 2024 ». L’Arcep note une forte fluctuation durant l’année, avec un pic au mois de septembre avec près de 1 500 alertes.

Au global, c’est l’ensemble de la catégorie des alertes liées aux appels et messages non sollicités ou abusifs qui est en très forte augmentation : de 2 029 alertes en 2023, l’Arcep en a reçu 10 973 en 2024, soit plus de cinq fois plus.

Quasiment tous les indicateurs sont en très forte hausse par rapport à 2023 si on se base sur le nombre d’alertes. Par exemple, le démarchage téléphonique abusif est passé de 1 094 à 1 517 alertes, mais ne représentent plus que 13,8 % de l’ensemble à cause de l’explosion du nombre d’usurpations de numéro.

Les opérateurs mettent en place des protections… encore partielles

La lutte s’est intensifiée fin 2024 et début 2025 avec le Mécanisme d’Authentification des Numéros (MAN) en place depuis 1ᵉʳ octobre sur le fixe et sur le mobile chez les quatre opérateurs depuis le début de l’année. Cela pourrait expliquer l’intensification de septembre, avec un dernier tour « d’honneur » ?

Il faudra attendre le prochain observatoire pour juger d’éventuels effets sur le mobile, mais il reste un important trou dans le filet de protection du MAN, comme nous l’expliquions récemment : « les appels en roaming (depuis l’étranger) avec un numéro français ne sont pas concernés ».

Sur le graphique de droite ci-dessous, ne vous fiez pas uniquement à la longueur des barres qui représentent la répartition des alertes (en pourcentage), pas le nombre de signalements.

L’Agence spatiale européenne alerte encore sur la prolifération des débris

Dirty space
L’Agence spatiale européenne alerte encore sur la prolifération des débris

Le rapport annuel de l’ESA sur l’environnement spatial alerte sur l’augmentation toujours plus importante du nombre de débris. Et l’orbite terrestre basse est de plus en plus encombrée. Pourtant, l’agence européenne constate une meilleure prise en compte des directives de réduction des débris spatiaux par les différents acteurs. Mais celle-ci va moins vite que l’augmentation du nombre de lancements.

L’ESA a publié son rapport annuel sur l’environnement spatial [PDF]. L’agence spatiale européenne y explique que le monde du spatial commence à prendre en compte le fait que « l’environnement orbital de la Terre est une ressource limitée » comme l’indiquait l’ONU en 2019 dans ses recommandations sur la durabilité de l’espace extra-atmosphérique.

Trop lents

Mais cette prise en compte est encore beaucoup trop lente. Nous augmentons moins rapidement le nombre d’objets en orbite autour de la Terre, mais nous l’augmentons toujours : « si la croissance exponentielle du nombre de nouvelles charges utiles s’est ralentie en 2024, le nombre de lancements a continué d’augmenter et, en termes de masse et de superficie, le nombre de lancements est toujours le plus élevé jamais enregistré jusqu’à présent ».

De la même façon, les directives établies pour pousser au désorbitage sont de mieux en mieux suivies mais ça ne va pas encore assez vite :

« Alors que l’adoption et le respect des pratiques de réduction des débris spatiaux au niveau mondial augmentent lentement, il est important de noter que la mise en œuvre réussie de l’un ou l’autre des seuils de durée de vie est encore trop faible pour garantir un environnement durable à long terme. Notamment, une partie de l’augmentation de l’adoption des mesures de réduction […] comme les rentrées contrôlées de corps de fusée ou les taux de réussite de l’élimination des charges utiles en orbite terrestre basse après la mission, est liée au déploiement et à la mise hors service de grandes fusées et d’engins spatiaux de grande taille », explique l’agence européenne.

Des politiques mises en place mais un futur incertain aux États-Unis

C’est d’ailleurs en ce sens qu’elle a augmenté ses exigences en 2023, avec un objectif « zéro débris » d’ici à 2030. L’ESA s’engageait à :

  • limiter la quantité de débris spatiaux créés par les opérations normales ;
  • réduire au minimum le risque de désintégration en orbite ;
  • prévenir les collisions en orbite ;
  • mettre en œuvre l’élimination après la mission.

Du côté américain, la FCC infligeait en 2023 sa première amende pour mauvais désorbitage. Mais la nouvelle administration Trump et la suppression de l’indépendance de l’agence américaine qui régule les satellites risquent de changer la donne.

Autant de débris que de satellites actifs sur l’orbite terrestre basse

« Le nombre de débris spatiaux en orbite continue d’augmenter rapidement. Environ 40 000 objets sont actuellement suivis par les réseaux de surveillance de l’espace, dont environ 11 000 sont des charges utiles actives », explique l’agence.

Elle ajoute qu’il y en a beaucoup en orbite qui pourraient causer des accidents : « le nombre réel de débris spatiaux d’une taille supérieure à 1 cm – suffisamment grands pour être capables de causer des dommages catastrophiques – est estimé à plus de 1,2 million, dont plus de 50 000 objets d’une taille supérieure à 10 cm ».

L’orbite terrestre basse est celle qui inquiète le plus l’agence. Elle fait remarquer qu’ « à environ 550 km d’altitude, le nombre de débris constituant une menace est aujourd’hui du même ordre de grandeur que celui des satellites actifs ».

☕️ 50 ans plus tard, Bill Gates publie le code source de l’Altair BASIC

Alors que Microsoft célèbrera vendredi 4 avril les cinquante ans de sa création en tant que société, Bill Gates est revenu cette semaine sur ce qui constitue sans doute l’épisode fondateur de son aventure entrepreneuriale : l’écriture avec Paul Allen, en un temps record, d’un interpréteur BASIC destiné à l’Altair 8800 de MITS (basé sur le CPU 8080 d’Intel).

Il a dans le même temps publié, pour la première fois, le code source de ce fameux interpréteur, le premier produit commercial vendu par les deux fondateurs de Microsoft : 150 pages de sorties d’imprimante scannées, qui révèlent (PDF) un code dûment commenté, écrit en seulement trente jours (et trente nuits) au printemps 1975.

« Avant Office, Windows 95, la Xbox ou l’IA, il y avait Altair BASIC », attaque joliment Bill Gates, avant de retracer plus en détail le déroulé des faits. D’abord, la découverte de cette nouvelle machine, l’Altair 8800, affichée en couverture du magazine Popular Electronics, qui augurait l’avènement d’une informatique personnelle. Puis cette idée en forme de défi, vendue sur papier à MITS, le fabricant de l’Altair : développer un interpréteur BASIC, capable d’offrir une alternative au langage assembleur de base de la machine. Sans accès direct à cette dernière, Gates et Allen durent utiliser un simulateur.

« Enfin, après de nombreuses nuits blanches, nous fûmes prêts à montrer notre interpréteur BASIC à Ed Roberts, le président de MITS. La démonstration se révéla un succès, et MITS accepta de nous acheter le logiciel. Ce fut un moment pivot pour Paul et moi. Altair BASIC devint le premier produit de notre nouvelle société, que nous avions décidé d’appeler Micro-soft (nous avons abandonné plus tard le tiret) », écrit Bill Gates.

☕️ Qualcomm veut aussi sa part du gâteau de l’IA générative et rachète MovianAI

Qualcomm vient d’annoncer le rachat de MovianAI Artificial Intelligence Application and Research JSC (alias MovianAI), l’ancienne division d’IA générative du conglomérat privé vietnamien Vingroup. Cette branche était dirigée par Hung Bui (il en était également le fondateur), un ancien de chez Google DeepMind où il a passé 16 mois comme chercheur.

« Cette acquisition souligne notre engagement à consacrer les ressources nécessaires à la R&D, ce qui fait de nous la force motrice de la prochaine vague d’innovation en matière d’IA », explique Jilei Hou, vice-président sénior de l’ingénierie chez Qualcomm.

Le montant de la transaction n’est pas précisé. Qualcomm ajoute que Hung Bui rejoindra ses effectifs, sans en dire davantage sur son poste. « Nous sommes prêts à contribuer à la mission de Qualcomm qui consiste à réaliser des avancées majeures dans la recherche fondamentale en intelligence artificielle et à les déployer dans tous les secteurs, notamment les smartphones, les ordinateurs, les véhicules assistés par informatique, etc. », explique-t-il.

Puce Snapdragon X Plus

Hubert Guillaud : « La surveillance croissante des usagers par les administrations est trop peu discutée »

La democratie, le moins mauvais des systèmes
Hubert Guillaud : « La surveillance croissante des usagers par les administrations est trop peu discutée »

Next s’est entretenu avec le journaliste Hubert Guillaud, qui publie Les algorithmes contre la société aux éditions La Fabrique ce 4 avril.

Spécialiste des systèmes techniques et numériques, longtemps animateur du site InternetActu.net de l’Association pour la Fondation d’un Internet nouvelle génération (la Fing, dont les activités se sont arrêtées en 2022), désormais derrière la newsletter Dans les algorithmes, Hubert Guillaud publie ce 4 avril un nouvel essai. Dans Les algorithmes contre la société, qui paraît aux éditions La Fabrique, le journaliste décortique les effets de la diffusion des algorithmes dans les organismes sociaux français. Next l’a rencontré.

>> Pourquoi ce livre ?

On parle beaucoup d’intelligence artificielle, un peu de ses effets, mais beaucoup moins de ses difficultés et de ses défaillances. Ce sont des sujets que je traite depuis longtemps, et je trouvais qu’on manquait de discussions sur les problématiques sociales que posent ces systèmes de calcul.

On nous parle de l’IA comme moteur de progrès, comme enjeu de croissance et de transformation du monde, mais on regarde assez peu, concrètement, ce que ça fait là où ça se déploie, et comment ça fonctionne réellement. Or, j’avais le sentiment qu’il y avait une urgence à se poser ces questions.

>> Assez vite, tu alertes contre l’interconnexion des fichiers de données qui s’étend dans l’administration. En quoi menace-t-elle la séparation des administrations et des pouvoirs ?

J’ai l’impression que la surveillance croissante des utilisateurs via les administrations est une notion assez peu discutée, effectivement. Les institutions demandent toujours plus de données, et utilisent toutes les données à disposition pour mener leurs calculs.


Il reste 86% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Nintendo lancera la Switch 2 le 5 juin, à partir de 470 euros

Nintendo a dévoilé mercredi, lors d’une conférence diffusée en direct, les grandes lignes et les premiers jeux de sa future console hybride (mi portable, mi console de salon), la Switch 2. Son lancement est désormais officiellement programmé au 5 juin prochain, avec un prix de départ fixé à 469,99 euros et des précommandes ouvertes à partir du 8 avril.

Sur le plan matériel, Nintendo valide ou précise la plupart des éléments déjà évoqués en janvier, lors de la première confirmation officielle de la console. La Switch 2 conserve le même schéma de fonctionnement que celui du modèle originel (un écran central autonome, des manettes amovibles sur le côté, une station d’accueil pour relier l’ensemble à une TV).

Le fabricant japonais livre quelques premiers détails techniques : la Switch 2 s’articule autour d’un écran LCD (et non OLED) de 7,9 pouces, délivrant 1920 x 1080 pixels avec une fréquence d’affichage variable pouvant monter à 120 Hz et prise en charge du HDR10.

Une fois connectée en USB-C à son dock, ce dernier autorise, via HDMI, un affichage 3840 x 2160 (4K) à 60 images par seconde (fps). Pour aller chercher les 120 fps, il faudra basculer sur une résolution inférieure (1920 x 1080 ou 2560 x 1440).

Huit ans après la Switch première du nom, qui utilisait un dérivé de la puce Tegra, Nintendo reste fidèle à NVIDIA. La Switch 2 exploite une nouvelle fois un design personnalisé, dont les caractéristiques n’ont pas encore été dévoilées. La console bascule pour le reste sur 256 Go de stockage (contre 32 Go sur la première Switch et 64 Go sur sa variante OLED), avec Bluetooth et Wi-Fi 6, ou liaison réseau filaire via un port LAN quand elle est rangée sur son dock.

Nintendo évoque deux ports USB type-C (l’un sert à la connexion au dock, l’autre aux accessoires, les deux permettent la recharge) et un emplacement pour cartes microSD Express, format auquel seront distribués les jeux, jusqu’à 2 To. La console, qui pèse 401 grammes sans ses manettes et présente 13,9 mm d’épaisseur, dispose d’une batterie de 5 520 mAh qui autorise une autonomie théorique comprise entre « 2 et 6,5 heures ».

Les manettes Joy-Con, connectées en Bluetooth 3.0 et désormais dotées d’une attache magnétique, prennent un peu d’embonpoint. Elles inaugurent un capteur optique, permettant de les utiliser comme une souris d’ordinateur. Elles gagnent également un bouton C, dédié aux nouvelles fonctionnalités de discussion en jeu implémentées par Nintendo dans son environnement logiciel, baptisées GameChat. Entre autres accessoires, une caméra sera proposée en option, avec la promesse d’interactions au sein de certains jeux.

Du côté des jeux justement, c’est la grande offensive. Nintendo mise en premier lieu sur ses propres licences, à commencer par un nouvel épisode de Mario Kart, qui sera proposé avec la console en bundle au lancement, ou Donkey Kong Bananza, attendu pour mi-juillet. Entre nouveautés et rééditions, la firme convoque sans surprise ses licences les plus iconiques.

Elle y ajoute une forte dimension rétrocompatibilité, avec la prise en charge annoncée de la plupart des jeux Switch et l’ajout de jeux Gamecube au sein de l’abonnement Nintendo Switch Online.

Enfin, Nintendo promet pléthore de titres émanant d’éditeurs tiers, incluant de nombreux titres de premier plan (AAA), même et y compris popularisés par des plateformes concurrentes, PC ou consoles. Dans le lot figurent des jeux tels que Elden Ring, Cyberpunk 2077, Final Fantasy 7 Remake, Star Wars Outlaws, Fortnite, Hogwarts Legacy, EA Sports FC, etc. FromSoftware signera par ailleurs une exclusivité dédiée à la Switch 2, attendue pour 2026 : un jeu d’action ambiance vampire en monde ouvert avec dimension multijoueurs baptisé The Duskbloods.

Bref, un programme musclé, pour une console qui aura la lourde tâche de succéder à une Switch, première du nom, vendue à plus de 150 millions d’exemplaires dans le monde depuis son lancement en 2017.

L’histoire de Windows : de Vista à 8.x, de nombreuses erreurs

Mais c'est meilleur
L'histoire de Windows : de Vista à 8.x, de nombreuses erreurs

Mise à jour du 2 avril 2025 : À l’occasion des 50 ans de Microsoft, nous republions petit à petit notre dossier sur l’histoire de Windows. À l’époque, il s’était achevé sur Windows 10. Nous le complèterons vendredi par une nouvelle partie consacrée à Windows 11.

Article original du 18 novembre 2020 :

C’est en novembre 2006 que l’on découvrait Windows Vista, présenté à l’époque comme le grand remplaçant de XP. Mais il n’était qu’une étape de plus dans un cycle d’évolutions assez aléatoires qui devait nous mener progressivement au Windows 10 que l’on connaît aujourd’hui.

Lorsque Windows Vista apparaît en janvier 2007, c’est peu dire qu’il est attendu. Windows XP est en place depuis plus de cinq ans et provoque une stagnation du marché. Pourtant, l’accueil de Vista est très frais. Il se montre gourmand en ressources, exigeant une configuration nettement plus musclée.

Voulant indexer le contenu des partitions, il provoque de nombreux accès disque, tirant vers l’arrière les performances de la machine. L’ensemble donne une impression de développement à la va-vite. C’est en partie le cas, car le projet a connu bien des péripéties. Initialement connu comme le projet Longhorn, il était beaucoup plus ambitieux, mais manquant d’une vision claire. Entre-temps, l’arrivée chez Apple de Mac OS X Tiger avait fait du remous, car le système proposait plusieurs fonctions prévues par Longhorn, mais avec des performances élevées.

Le projet avait donc été redémarré. Partant du code source de Windows Server 2003 SP1, les ingénieurs ont commencé à tracer des lignes dans le système pour catégoriser les composants et réduire les interdépendances. Mais pressée par le temps, la firme a quand même lancé son produit, alors qu’il manquait cruellement d’optimisations. Aucune leçon n’avait été tirée de Windows ME. Microsoft continuera par la suite de confondre vitesse et précipitation à plusieurs reprises.

Vista débarque avec un lot conséquent de nouveautés, parmi lesquelles Aero, sa nouvelle interface. Tirant parti de l’accélération matérielle du GPU, elle présente de multiples effets comme la transparence et les ombrages. L’ensemble s’accompagne d’une collection complète d’icônes remaniées, extensibles jusqu’en 256 x 256 px.

La recherche est omniprésente dans l’Explorateur et joue un grand rôle dans le système. Il suffit par exemple d’appuyer sur la touche Windows et quelques lettres pour trouver un logiciel et l’exécuter avec Entrée. Vista inaugure aussi Internet Explorer 7, fonctionnant pour la première fois en isolation. Il introduit la navigation par onglets, la compatibilité RSS et le filtre anti-phishing qui deviendra plus tard Smart Screen.

Media Player 11 et Windows Defender sont aussi présents, de même que les applications Mail, Calendrier, Galerie de Photos, Windows DVD Maker ou encore les Gadgets, que l’on peut disposer dans une colonne à droite de l’écran. C’est aussi la première version à faire de Windows Update un composant à part. Auparavant accessible depuis une page Web, il a maintenant sa propre fenêtre et cherche des mises à jour pour d’autres produits Microsoft, dont Office. Vista fait un bond dans la sécurité, Microsoft ayant clairement retenu la leçon de Windows XP.

Il instaure l’UAC (User Account Control) qui veille à ce que l’utilisateur ne puisse plus exécuter par défaut n’importe quel processus en mode administrateur. Une autorisation est réclamée dans un espace sécurisé. Hélas, la première version de l’UAC est si paranoïaque qu’elle demande à l’utilisateur de confirmer de nombreuses manipulations, provoquant un agacement général.

Pour la première fois, le système est distribué dès le départ en versions 32 et 64 bits, moult processeurs étant alors déjà compatibles avec les instructions AMD64, généralisées plus tard en x64. Cette mouture réclame le double de mémoire vive (2 Go) et des pilotes signés, développés sur la base du WDDM (Windows Display Driver Model).

Mais Vista aurait laissé un souvenir bien plus amer si ses Service Packs n’étaient pas venus à sa rescousse. Particulièrement le SP1 sorti environ un an plus tard qui calme l’UAC et améliore nettement les performances, notamment pour les jeux DirectX 9 (Vista inclut DirectX 10). Il apporte le support du système de fichier exFAT.

Notre dossier sur l’histoire de Windows :


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

❌