Vue normale

Aujourd’hui — 12 avril 2025Next.ink

#Flock : la météo rit du complot

Par : Flock
12 avril 2025 à 11:37
Montagnes russes au fond du Grand Canyon
#Flock : la météo rit du complot

Ah mes chers amis, l’heure est-elle à la prise de température à l’aide d’un baromètre ? Celui des bourses est fébrile au moindre postillon, la fièvre orangeâtre se répand plus vite qu’un tweet. Les fouilles au corps ne servent à rien tant les personnes s’en sont mis plein. Le coup est gros comme une baleine, pas besoin d’IA pour le calculer de loin ou de près, et ce n’est pas le rêve d’avoir un iphone 100% US qui justifiera le move. Comme dirait tout bon politique qui ne respecte rien : plus c’est gros, plus ça passe. Sauf pour quelques-uns qui feraient mieux de se faire tout petits. Allez, bon weekend ! 🙂


Il reste 81% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Hier — 11 avril 2025Next.ink

☕️ L’interdiction des smartphones au collège devrait être généralisée à la rentrée

11 avril 2025 à 15:21

Cette fois c’est la bonne ? Interpellée par le sénateur LR François Bonhomme mercredi, Élisabeth Borne, ministre de l’Éducation nationale, a annoncé qu’elle souhaitait que la « pause numérique » – l’interdiction pour les élèves d’utiliser leur smartphone au sein de l’établissement – soit « généralisée à tous les collèges à la prochaine rentrée ».

« Cette mesure est essentielle, à la fois en termes de bien-être et de réussite de nos élèves », a fait valoir la ministre, en rappelant que la pause numérique faisait déjà l’objet d’une expérimentation dans une centaine de collèges depuis la rentrée 2024. « Tous les retours sont très positifs, notamment sur l’amélioration du climat scolaire, ou sur le large soutien dont elle bénéficie de la part des parents et des professeurs », affirme-t-elle. À ce stade, aucun bilan officiel de l’expérimentation n’a toutefois été rendu public.

Au Sénat, Élisabeth Borne annonce la généralisation de l’interdiction du smartphone à tous les collèges – capture d’écran Public Sénat

Élisabeth Borne n’a pas précisé par quel levier l’instauration de cette interdiction deviendrait effective à l’échelle nationale. La loi prévoit en effet depuis 2018 l’interdiction du portable à l’école et au collège, mais elle n’a jamais été appliquée.

« Pour la généralisation à la rentrée prochaine, je souhaite que les modalités de mise en œuvre soient laissées à l’appréciation des chefs d’établissement, en lien avec les conseils départementaux », a encore indiqué la ministre. Selon elle, les solutions retenues, « casiers » ou « pochettes », représenteraient soit un coût nul, soit une enveloppe de l’ordre de quelques milliers d’euros par établissement.

« L’interdiction porte sur l’utilisation des téléphones mobiles et de tout autre équipement terminal de communications électroniques (tablette ou montre connectée, par exemple) dans l’enceinte des écoles et des collèges », rappelle le ministère de l’Éducation nationale. La mesure suppose une modification du règlement intérieur de l’établissement, ainsi que celle de la charte des règles de civilité du collégien.

La « pause numérique » et son test initié à la rentrée 2024 font suite à la remise d’un rapport chargé d’évaluer l’impact de l’exposition des jeunes aux écrans, commandité par le président de la République. Publié le 30 avril 2024, il suggérait, entre autres propositions, de « renforcer l’application de l’interdiction des téléphones au collège, et systématiser dans chaque lycée un cadre partagé sur la place et l’usage des téléphones dans la vie de l’établissement ».

Shein sous la menace d’une amende de 150 millions d’euros par la CNIL

11 avril 2025 à 15:00
Shein sous la menace d’une amende de 150 millions d’euros par la CNIL

La plateforme d’e-commerce d’origine chinoise pourrait écoper d’une amende de 150 millions d’euros pour sa mauvaise politique de gestion des cookies si la CNIL suit les préconisations faites dans un rapport interne. Ce montant serait important, mais il est à rapporter aux 3 milliards d’euros qu’auraient dépensés les français chez Shein ces 12 derniers mois.

Shein fait l’objet d’une enquête de la CNIL et pourrait se voir infliger une amende importante par l’autorité. Alors que celle-ci a effectué plusieurs contrôles de la plateforme d’e-commerce en aout 2023, un rapport interne conclurait, selon l’Informé, à la préconisation, en l’état, d’une sanction de 150 millions d’euros et d’une astreinte quotidienne de 100 000 euros. Le rapport viserait « une gestion des cookies non conforme à la législation en vigueur ».

Des dizaines de cookies déposés avant même l’affichage du bandeau de consentement

Le rapport reprocherait à Shein.com le dépôt de plusieurs dizaines de traqueurs avant même l’affichage du bandeau de consentement des cookies, de cookies après refus et le flou des informations données lors de la demande de consentement.

Ce document ne reflète pas la décision définitive de la CNIL et l’entreprise peut encore plaider sa cause devant l’autorité avant que celle-ci prenne sa décision. À l’Informé, l’entreprise explique avoir un « échange actif avec la CNIL afin de garantir notre conformité et de répondre de manière rigoureuse à ses attentes. Le rapport s’inscrit dans le cadre de ce dialogue en cours ». L’entreprise explique avoir transmis sa réponse.

Rappelons que ce n’est pas le seul sujet sur lequel Shein a des problèmes. L’UE a ouvert en février une enquête, car elle la soupçonne de non-respect des règles de protection des consommateurs.

L’Europe prévoyait de faire des modifications structurelles des règles douanières de l’Union.

Des plateformes d’e-commerce chinoises difficiles à gérer suite à la guerre commerciale lancée par Donald Trump

Mais suite au déclenchement de la guerre commerciale lancée par Donald Trump, elle pourrait aussi prendre des mesures d’urgence. En effet, l’Europe pourrait devenir un marché plus important pour Shein, suite aux droits de douane infligés par les États-Unis aux imports chinois. Shein et Temu ont écoulé 46 milliards de dollars de produits aux États-Unis en 2024, selon la banque Nomura, explique Le Parisien.

Du côté français, selon l’entreprise d’étude de marché Circana citée par les Echos, les internautes ont dépensé 3 milliards d’euros chez Shein et 1,8 milliard chez Temu lors des douze derniers mois.

Les plateformes ne viseraient pas la submersion de l’Europe par des produits envoyés jusqu’ici aux États-Unis. Elles chercheraient cependant à profiter du besoin en débouchés des industriels chinois, qui pourraient se retrouver avec de larges stocks d’invendus, au risque de devoir baisser leurs prix. « Les plateformes pourraient tirer profit de cette situation, non pas pour baisser leurs prix qui sont déjà bas, mais pour reconstituer leurs marges et investir dans le marketing et le lobbying pour consolider leur place en Europe face aux menaces réglementaires et douanières », affirme le consultant commerce et consommation Frédéric Boublil à nos confrères.

La Commission européenne s’inquiète de voir une augmentation soudaine de ces achats sur les plateformes chinoises. Mais elle est tiraillée entre le choix de réagir directement sur le sujet ou de prendre le sujet des imports chinois dans sa globalité, selon les Echos.

IA : mais que se passe-t-il chez Apple ?

11 avril 2025 à 14:35
Bruit intérieur
IA : mais que se passe-t-il chez Apple ?

Apple a lancé récemment en Europe toute sa panoplie de services dopés à l’IA. Le bouquet, nommé Apple Intelligence (pour jouer avec l’appellation « AI »), a cependant du mal à déclencher réellement l’enthousiasme. La situation de Siri est pire : une promesse non tenue. En interne, malgré les remaniements, il n’y aurait pas de panique.

L’intelligence artificielle a eu chez Apple un départ tardif. Alors que le monde s’enflammait déjà pour l’IA générative, aucune annonce ne provenait de Cupertino. La firme est pourtant scrutée de près, notamment pour les nouveaux usages : sa manière de faire est soigneusement étudiée, tout auréolée par sa réputation de réfléchir posément avant tout lancement de produit ou intégration d’une technologie.

Vitesse et précipitation

Pourtant, tout ce qui touche à l’IA semble avoir été fait dans la précipitation chez Apple. Le constat est manifeste : une présentation très soignée en juin 2024 durant la présentation d’iOS 18 et macOS 15, mais rien à l’arrivée des versions finales pour les deux systèmes. Il a fallu attendre les révisions « .1 » pour les premières fonctions, et uniquement aux États-Unis. Les versions .2 et .3 ont enrichi progressivement la dotation, jusqu’à ce qu’iOS 18.4 et macOS 15.4 cochent toutes les cases. Elles ont donné le top départ en Europe également, où les utilisateurs ont reçu la totalité des fonctions annoncées.

Toutes ? Non, car une fonction a résisté : Siri. La démonstration faite en juin dernier, puis alimentée par une publicité dans les mois suivants, avait donné de grands espoirs. Après tout, si l’IA montre constamment son potentiel sur des actions précises et rébarbatives, on cherche encore l’assistant pratique au quotidien, capable de réagir sur tout ce qui se passe au sein du système. C’est pourtant ce qu’annonçait Apple pour son nouveau « Siri conversationnel ».

L’iPhone 16e lancé récemment

Autre signe de précipitation : la compatibilité très limitée d’Apple Intelligence à son annonce. Côté téléphone, seul l’iPhone 15 Pro pouvait le prendre en charge, depuis été rejoint par la gamme 16 (y compris le 16e lancé récemment). Pour les iPad et les Mac, et en simplifiant un peu, il faut une puce M. Pourquoi ces configurations ? En dehors de la puissance minimale des puces, surtout pour des questions de mémoire vive : Apple Intelligence réclame au moins 8 Go. La firme payait sa pingrerie des dernières années, en promouvant activement des services que peu de personnes pouvaient utiliser.

Perte de crédibilité

Le temps qu’Apple présente ses fonctions et les rende réellement disponibles, le monde avait déjà changé. Tous les outils présents ont déjà un air dépassé, surtout quand on compare les performances des modèles récents – notamment Gemini 2.5 Pro pour le texte, GPT-4o pour les images – à ce qu’Apple propose. Pour l’instant, la seule ouverture proposée est vers ChatGPT, mais on s’attend à ce que d’autres soient annoncées à la WWDC en juin.

Le vrai problème d’Apple, c’est Siri. La firme a présenté ce qui ressemblait à l’assistant « intelligent » que tout le monde (ou presque) pourrait rêver d’avoir. Mais cette annonce ne reposait sur rien. Au point qu’aux États-Unis, un recours collectif a été déposé devant un tribunal californien pour publicité mensongère. Surréaction ? Pas selon les plaignants, qui déclarent s’être basés sur les annonces et la publicité d’Apple pour renouveler leur matériel et être sûrs d’avoir la fonction quand elle serait disponible. Mais elle ne l’est pas.

Le mois de mars aura été calamiteux pour Apple. Au début du mois, les premières rumeurs insistantes sont apparues sur un calendrier largement revu et un nouveau Siri très en retard. Mark Gurman (Bloomberg), souvent très bien renseigné sur les activités de la pomme, indiquait alors qu’il faudrait attendre au minimum iOS 19 à l’automne 2026, voire iOS 20 en 2027. Environ deux semaines plus tard, il remettait le couvert, critiquant cette fois ouvertement l’entreprise pour n’avoir pas su mener sa barque. Selon lui, soit l’entreprise croyait y arriver et avait gravement sous-estimé l’ampleur des travaux, soit elle savait qu’elle n’y arriverait pas et avait menti. « Vaporware » : le mot est lâché.

Très en retard ou seulement en retard ?

Selon un article du New York Times publié ce matin, Apple prévoirait bien un lancement du nouveau Siri pour cet automne. Il arriverait donc dans le sillage d’iOS 19, pour lequel les rumeurs évoquent un vaste renouvellement de l’interface, basé sur les travaux de visionOS. Par « automne », on peut entendre la version finale d’iOS 19 ou l’une des premières mises à jour intermédiaires (iOS 19.1, 19.2…).

Le New York Times dit avoir discuté avec trois personnes « ayant connaissance de ces projets ». Selon elles, certains dirigeants « ne pensent pas que ce retard soit un problème parce qu’aucun des rivaux d’Apple, comme Google et Meta, n’a encore compris ce qu’est l’IA ». Apple estimerait en interne qu’il reste du temps pour « bien faire les choses ».

À condition d’en avoir les moyens. L’article relève ainsi plusieurs problèmes importants. D’une part, le manque de GPU modernes et performants. Apple aurait entrainé ses modèles IA sur du matériel âgé de plus de cinq ans et en quantité limitée (50 000).

Des luttes intestines auraient miné le développement

Tim Cook, CEO de l’entreprise, aurait approuvé le doublement du budget de l’équipe concernée, mais le feu vert aurait été stoppé par Luca Maestri, directeur financier de l’entreprise. Instruction aurait alors été donnée de travailler sur l’efficacité. Le manque de GPU aurait toutefois poussé l’équipe à négocier de la puissance de calcul auprès de Google et Amazon, Apple éprouvant également des difficultés à se procurer des GPU NVIDIA, dont la demande a explosé.

D’autre part, les querelles internes auraient durement impacté le cycle de développement des produits. Le New York Times évoque en particulier une guerre entre Robby Walker, qui supervisait Siri, et Sébastien Marineau-Mes, un cadre supérieur de l’équipe logicielle, pour obtenir la gestion de certains projets.

Enfin, Apple aurait tout simplement les mêmes problèmes que n’importe quelle autre grande entreprise, dont la fuite des talents. Le management ferait face à des équipes composées d’anciens cadres et de jeunes recrues. Pour ne rien arranger, les sources du new York Times ont évoqué un Tim Cook hésitant à « donner des directives claires et directes sur le développement des produits ». Le New York Times n’est d’ailleurs pas le seul à relater les déboires d’Apple. Hier, The Information revenait lui aussi sur la manière dont Apple avait « raté la transformation de l’IA de Siri ».

☕️ Google licencie plusieurs centaines de personnes dans sa division Platforms & Devices

11 avril 2025 à 14:07

Après le plan de départs volontaires révélé fin janvier, Google prend des mesures plus contraignantes pour réduire les effectifs au sein de sa division Platforms & Devices. The Information révèle en effet que plusieurs centaines de licenciements ont été réalisés, sans donner plus de détails quant à la nature des postes ou des équipes concernés.

« Depuis que nous avons combiné les équipes des plateformes et des appareils l’année dernière, nous nous sommes attachés à devenir plus agiles et à fonctionner plus efficacement, ce qui a impliqué de procéder à quelques suppressions d’emplois en plus du programme de départ volontaire que nous avons proposé en janvier », a reconnu un porte-parole de Google, cité par The Information.

Créée en avril 2024, Platforms & Devices rassemble au sein d’une seule et même division l’ensemble des équipes chargées des produits liés à Android (y compris ses variantes pour Auto, TV, Wear et XR), Chrome, ChromeOS, Google Photos, Google One, Pixel, Fitbit et Nest. Un an plus tard, le rapprochement se traduit donc par un effort de rationalisation.

Håkan Dahlström (CC 2.0)

Les opérateurs européens appellent à une meilleure protection des câbles sous-marins

11 avril 2025 à 13:26
Bien, mais peut mieux faire
Les opérateurs européens appellent à une meilleure protection des câbles sous-marins

La réponse collective est-elle à la hauteur des risques soulevés par les récents sabotages de câbles sous-marins en mer Baltique ? Les principaux opérateurs européens appellent la Commission européenne, le Royaume Uni et l’OTAN à mettre en place une gouvernance, une surveillance et des protections adaptées à ces infrastructures critiques.

Un seul câble vous manque et tout est dépeuplé. Quelques mois après les ruptures de câbles qui ont défrayé la chronique en mer Baltique et en mer du Nord, les opérateurs montent au créneau. Jeudi, ils ont interpellé l’Europe, l’OTAN et le Royaume-Uni, dans une lettre ouverte qui appelle à considérer plus sérieusement les enjeux associés aux câbles sous-marins, mais aussi à les associer plus étroitement aux politiques à venir.

Une coopération étendue

« Nous exhortons les décideurs de l’UE/EEE, du Royaume-Uni et de l’OTAN à collaborer étroitement avec les acteurs du secteur (…). Des approches harmonisées doivent être élaborées pour l’écosystème des câbles sous-marins, visant à aligner les objectifs de sécurité sur la faisabilité opérationnelle et sur un modèle économique viable », appellent les signataires. Au nombre de neuf, ils sont opérateurs télécoms (Orange, Vodafone, Telefonica, Proximus Global, Telenor), opérateurs de câbles sous-marins (Alcatel Submarine Networks, Sparkle) ou équipementiers (NKT).

Pour garantir plus efficacement la sécurité des câbles, il conviendrait selon eux de favoriser l’échange d’informations et de renseignements, mais aussi de mettre en place des initiatives croisées en matière de surveillance et de contrôle des infrastructures, en impliquant « toutes les parties prenantes concernées pour rechercher des solutions collectives et durables ».

Ils demandent enfin que cette logique de coopération soit soutenue par des fonds. « Il est essentiel d’investir dans des technologies de pointe pour détecter et diminuer les dommages causés aux câbles sous-marins. Ces efforts devraient être soutenus par des instruments de financement tels que le MIE ou le Fonds européen de la défense ».

Un plan européen déjà sur les rails

Le Mécanisme pour l’interconnexion en Europe (MIE), également appelé Connecting Europe Facility (CEF) est pour mémoire le dispositif par l’intermédiaire duquel la Commission européenne soutient l’investissement dans les projets d’infrastructure, qu’il s’agisse de transport, d’énergie ou de numérique.

Or l’exécutif européen a déjà prévu de mobiliser le MIE au profit des câbles sous-marins. Le sujet a même donné lieu à la création d’un plan dédié, le « EU Action Plan on Cable Security », présenté officiellement le 21 février dernier, et d’ores et déjà doté de crédits prévisionnels.

La Commission européenne envisage ainsi de consacrer 540 millions d’euros entre 2025 et 2027 à des projets d’infrastructures numériques, « en donnant la priorité aux projets de câbles stratégiques d’intérêt européen ».

Entre autres mesures associées, elle affiche par ailleurs la volonté de renforcer les exigences de sécurité et les analyses de risques, privilégier le déploiement de câbles dits intelligents (dotés par exemple de capteurs permettant d’identifier plus rapidement l’emplacement d’une coupure) et améliorer les capacités de réponse après incident. Elle affiche enfin la volonté, plus politique cette fois, de mettre en œuvre des sanctions et des mesures diplomatiques « à l’encontre des acteurs hostiles et de la « flotte fantôme » », en coordination avec les États membres, et en « conjuguant » ses efforts à ceux de l’OTAN.

Une réponse nécessaire… mais pas suffisante ?

Bien, mais peut mieux faire, commentent en substance les opérateurs. « Les instruments des autorités britanniques et de l’OTAN pourraient renforcer la dynamique s’ils étaient coordonnés efficacement », font-ils par exemple valoir, avant de souligner que les enjeux exigent une politique d’investissement nettement plus soutenue.

« Il est donc primordial de confirmer et d’augmenter le budget alloué au numérique, y compris le MIE, dans le futur cadre financier pluriannuel, déclarent les signataires. Parallèlement, le développement de voies supplémentaires, terrestres et sous-marines, renforcera la redondance et réduira la vulnérabilité aux points de défaillance uniques. Ces aspects de résilience devraient être renforcés dans les objectifs du MIE. »

En novembre dernier, deux câbles, reliant respectivement la Lituanie à la Suède et la Finlande à l’Allemagne, avaient subi des avaries. Le ministre de la Défense allemand avait qualifié l’acte de « sabotage ». Le 25 décembre 2024, le câble électrique EstLink 2 et quatre câbles de télécommunications reliant la Finlande et l’Estonie avaient aussi été endommagés. Fin janvier, une nouvelle coupure est intervenue en mer Baltique dans les eaux territoriales suédoises.

Les États-Unis traquent les propos des étudiants étrangers pour révoquer leurs visas

11 avril 2025 à 12:40
Les États-Unis traquent les propos des étudiants étrangers pour révoquer leurs visas

Marco Rubio a évoqué l’idée le mois dernier. Mais un système d’analyse des réseaux sociaux est déjà en place et traque les propos de 1,5 million d’étudiants étrangers à la recherche de raison de révoquer leurs visas. Le système a été développé sous l’administration de Joe Biden.

Une équipe spéciale du Département de la Sécurité intérieure des États-Unis (DHS) utilise un des outils pour analyser les messages postés par les étudiants étrangers, explique NBC.

Le mois dernier, le secrétaire d’État des États-Unis, Marco Rubio, affirmait vouloir mettre en place un système appelé « Catch and Revoke » pour traquer les étudiants étrangers qui porteraient des propos étiquetés comme « pro-hamas » en vue de révoquer leurs visas.

Selon des sources de NBC, un outil d’analyse de données est déjà en place au sein du DHS pour « passer au crible l’historique des médias sociaux des quelque 1,5 million d’étudiants étrangers qui étudient aux États-Unis afin de trouver des motifs potentiels de révocation de leur visa ». Une recherche est aussi effectuée par cette agence pour vérifier si ces étudiants ont fait l’objet d’une inculpation ou d’une condamnation pénale, affirment ces mêmes sources.

L’utilisation d’un outil développé sous Joe Biden

Mais cet outil aurait été développé alors que Joe Biden était encore au pouvoir, explique NBC, selon une responsable du DHS de l’époque. « Nous ne visions pas les activités ou les discours politiques. Nous ne les examinions que s’ils incitaient à la violence », a-t-il justifié auprès du média américain.

Le régime de Donald Trump a indiqué mercredi scruter les médias sociaux des étrangers qui demandent le statut de résident permanent légal, les étudiants étrangers et les étrangers affiliés à des établissements d’enseignement. Il recherche tout propos considéré comme antisémite en vue de refuser leurs demandes d’immigration.

« En surveillant les détenteurs de visas et de cartes vertes et en les ciblant sur la seule base de leur expression protégée, l’administration passe d’un engagement de l’Amérique en faveur d’un discours libre et ouvert à la peur et au silence. Malheureusement, cette hostilité semble être l’objectif de l’administration », a déclaré la Foundation for Individual Rights and Expression, association de défense de la liberté d’expression sur les campus américains.

La mise en place d’un nouveau maccarthysme dénoncée

Axios fait remarquer que, lors de la campagne présidentielle américaine l’année dernière, les créateurs du Projet 2025, qui soutenaient Donald Trump, avaient aussi prévu un projet de ce type. Nommé « Project Esther », il prévoyait « d’utiliser les remarques anti-israéliennes comme motif d’expulsion des détenteurs de visas d’étudiant et de cartes vertes », explique le média américain. Il donnait des arguments juridiques pour le mettre en place.

Axios souligne que l’antisémitisme des conservateurs n’est pas visé. Le média rappelle qu’Elon Musk, qui avait une carte verte avant de devenir citoyen américain en 2022, a fait plusieurs saluts nazis lors de l’investiture de Donald Trump, soutient le parti d’extrême droite allemand AfD et, en 2023, a répondu « vous avez dit la vérité » à un message antisémite sur son réseau social. Ces deux messages sont toujours en ligne sur X.

« L’esprit de Joseph McCarthy [voir Maccarthysme] est bien vivant dans l’administration Trump, qui a passé des mois à qualifier malhonnêtement d’antisémites les critiques légitimes des crimes de guerre du gouvernement israélien à Gaza, à mener des chasses aux sorcières dans les collèges américains et à menacer les droits à la liberté d’expression des immigrés », a déclaré Edward Ahmed Mitchell, directeur national adjoint du Conseil des relations américano-islamiques, dans un communiqué obtenu par NBC.

Microsoft retente sa chance avec sa fonction Recall, cette fois pour de bon

11 avril 2025 à 12:16
L'enfer en est pavé
Microsoft retente sa chance avec sa fonction Recall, cette fois pour de bon

L’histoire de Recall est parsemée d’embuches. Après l’avoir présentée en juin 2024, Microsoft a dû revoir rapidement sa copie, tant la levée de boucliers et les critiques ont été massives. Au terme de nombreux mois de travaux, l’éditeur semble cependant prêt à retenter le coup. La fonction est en cours de déploiement dans les préversions de Windows 11.

Rarement une fonction de Microsoft n’aura autant généré de peurs et de critiques. Recall partait pourtant d’une bonne intention : permettre de retrouver n’importe quel document, page web, application, etc. en le décrivant. Un moteur de recherche universel pour toutes les activités sur le PC.

Cette fonction, prévue uniquement pour les PC Copilot+, s’appuyait sur des petits modèles pour analyser les images. Car Recall est basée sur des captures prises à intervalles réguliers, analysées par des IA pour en extraire les informations et les stocker dans sa réserve. De fait, la fonction est gourmande, son catalogue pouvant occuper plusieurs dizaines de Go sur le disque. On peut toutefois modifier l’espace alloué par défaut.

Déluge de critiques : une fonction mal pensée

Rapidement, il est apparu que la manière dont Microsoft s’y était prise était plus que problématique. La société semblait s’être précipitée, au point d’en oublier les inévitables questions de sécurité qui allaient poindre. On parlait pourtant d’une fonction capable d’analyser tout ce qui se passait à l’écran, y compris des informations très personnelles et sensibles.

Les critiques étaient à la fois sécuritaires et philosophiques. Le plus gros problème était l’absence presque complète de protection pour les données stockées dans le catalogue. Facilement accessibles, elles pouvaient révéler toute la vie numérique de la personne. Elles étaient également accessibles depuis les autres comptes présents sur le même ordinateur, pratiquement en clair.

Dans les semaines ayant suivi la disponibilité de la première préversion, les découvertes se sont succédé. Surtout, une critique est devenue particulièrement assourdissante : l’outil, pensé pour rendre service, pouvait être facilement détourné comme instrument de pistage et d’espionnage.

Microsoft, rapidement cernée par l’incendie, a commencé par effectuer de petits changements. Mais l’entreprise a réalisé en quelques semaines qu’il lui fallait tout reprendre depuis zéro, car la confiance était sérieusement érodée. Or, il s’agissait de l’une des fonctions phares prévues pour l’intelligence artificielle sur les PC Copilot+. La crise risquait de faire tache d’huile et d’affecter les ventes de ces machines, qui venaient tout juste d’être dévoilées.

La société a donc retiré la préversion de sa fonction et est repartie à sa planche à dessin.

Où en est-on ?

La nouvelle préversion en cours de déploiement tient compte des nombreux travaux réalisés depuis l’année dernière. La mouture n’a semble-t-il plus grand-chose à voir avec la première. La finalité n’a pas changé, mais son architecture est très différente. Notamment parce que de nombreux contrôles ont été mis en place, dont le chiffrement systématique des données (chaque capture a sa propre clé de chiffrement), le lien avec le compte utilisé et l’inaccessibilité depuis les autres comptes.

Toutes ces barrières, si elles sont bienvenues, auraient dû figurer dès le cahier des charges, tant la fonction était amenée à manipuler des données sensibles, dont les mots de passe et les informations bancaires.

Microsoft a également revu sa copie sur bon nombre d’autres aspects. Recall, tel qu’il est envisagé désormais, réclamera l’autorisation explicite de l’utilisateur pour être activé durant la première configuration de l’ordinateur. En outre, il peut être désactivé n’importe quand et même être désinstallé. L’authentification via Windows Hello est devenue obligatoire pour accéder aux données de Recall.

Tous les traitements ayant lieu sur les captures sont en outre réalisés dans une machine virtuelle, au sein d’une enclave sécurisée dont le chiffrement est assuré par la puce TPM (dans tous les cas présente sur les PC Copilot+). Toutes les fonctions liées à la sécurité doivent d’ailleurs être activées : BitLocker, Device Encryption, sécurité et intégrité du code basées sur l’hyperviseur, Measured Boot et System Guard Secure Launch (si l’intégrité de la chaine de démarrage n’est pas complète, les clés de sécurité sont bloquées) et protection DMA du noyau. La désactivation d’une de ces options rendra Recall inaccessible.

Enfin, Microsoft a rendu le réglage de sa fonction plus souple. Par défaut, toute fenêtre de navigation privée détectée bloque la prise de captures d’écran. On peut ajouter sa liste d’applications et pages web à ne pas surveiller, régler la durée de conservation des données, ou encore vider l’historique d’une application. Recall est en outre censé mieux détecter les informations très sensibles comme les mots de passe, identifiants nationaux et autres numéros de cartes bancaires pour les flouter sur les captures. Microsoft parle cependant de « réduction » des risques et des informations pourraient quand même se retrouver dans la base de données. Celle-ci est d’ailleurs locale et aucune transmission n’a lieu avec les serveurs, affirme Microsoft, qui insiste sur l’aspect local des traitements.

Microsoft retente sa chance

On savait depuis quelques mois que la fonction était sur le chemin du retour. La copie ayant été largement revue, elle avait été distribuée en novembre à certains testeurs sur les PC Copilot+ alimentés par les puces Snapdragon X. Le test avait été étendu en décembre aux configurations AMD et Intel compatibles.

Le déploiement, qui a commencé jeudi soir, concerne cette fois l’intégralité des personnes utilisant le canal Release Preview de Windows 11. Ce canal permet un dernier test d’une mise à jour avant son déploiement effectif sur les versions stables. Théoriquement, toute personne inscrite à ce canal et disposant d’une configuration compatible (Copilot+ Snapdragon, AMD ou Intel) devrait avoir Recall après avoir installé la mise à jour du système (via Windows Update).

Depuis la fin de l’année dernière, on ne sait pas exactement ce que Microsoft a fait sur sa fonction. On imagine qu’il s’agissait surtout de finition, mais l’entreprise estime dans tous les cas qu’elle est enfin prête pour le grand spectacle. Et cette fois, pas question de la présenter comme préversion sur un système en bêta : elle va être déployée dans les semaines qui viennent sur l’ensemble des Windows 11 concernés.

L’un des avis les plus argumentés sur Recall est sans doute celui du journaliste Tom Warren de The Verge. En décembre, après avoir passé plusieurs semaines à l’utiliser, il s’est dit à la fois « effrayé et impressionné » par la fonction. Il indique avoir pris peur initialement, car toutes les pages web visitées, tous les messages échangés sur Slack étaient présents dans les captures. Il indique pourtant que la configuration est simple et que l’on peut aisément exclure des applications et supprimer leur historique. Il a fini par être impressionné par les capacités de recherche et l’aspect instantané des résultats, à partir d’informations parfois très fragmentaires ou vaguement contextuelles.

Le déploiement devrait concerner également l’Europe, donc la France, où la fonction s’appellera manifestement « Retrouver ».

☕️ Linux Mint va prendre en charge les expressions régulières pour la recherche de fichiers

11 avril 2025 à 08:29

Après une version 22.1 en janvier, l’équipe de développement de Linux Mint prépare la suite, dont une version 7 pour LMDE, Linux Mint Debian Edition. Celle-ci supportera pleinement les installations de type OEM, permettant en fait une pré-installation du système. Au premier lancement, l’utilisateur est alors invité à configurer la machine, avec création de compte et ainsi de suite.

Linux Mint va également prendre en charge les expressions régulières pour la recherche de fichiers dans Nemo. Comme on peut le voir dans ce commit sur le dépôt GitHub du projet, l’équipe prévoit d’ajouter un interrupteur pour les utiliser dans le champ de recherche.

Les expressions régulières peuvent être comparées à des formules, permettant d’afficher dans le cas présent tous les fichiers dont les noms correspondent à des critères. La fiche Wikipédia permet de comprendre le fonctionnement. Nemo sera également capable d’indiquer quand les expressions ne sont pas valides.

Le support de Wayland dans Cinnamon va en outre être amélioré. Clément Lefebvre, développeur principal de la distribution, « espère » que la prochaine version de Linux Mint supportera ainsi les dispositions de claviers et les méthodes d’entrées. Cette prise en charge est actuellement fonctionnelle, mais n’est pas considérée comme prête. Elle engendre notamment des incompatibilités avec certains toolkits et les langues asiatiques.

Enfin, sous le capot, Lefebvre indique que Cinnamon JavaScript (CJS), l’interpréteur JavaScript utilisé dans l’environnement, aligne désormais ses versions avec celles du moteur SpiderMonkey de Mozilla, qu’il utilise. Le changement devrait permettre des mises à jour plus fréquentes, une intégration plus rapide des améliorations dans le moteur JavaScript et le support des versions multiples sans devoir attendre les nouvelles moutures de la distribution.

La prochaine mouture, justement, sera la 22.2. Elle devrait être disponible cet été, probablement en juillet. Comme nous l’indiquions il y a un mois, on y trouvera un menu principal redessiné, avec des noms affichés intégralement dans la zone latérale, la présence du nom d’utilisateur et de l’avatar, ou encore la présence des dossiers courants.

☕️ Un plan de départs volontaires de 2 800 salariés chez STMicroelectronics

11 avril 2025 à 08:07

L’entreprise de semi-conducteurs européenne a annoncé ce jeudi 10 avril un « plan de transformation » prévoyant 2 800 départs volontaires sur trois ans à l’échelle mondiale, explique le journal Les Echos.

L’entreprise prévoit de recentrer ses investissements sur des plaques de silicium de plus grande taille (300 mm) afin d’améliorer l’efficacité des chaînes de production, notamment à Crolles (Isère) et Agrate (Lombardie), note le quotidien économique.

Le PDG Jean-Marc Chéry se justifie dans un communiqué : « en nous concentrant sur des infrastructures de fabrication de pointe et sur les technologies mainstream, nous continuerons à tirer parti de tous nos sites existants, avec des missions redéfinies pour certains d’entre eux afin de soutenir leurs succès à long terme ».

Interrogé par le journal, le représentant syndical CFDT Yan Meroth alerte : « Avec l’attrition naturelle, on arrive à un chiffre de 5.000 à 10.000 départs en trois ans. De tels niveaux posent la question de la continuité de l’activité dans les prochaines années ».

L’entreprise détaille son plan : « au cours des trois prochaines années, la réorganisation de l’empreinte industrielle de ST permettra de concevoir et de renforcer les écosystèmes complémentaires de ST : en France autour des technologies numériques, en Italie autour des technologies analogiques et de puissance et à Singapour autour des technologies matures ».

La direction affirme notamment que « l’usine de Crolles (France) de 300 mm sera consolidée en tant que cœur de l’écosystème des produits numériques de ST ». Celle de 200 mm du même site doit être convertie « pour prendre en charge la fabrication de gros volumes et les technologies d’advance packaging, en hébergeant des activités qui n’existent pas aujourd’hui en Europe ».

La consommation des data centers devrait doubler d’ici 2030

11 avril 2025 à 07:47
nrj
La consommation des data centers devrait doubler d’ici 2030

L’Agence internationale de l’énergie (IEA) prévoit que la consommation d’électricité des data centers dans le monde double d’ici 2030. L’organisation rappelle pour autant que les data centers représentaient environ 1,5 % de la consommation mondiale d’électricité en 2024. De son côté, le co-fondateur de Google, Eric Schmidt évoque une demande d’énergie de cette industrie qui va passer de 3 % à 99 % de la production totale.

Dans son rapport qu’elle vient tout juste de publier, l’Agence internationale de l’énergie (IEA) rappelle que les data centers « représentaient environ 1,5 % de la consommation mondiale d’électricité en 2024, soit 415 térawattheures (TWh) ». L’utilisation de la climatisation dans le monde est un problème encore plus important, par exemple.

La consommation des data centers pour l’IA multipliée par 4

Elle prévoit que, « dans le scénario de référence, la consommation d’électricité des data centers atteindra environ 945 TWh d’ici 2030, soit plus du double par rapport au niveau de 2024 ». Comme l’explique le Guardian, l’IEA estime que « l’IA est le principal moteur de cette croissance » puisque l’énergie des seuls data centers dédiés à l’IA devrait plus que quadrupler.

Actuellement, explique l’IEA dans son rapport, « un data center orienté IA consomme autant d’électricité que 100 000 ménages, mais les plus grands qui sont en construction aujourd’hui consommeront 20 fois plus ».

« L’efficacité matérielle et logicielle des modèles d’IA s’améliore rapidement », explique l’agence. « En conditions de test », elle estime que « l’interrogation d’un modèle d’IA nécessite actuellement environ 2 wattheures pour la génération de langage, au moins le double pour les grands modèles de raisonnement comme DeepSeek-R1, et environ 25 fois plus pour la génération d’une courte vidéo ».

L’agence reconnait que « la mise en œuvre dans le monde réel peut être plus efficace » mais elle déplore le manque de transparence des industriels du secteur : « le manque de données sur la consommation d’énergie des modèles commerciaux empêche l’évaluation ».


Il reste 56% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Quel est le niveau d’exposition aux ondes à votre adresse ? L’ANFR propose un simulateur

11 avril 2025 à 06:42
Pas de carton rouge pour simulation, seulement des jaunes
Quel est le niveau d’exposition aux ondes à votre adresse ? L’ANFR propose un simulateur

Vous avez envie de connaitre le niveau d’exposition aux ondes de votre domicile, de votre lieu de travail ou de n’importe quelle adresse en France ? L’Agence nationale des fréquences propose des niveaux simulés sur Cartoradio.

L’Agence nationale des fréquences (ANFR) permet depuis des années à tout un chacun de faire mesurer par des experts le niveau d’exposition aux ondes. C’est un dispositif gratuit, que nous avons déjà longuement détaillé. Les mesures sont ensuite publiées sur le site cartoradio permettant à tout le monde de les consulter.

L‘Agence apporte une attention particulière aux points atypiques qui, sans dépasser le seuil réglementaire – entre 28 et 87 V/m suivant les fréquences et même 36 à 61 V/m pour la seule téléphonie mobile –, sont largement au-dessus des autres mesures. Pour l’ANFR, un point atypique dépasse 6 V/m. En 2023, il y en avait 92 en France, dont 70 concernaient des nouveaux lieux.

Les niveaux simulés partout en France

L’ANFR propose désormais « des cartes de niveaux simulés de l’exposition aux champs électromagnétiques », là encore via sa plateforme Cartoradio.fr, mais aussi sur son application mobile OpenBarres (AndroidiOS). « Ces cartes à vocation pédagogique permettent de visualiser l’exposition créée à l’extérieur des bâtiments par les stations de téléphonie mobile sur le territoire métropolitain ». Comme toujours en pareille situation, les calculs sont théoriques et seules les mesures sur le terrain permettent d’avoir un niveau réel.

En voici un exemple au niveau de La Rochelle :

130 milliards de points calculés par mois

L’Agence prévoit d’actualiser sa carte tous les mois afin de tenir compte de l’évolution des réseaux et des déploiements des opérateurs de téléphonie mobile. Ce sont ainsi plus de « 130 milliards de points » qui sont calculés à chaque fois.

« Ces cartes sont issues de calculs modélisant la propagation des ondes dans un environnement en trois dimensions intégrant les données des bases cartographiques de l’IGN (sol et bâtiments) ainsi que des caractéristiques des stations de téléphonie mobile situées en extérieur et autorisées par l’ANFR. Les couleurs permettent d’estimer le niveau de champ électrique calculé à 1,5 m au-dessus du sol, exprimé en Volt par mètre (V/m) », explique l’Agence.

Uniquement les antennes et les niveaux en extérieur

Dans la foire aux questions, on apprend que les mesures ne concernent que les extérieurs et qu’à ce titre « les stations implantées en intérieur (couloirs ou quais des métros, gares, centres commerciaux, parkings, centres de conférences, etc.) » ne sont pas prises en compte pour les simulations. Ces stations peuvent néanmoins figurer dans Cartoradio au niveau de la liste des sites radioélectriques.

Pas moins de 11 couleurs différentes permettent de voir l’estimation du niveau d’exposition. On débute avec du violet foncé pour les points entre 0 et 0,4 V/m (médiane nationale des mesures effectuées jusqu’en 2023). Les couleurs intermédiaires tirent vers le vert à mesure que le niveau augmente pour arriver sur du jaune à partir de 12 V/m et du orange au-dessus de 24 V/m (mais toujours en dessous de la limite légale). Les zones en jaune et en orange sont, sans surprise, généralement situées à proximité des antennes.

Les simulations != du monde réel

Les simulations ne permettent pas non plus de définir des points atypiques, puisque seule des mesures sur place permettent une telle qualification. Néanmoins, « lorsqu’un niveau élevé apparaît dans les simulations, l’ANFR réalise une mesure de terrain pour disposer de la valeur réelle d’exposition ».

Sur Cartoradio, les mesures en conditions réelles sont indiquées par des ronds violets avec un chiffre dedans (indiquant le nombre de mesures). Cliquez dessus pour accéder au(x) rapport(s) et voir le niveau global d’exposition relevé par des mesures sur site. Vous pouvez évidemment afficher les mesures d’expositions aux ondes et les simulations sur une même carte afin de comparer les résultats. C’est le cas dans notre exemple ci-dessous :

Cette simulation est l’occasion pour l’Agence de rappeler un point important : « Il existe toujours autour de chaque antenne un périmètre de quelques mètres où les niveaux d’exposition dépassent les valeurs limites ».

On parle d’un « périmètre de sécurité » qui est généralement délimité « par une chaîne qui matérialise une zone interdite ». Pour les antennes sur les pylônes, la zone de sécurité est par nature inaccessible. « Ces périmètres de sécurité, qui ne sont pas des lieux accessibles au public, ne figurent pas sur ces cartes de simulation ».

Enfin, l’Agence nationale des fréquences invite toute personne souhaitant signaler une « anomalie » au sens large (antenne qui n’apparait pas sur la carte, mal positionnée…) à se manifester via ce formulaire.

☕️ La solution de Free pour le problème de Wi-Fi avec un HDD USB 3 : passer en USB 2.0

11 avril 2025 à 06:20

Cela fait maintenant plus d’un an que des utilisateurs de Freebox Ultra font état de problèmes avec le Wi-Fi lorsqu’un disque dur externe (ou une clé) est branché sur leur Freebox. Plus précisément, c’est la bande des 2,4 GHz qui est fortement perturbée, comme l’expliquait Numerama en février 2024.

Hier, Free a mis en ligne une mise à jour 4.9.2 du boitier Server de ses Freebox Révolution, Pop, Delta et Ultra. Il suffit comme toujours de redémarrer sa box pour l’installer. Il y a quatre corrections de bugs, dont celui affectant la découverte de la Freebox dans le réseau local de Windows.

Freebox Ultra démontée
Freebox Ultra démontée

Mais il y a surtout une nouveauté pour les personnes concernées par le bug que nous venons d’évoquer : « la possibilité de désactiver l’USB3 sur certaines Freebox via Freeboxos ». Le problème serait ainsi corrigé, explique Free : « l’USB3 fonctionne à une fréquence qui se trouve dans la plage d’opération du Wi-Fi 2.4 GHz. C’est pourquoi certains appareils en USB3 peuvent perturber ou complètement empêcher l’utilisation de celui-ci ».

Le fournisseur d’accès ajoute que « les périphériques USB (comme les disques durs) continueront de fonctionner mais en USB2 ». Un petit lot de consolation, car la bande passante théorique en USB2 est de 480 Mb/s, soit 60 Mo/s, mais en pratique on est toujours largement en dessous.

À partir d’avant-hierNext.ink

IA chez Google : des annonces, des annonces, mais quelle stratégie ?

10 avril 2025 à 14:43
M. Anderson, surpris de me voir ?
IA chez Google : des annonces, des annonces, mais quelle stratégie ?

Google a ouvert hier soir sa conférence Next Cloud 25. L’entreprise avait pris le train de l’IA avec un peu de retard, mais semble aujourd’hui à nouveau sur les rails. Elle dispose désormais d’une offre complète et structurée et compte faire savoir qu’elle est prête pour « l’ère de l’inférence », avec un accent mis sur les agents.

Pour l’édition 2025 de la conférence Cloud Next, l’entreprise avait de quoi être plus sereine que l’année dernière. La situation de Google a été assez complexe jusqu’à présent, donnant l’impression que la firme courait systématiquement après Microsoft. En un an pourtant, la donne a quelque peu changé et Google peut se targuer d’avoir rejoint les hautes sphères avec les performances de son Gemini 2.5 Pro. Ce dernier est d’ailleurs disponible depuis peu pour Deep Research chez les personnes abonnées à Gemini Advanced.

La conférence est cependant là pour montrer aux entreprises et développeurs indépendants que Google est un acteur plus que crédible dans le domaine de l’IA, et plus particulièrement dans celui des agents. Ces derniers, fonctionnant comme des modules autonomes et indépendants capables de réaliser des missions, sont désormais au cœur de la stratégie du géant de la recherche, qui se rêve champion de l’IA.

Agents : la grande offensive

Une partie des annonces à la Google Cloud Next 25 était liée au matériel, avec notamment l’annonce de son nouveau TPU Ironwood. Nous avons détaillé hier soir les progrès réalisés par Google, même si la firme s’est servie de gros chiffres qui, sans précision, ne veulent pas dire grand-chose pour l’instant.

En revanche, autour des agents, les annonces sont nombreuses, particulièrement les systèmes multi-agents, qui semblent être désormais au cœur de la stratégie de Google. On commence par une série d’améliorations pour Agentspace, service lancé l’année dernière pour simplifier la création d’agents par les utilisateurs finaux. Par exemple, l’intégration avec Chrome Enterprise, permettant l’utilisation d’Agentspace depuis la barre de recherche.

Surtout, Google lance plusieurs services pour fluidifier encore un peu la création d’agents. Agent Gallery permet ainsi de parcourir et adopter les modules disponibles. La galerie fonctionne comme une place de marché, les agents pouvant être construits par Google, des sociétés partenaires ou même d’autres employés. Agent Designer est de son côté une interface no-code pour créer des agents, à partir de modèles et avec possibilité de connecter le tout aux données de l’entreprise.

On continue avec AI Agent Marketplace, qui est cette fois une vraie place de marché. Contrairement à la Gallery, les sociétés tierces pourront proposer leurs propres agents et éventuellement les facturer. Enfin, un agent Deep Research est disponible en version finale, avec les mêmes missions d’exploration des sujets et de synthèse de rapports, tandis qu’un agent Idea Generation, se destine au développement et à l’évaluation des idées.

Tout ce qui touche à Gemini et à Agentspace sera bientôt disponible sur Google Distributed Cloud.

Et du côté développeurs ?

Si Agentspace vise les utilisateurs finaux, Google avait aussi des annonces pour les développeurs, en particulier Vertex AI Agent Builder. Le nom ne représente pas tout à fait ce que fait le service. S’il s’agit bien de construire des agents, c’est aussi une plateforme d’orchestration pour les systèmes multi-agents. Google glisse au passage que la plateforme Vertex AI a vu son utilisation multipliée par 20 au cours de l’année écoulée.

Agent Builder table sur l’existant et vient se présenter comme une pièce manquante du puzzle. Il met l’accent sur les frameworks open source et peut bien sûr se connecter aux données de l’entreprise, y compris avec des sources comme BigQuery et AlloyDB. Les agents peuvent être construits sur du stockage NetApp existant, sans duplication de données et Google fournit une centaine de connecteurs pour des applications d’entreprise. Agent Builder intègre également Agent Garden, une réserve de modèles, exemples, outils et autres composants prêts à l’emploi. Sont aussi présentes des capacités de débogage, de traçage et d’optimisation.

Google a présenté dans la foulée son propre framework open source, l’Agent Development Kit (licence Apache 2.0). Il n’est pour l’instant prévu que pour Python, mais d’autres langages seront supportés plus tard. Google affirme que l’ADK permet de créer un agent en moins de 100 lignes de code, mais encore faut-il savoir de quel type d’agent on parle. L’ADK joue lui aussi la carte de l’ouverture avec la possibilité de se connecter à Google Search, des moteurs RAG, tous les outils Google Cloud, tous les outils conformes MCP (Model Context Protocol) ou encore à des outils tiers comme LangChain, CrewAI et GenAI Toolbox for Databases. Lui aussi intègre l’Agent Garden.

Un runtime dédié et un protocole pour l’interopérabilité

Si vous en avez assez des agents, ce n’est pas fini. Google a en effet un runtime dédié pour les agents en production. Nommé simplement Agent Engine, un moteur entièrement géré intégrant la galaxie Vertex AI. Il doit servir à déployer, gérer et mettre à l’échelle les agents construits avec l’ADK ou d’autres frameworks comme LangGraph et Crew AI. Il intègre également des outils pour l’évaluation des performances, la surveillance et le traçage des comportements.

Mais c’est surtout le nouveau protocole Agent2Agent (A2A) qui résume le mieux la stratégie de Google. Ce protocole ouvert (lui aussi sous licence Apache 2.0) a été développé avec une cinquantaine de partenaires, dont Atlassian, Box, Cohere, Intuit, Langchain, MongoDB, PayPal, Salesforce, SAP, ServiceNow, UKG, Workday, ou encore des cabinets de conseil comme McKinsey.

A2A permet aux agents d’exposer leurs capacités, de négocier les modalités de collaboration avant d’interagir puis d’établir une communication sécurisée après accord. Google le présente comme le complément naturel du protocole MCP, qui lui a été pensé pour la connexion des modèles aux outils et données (OpenAI le comparait récemment à un hub USB pour l’IA). On pourrait également comparer A2A à Matter. Sans surprise, Agentspace et tous les autres produits annoncés prennent en charge A2A.

Une série d’agents prêts à l’emploi

Si Google a largement orienté sa conférence sur la facilité à créer des agents, la firme avait les siens propres à mettre en avant, notamment deux dédiés à la sécurité. Alert Triage est ainsi chargé d’enquêter sur les alertes, d’analyser le contexte et de fournir une conclusion. Malware Analysis fait ce que son nom annonce : analyser le code potentiellement malveillant. Il peut lancer des scripts de désobfuscation et présente un rapport. Tous deux font partie de la plateforme Google Unified Security.

On trouve également tout une série d’agents pour les données. Google en propose ainsi pour la création de catalogues, la génération de métadonnées et de pipelines, le maintien de la qualité, pour servir de partenaire de codage dans les notebooks ou encore l’analyse conversationnelle dans Looker.

Côté développement, Gemini Code Assist dispose désormais d’agents pouvant décomposer les requêtes faites en langage naturel en solutions à étapes et fichiers multiples. Une interface de type Kanban permet d’interagir avec les agents et de surveiller leur travail. Des intégrations sont en outre possible avec Atlassian, Sentry et Sneak.

Google propose aussi des agents pour l’engagement client, notamment la Customer Engagement Suite. On y retrouve des outils pour créer des agents virtuels, donc en interface directe avec la clientèle. Les points mis en avant sont très semblables à ceux récemment abordés par Amazon Web Services pour son modèle Nova Sonic : voix plus humaines, support de la vidéo en streaming, compréhension des émotions pour adapter la conversation, etc.

Gemini 2.5 Flash entre en piste

Alors que Gemini 2.5 Pro Experimental vient d’arriver dans Deep Search avec, selon Google, des gains très significatifs sur les résultats d’analyse, l’éditeur lance la version Flash de son modèle. On reste sur un modèle de « raisonnement », mais il propose une solution plus efficace – donc moins onéreuse – au détriment de la précision.

Google met en avant un calcul « dynamique et contrôlable », avec la possibilité pour les développeurs d’ajuster le temps de traitement en fonction de la complexité des requêtes. La société affirme que le nouveau modèle est idéal pour les applications à haut volume et fonctionnant en temps réel, notamment le service client et l’analyse de documents.

On a en outre appris que les modèles Gemini seront bientôt proposés sur la solution sur site Google Distributed Cloud. La firme indique à ce sujet que les clients ayant des exigences strictes en matière de sécurité pourront profiter des derniers apports de ses modèles.

Des doutes planent toujours sur la stratégie de Google

Les annonces présentent un visage stratégique cohérent, avec de nombreux produits conçus pour fonctionner ensemble, à l’instar de ce que Microsoft sur Azure ou Amazon Web Services. Pour autant, on peut émettre les mêmes doutes.

Google a ainsi beau fournir une multitude d’outils et services pour avancer sa vision d’un monde fonctionnant avec de multiples agents, les entreprises doivent avancer avec précaution. Le déploiement, la gestion, la surveillance et surtout l’optimisation d’un tel système demandent une planification soignée. C’est un défi opérationnel majeur, dans le sens où l’on ne peut pas transiter d’une traite vers un tel écosystème sans en mesurer les risques, notamment parce que le TCO (coût total de possession) peut être difficile à évaluer.

Outre les questions classiques de bénéfice attendu et d’enfermement dans un seul écosystème, la facilitation mise en avant par Google pose aussi question. Particulièrement Agentspace, que la firme imagine entre toutes les mains. Or, si créer des agents devient très simple, les risques liés sont toujours là, surtout s’ils sont connectés aux données de l’entreprise. Il est possible de faire fuiter par mégarde des informations, surtout avec l’arrivée d’A2A. Une entreprise pourrait se retrouver avec tout un lot d’agents plus ou moins bien pensés, qui nécessiteront tous du temps de calcul, avec les frais que cela suppose.

Il est difficile pour l’instant de savoir si la vision de Google correspond à une vraie demande, tant l’éditeur semble vouloir induire une envie de changement. Encore faut-il que les avantages soient clairs et que les clients s’y retrouvent. Au-delà de l’enthousiasme affiché par Google et des travaux et coûts engendrés, la question du retour sur investissement reste centrale. Elle s’accompagne d’ailleurs d’autres interrogations sur la fiabilité de l’ensemble, la sécurité des données, voire l’impact social d’un tel chantier.

☕️ #LIDD CSS Clicker, le jeu incrémental qui n’aimait pas JavaScript

10 avril 2025 à 13:49

Avec un site mis en ligne un 1er avril, on aurait pu croire à une blague. Mais non, CSS Clicker est parfaitement fonctionnel, et se propose de vous faire perdre votre temps, oui, mais sans recourir à JavaScript !

Le principe ? CSS Clicker est ce que l’on appelle un jeu incrémental : un compteur tourne et l’on peut contribuer à accélérer sa rotation en cliquant, cliquant, cliquant. Le fait d’atteindre des paliers débloque des options qui, ici, permettent de construire pas à pas un véritable site Web.

Glisser déposer, lecteur audio, édition en direct, menus d’options… tout est écrit en HTML et CSS !

Design, navigation, livre d’or, intertitres, logos vintage, tous les éléments sont réunis pour créer un ensemble de pages relativement abouti, avec même quelques widgets venus d’un autre temps, comme un lecteur Winamp intégré (et fonctionnel).

Le concept, popularisé par des jeux tels que Cookie Clicker, ou la célèbre usine à trombone, se double ici d’un tour de force technique : comme son nom l’indique, CSS Clicker ne s’appuie que sur des feuilles de style (CSS) pour toutes ses interactions, or celles-ci sont nombreuses !

« C’est un jeu purement CSS, ce qui signifie qu’il n’exécute ni JavaScript ni code côté serveur », précise Rebane2001, qui signe le jeu. « Je voulais créer quelque chose en CSS qui ressemble à un jeu complet, voilà le résultat. De plus, je déteste quand les gens insistent sur le fait que HTML/CSS ne sont pas des langages de programmation, car c’est souvent fait pour dévaloriser certains groupes de personnes », détaille la FAQ.

Le projet est hébergé sur Github. Et le jeu est à découvrir via ce lien.

Dans la série Les lecteurs de Next ont du talent… crédit @Fdorin

L’UE a un plan pour devenir « le continent de l’IA »

10 avril 2025 à 12:45
Reste à ce qu'il se déroule sans accroc
L’UE a un plan pour devenir « le continent de l’IA »

La Commission européenne a présenté ce mercredi 9 avril son « plan d’action pour le continent de l’IA » qui a pour objectif de pousser l’Europe à devenir un leader mondial de l’intelligence artificielle. Cinq axes sont mis en avant : plus d’infrastructures sur le continent, l’accès à des données massives et de haute qualité, un encouragement à l’adoption de l’IA partout, des formations encore plus tournées vers le sujet et une simplification de la régulation.

La Commission européenne a adopté la vision des industriels du secteur : l’Europe doit combler l’écart qui s’est creusé entre les leaders de l’IA, les États-Unis et la Chine d’un côté et le Vieux continent de l’autre.

La Commissaire à la souveraineté technologique, Henna Virkkunen, a présenté son « AI Continent Action Plan », ce mercredi 9 avril. Le texte [PDF] affirme que « la course mondiale au leadership dans le domaine de l’IA est loin d’être terminée » et affiche l’espoir de faire de l’Union Européenne « un continent leader en matière d’IA ».

Pour cela, la Commission veut accélérer et intensifier ses efforts dans cinq domaines clés : les infrastructures sur le sol européen pouvant proposer une puissance de calcul massive, la gestion de données de qualité à l’échelle européenne, l’adoption de la technologie partout, la formation à l’IA et la simplification de la législation.

Des projets d’usines d’IA et de gigafactories sur tout le continent

Concernant les infrastructures, la Commission affirme vouloir renforcer sur son sol le réseau de ce qu’elle appelle des « usines d’IA » (AI factories, en anglais), qu’elle définit comme des « écosystèmes dynamiques qui favorisent l’innovation, la collaboration et le développement dans le domaine de l’IA » qui « intègrent des superordinateurs optimisés pour l’IA, de grandes ressources de données, des installations de programmation et de formation, ainsi que du capital humain pour créer des modèles et des applications d’IA de pointe ».

13 projets d’ « usines d’IA » ont été sélectionnés pour être financés. Par exemple, l’un d’eux est basé en France, l’AI2F. Celui-ci rassemble un consortium géré par le GENCI, en collaboration avec l’AMIAD, le CEA, le Cines, le CNRS, France Universités, Inria, la French Tech, Station F, et HubFranceIA. Il est censé s’appuyer sur le supercalculateur Alice Recoque qui doit mobiliser à lui seul un budget de 542 millions d’euros sur cinq ans et doit être pourvu d’au moins 15 000 GPU. Mais, annoncé en 2023 pour une ouverture fin 2025, celui-ci, n’ouvrira pas avant fin 2026, selon les informations de Capital.

Pour la Commission, ces 13 projets ont vocation à jouer un rôle central dans l’avancement des applications de l’IA dans de nombreux secteurs stratégiques :

Rappelons que la communauté scientifique n’est pas unanime sur le rôle prépondérant de l’IA dans les découvertes scientifiques futures. Certains argumentent même qu’elle pourrait faire « plus de mal que de bien ».

Au-delà de ce réseau d’ « usines d’IA », la Commission veut mettre en place ce qu’elle appelle des « gigafactories », des infrastructures à visées plurielles de l’ordre de 100 000 GPU. En février dernier, elle dévoilait déjà sa volonté de former un investissement public-privé susceptible d’atteindre 200 milliards d’euros nommé InvestAI (dont 20 milliards d’euros venant d’un nouveau fonds européen). Cinq « gigafactories » devraient en profiter, précise maintenant la Commission.

Des textes pour mettre en place un écosystème favorable

Du côté textes légaux pour favoriser l’implantation d’infrastructures, la Commission prévoit l’adoption de « la loi sur le développement du cloud et de l’IA » fin 2025 ou début 2026. Elle doit « créer les conditions adéquates pour que l’UE encourage les grands investissements dans le cloud et les capacités de périphérie ».

Une « feuille de route stratégique pour la numérisation et l’IA dans le secteur de l’énergie » doit être présentée en 2026. Elle devra « proposer des mesures visant à faciliter l’intégration durable des centres de données dans le système énergétique et à traiter d’autres questions liées à l’énergie résultant du déploiement à grande échelle des centres de données dans l’UE, telles que l’optimisation du réseau électrique, l’efficacité énergétique dans les bâtiments et l’industrie et la flexibilité du côté de la demande ».

La Commission veut aussi aider à l’amélioration des données que pourront utiliser les entreprises européennes du secteur. Elle veut « améliorer l’interopérabilité et la disponibilité des données dans tous les secteurs, afin de répondre à la pénurie de données solides et de haute qualité pour l’entraînement et la validation des modèles d’IA » et prévoit de mettre en place une stratégie de l’Union pour les données fin 2025 après avoir consulté les entreprises sur leurs besoins.

Un simple centre d’assistance pour aider à se conformer à l’AI Act

Celles-ci, via leurs différents lobbys, attendaient de ce plan la simplification de la législation mise en place au sein de l’Union européenne et notamment celle de l’AI Act. La Commission propose comme « première étape », la création d’un « centre d’assistance » (AI Act Service Desk) au sein du bureau de l’IA de l’UE, « pour aider les entreprises à se conformer à l’AI Act. Il servira de point de contact central et de plaque tournante pour les informations et les conseils relatifs » à cette loi.

Selon Contexte, les lobbys du secteur jugent que le plan alloue une maigre place à la simplification. « Le niveau d’ambition doit être plus élevé » car « l’incertitude juridique continue de peser lourdement sur les développeurs et déployeurs d’IA », affirme par exemple Boniface de Champris du lobby de la tech américaine CCIA à nos confrères.

« La course mondiale à l’IA est loin d’être terminée, Il est temps d’agir », lance de son côté Henna Virkkunen. « Le présent plan d’action décrit les domaines clés dans lesquels les efforts doivent être intensifiés pour faire de l’Europe un continent de pointe en matière d’intelligence artificielle. Nous travaillons à un avenir où l’innovation technologique fait progresser l’industrie et les services publics, apportant des avantages concrets à nos citoyens et à nos entreprises grâce à une IA digne de confiance », ajoute la Commissaire à la souveraineté technologique.

Livebox S et 7 v2 d’Orange : Wi-Fi 7, hausse des débits et… frais de mise en service

10 avril 2025 à 12:05
49 euros de frais de mise en service en « cadeau »
Livebox S et 7 v2 d’Orange : Wi-Fi 7, hausse des débits et… frais de mise en service

Orange lance deux nouvelles box : les Livebox 7 v2 et Livebox S. Elles proposent du Wi-Fi 7 (mais sur deux bandes seulement), avec une empreinte écologique revue à la baisse. Orange en profite évidemment pour revoir ses forfaits. Nous sommes par contre toujours sans nouvelle du nouveau système d’exploitation prplOS.

Après Free le mardi, c’est au tour d’Orange d’annoncer ses nouveautés ce jeudi. Chacun reste donc fidèle à ses habitudes. C’était un secret de polichinelle : Orange passe (enfin) aussi au Wi-Fi 7, avec deux box : la Livebox 7 « v2 » et une nouvelle Livebox S.

Deux box certifiées Wi-Fi 7, mais sans la bande des 6 GHz

Elles sont toutes les deux certifiées par la Wi-Fi Alliance (ici et ), contrairement aux Freebox, attaquées par Bouygues Telecom en justice. Ne reste donc que SFR à ne pas encore avoir sauté le pas du Wi-Fi 7, du moins en France, car Altice propose déjà des Box en Wi-Fi 7 ailleurs en Europe.

Point commun des deux nouvelles box d’Orange : elles ne prennent en charge que les bandes 2,4 et 5 GHz, laissant de côté celle des 6 GHz (du Wi-Fi 6E). Dommage, car celle-ci est généralement bien moins utilisée et permet donc d’éviter les encombrements sur les ondes. Ils sont surtout présents dans les zones très denses. Dans les immeubles parisiens vous captez certainement des dizaines de Wi-Fi (la bande 6 GHz est alors bien utile), tandis qu’à la campagne, vous êtes parfois seul au monde.

Livebox 7 : 10 GbE et Wi-Fi intelligent

Hormis le passage au Wi-Fi 7, la nouvelle Livebox 7 ne semble pas avoir eu droit à d’autres changements importants. On retrouve toujours un port 10 Gb/s Ethernet et quatre ports à 1 Gb/s, avec de l’USB 3.x et deux prises RJ11.

Orange met en avant un Wi-Fi intelligent sur la Livebox 7, « qui désactive automatiquement le 5 GHz quand il n’est pas indispensable pour réduire la consommation électrique jusqu’à 30 % ». Elle n’intègre pas de ventilateur, sa coque est en plastique recyclé et son écran basse consommation. Cette box permet toujours des débits symétriques de 8 Gb/s.

Livebox S : 2 Gb/s et recyclage des blocs d’alimentation

La Livebox S est une version d’entrée de gamme, avec du Wi-Fi 7 donc. Elle vient franchement jouer sur les platebandes de la Freebox Pop (également en Wi-Fi 7 depuis plus d’un an). Les débits sont de 2 Gb/s en téléchargement et 800 Mb/s en upload.

Quatre ports Ethernet à 1 Gb/s sont présents, exit donc le multi-GIG. Le 2 Gb/s doit se lire sous la forme de 2x 1 Gb/s. Orange met aussi en avant une écoconception, avec notamment une « réutilisation des blocs d’alimentation » des Livebox 5.

Écoconception améliorée, prplOS aux abonnés absents

Orange met en avant son écoconception : « Ces nombreuses initiatives permettent à Orange de réduire l’empreinte carbone des deux nouvelles Livebox sur l’ensemble de leur cycle de vie de 8% pour la nouvelle Livebox 7 par rapport à l’ancien modèle [et de] 14% pour la Livebox S par rapport à la Livebox 5 ».

Orange ne dit par contre un mot sur son nouveau système d’exploitation prpl (purple) présenté lors des OpenTech 2024 : « présent au cœur des derniers modèles de Livebox. Celui-ci favorise l’installation des services au sein du réseau local des particuliers et rend les box internet beaucoup plus évolutives, stables et sécurisées ». prplOS est présenté comme « un système d’exploitation open source léger et sécurisé pour les passerelles résidentielles (ou box internet) ».

Toujours cinq forfaits Livebox, de 1 à 8 Gb/s

Du côté des forfaits, Orange propose toujours cinq offres : la Série Spéciale Just Livebox Fibre en Livebox 5 (comme La Boîte Sosh), les Série Spéciale Livebox Fibre et Livebox Fibre en Livebox S, enfin les Livebox Up Fibre et Livebox Max Fibre avec une Livebox 7 v2.

Qui dit nouvelle Livebox, dit changement sur les forfaits. Il serait plus juste de parler d’ajustement d’ailleurs. Juste Livebox prend du galon avec 1 Gb/s en téléchargement et 700 Mb/s en upload, le plaçant au niveau de l‘offre Spéciale Fibre.

Sur le reste de la gamme aussi, il y a des hausses de débits : Livebox Fibre passe à 2 Gb/s et 800 Mb/s, Livebox Up à 8 Gb/s symétrique tandis que Livebox Max reste à 8 Gb/s symétrique, soit le maximum proposé par l’opérateur.

Voici un résumé des anciennes offres (à gauche) et des nouvelles (à droite) :

Statu-quo sur les tarifs… hors promotions et hors « frais »

Au niveau des tarifs par contre, c’est plus compliqué. Les prix hors promotions restent exactement les mêmes. Orange affirme d’ailleurs qu’avec sa « Nouvelle Livebox 7, les offres triple play Livebox Up Fibre et Livebox Max Fibre s’enrichissent, sans aucune augmentation du prix mensuel ». Pas si vite.

Tout d’abord, une nouveauté sur les frais fixes avec l’apparition de « frais de mise en service : 49 euros », alors qu’il n’y en avait pas auparavant.

L’engagement est toujours d’un an sur toutes les offres Livebox. Ensuite, l’opérateur supprime les deux mois offerts sur l’ensemble de sa gamme.

Pour « compenser », les réductions sont plus agressives et sur 12 mois au lieu de 6 mois auparavant… exception faite de la série Spéciale Just Livebox Fibre (toujours en Livebox 5 et Wi-Fi 5). Elle garde son prix de 33,99 euros par mois avec une promotion de 19,99 euros par mois pendant un an au lieu de 28,99 euros par mois pendant six mois.

Voici un résumé des tarifs et des principales options :

5 nouvelles chaines, Paramount+ prend la place de HBO Max

Orange annonce enfin que « le Décodeur TV 6, lancé en 2024, est désormais disponible sur l’offre Livebox Up Fibre en plus de l’offre Livebox Max Fibre ». Enfin, toujours sur la partie multimédia, Orange offre cinq nouvelles chaînes à tous ses clients : RTL9, MCM, E !, RFM, M6 Music.

Paramount+ prend la place de HBO Max dans la liste des plateformes de streaming avec 5 euros de remise par mois avec l’offre Livebox Max (c’est aussi le cas de Disney + et Netflix).

#Nextpresso Un adaptateur à 12 euros pour recharger en USB Type-C son ordinateur portable

10 avril 2025 à 08:12
PDC
#Nextpresso Un adaptateur à 12 euros pour recharger en USB Type-C son ordinateur portable

Vous avez un ordinateur avec un chargeur « propriétaire », mais vous souhaitez le recharger avec votre batterie externe USB Type-C ? C’est possible avec un accessoire qui ne coute qu’une douzaine d’euros : un adaptateur « PD vers DC ».

Le 26 avril 2026, les ordinateurs portables neufs devront passer à l’USB Type-C pour se mettre en conformité avec le décret n° 2023 - 1271 du 27 décembre 2023 relatif au chargeur universel, qui est la transposition dans le droit français de la directive européenne du 23 novembre 2022.

C’est déjà le cas pour les smartphones, tablettes, appareils photo numériques, écouteurs, consoles de jeux portables, enceintes portables, claviers, souris, casque de réalité virtuelle ou encore liseuses depuis le 28 décembre 2024. Apple, par exemple, a retiré les iPhone SE et iPhone 14 de ses boutiques. Les produits reconditionnés ne sont pas concernés.

Un adaptateur et 10 embouts pour 12 euros

En attendant, et pour tous les modèles actuellement en circulation, c’est un peu la foire à la saucisse sur les chargeurs. Chacun y va de son embout, de son adaptateur. Certains sont déjà passés à l’USB Type-C, mais c’est loin d’être la règle. Il existe pourtant un petit adaptateur, vendu 12 euros sur Amazon. Nous avons acheté ce modèle, mais il en existe bien d’autres.


Il reste 82% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Avec Copilot Autofix, GitHub part à la chasse de vos secrets

10 avril 2025 à 06:30
Un ptit (Auto)fix ?
Avec Copilot Autofix, GitHub part à la chasse de vos secrets

GitHub a annoncé plusieurs améliorations et changements importants. Parmi les ajouts, un renforcement de la fonction Copilot Autofix, au centre de campagnes de sécurité désormais poussées par l’entreprise. Sur Windows, Copilot reçoit également deux fonctions attendues.

Ces derniers jours, GitHub a annoncé plusieurs évolutions significatives, et certaines nécessiteront de payer. On commence avec la sécurité, pour laquelle l’entreprise avait préparé le terrain. Il y a une semaine, elle communiquait ainsi sur les 39 millions de secrets que son service Secret Scanning avait trouvés jusqu’à présent. L’outil sert à analyser le code pour y trouver des clés d’API, mots de passe, jetons et autres informations ne devant pas se retrouver devant les yeux des utilisateurs.

Sécurité en services détachés

GitHub indiquait alors qu’en dépit des améliorations continuelles sur la sécurité, le désir de productivité et de confort prendraient le dessus. Par commodité, des secrets peuvent ainsi fuiter pendant les commits. L’autre source de fuite selon GitHub réside dans l’historique git, qui peut révéler accidentellement des informations sensibles dans le dépôt.

En conséquence, GitHub a annoncé hier soir plusieurs changements. Le plus important est la disponibilité des services Secret Protection et Code Security en produits autonomes. Selon l’entreprise, leur disponibilité limitée aux abonnements les plus onéreux était un frein pour nombre d’entreprises. En outre, une fonction d’évaluation gratuite des risques est proposée pour tous les dépôts GitHub, basée sur l’organisation et les éventuels secrets révélés. Cette recherche de secrets a également été intégrée dans Copilot pour les données non structurées (comme les mots de passe) et renforcée dans l’analyse des pushs.

GitHub pousse vers des campagnes de sécurité

La société, filiale de Microsoft, pousse depuis vers une hausse de la sécurité du code et des dépôts associés. Hier soir, elle a même appelé à des campagnes de sécurité, destinées à tous les clients disposant d’une offre Advanced Security ou Code Security. Elles avaient été lancées en préversion l’année dernière. Objectif : réduire la dette de sécurité.

Les campagnes doivent permettre aux équipes produits et sécurité de mieux communiquer. La direction est donnée par l’équipe de sécurité, qui définit les risques à traiter en priorité. Ce référentiel sert de cadre à la campagne et peut être accompagné d’un modèle prédéfini, comme le Top 10 des types de failles par MITRE. GitHub remonte également des statistiques, sur lesquelles l’équipe peut s’appuyer.

Après quoi, la campagne est lancée avec un calendrier. Les développeurs concernés reçoivent une notification, selon le contexte (place dans l’équipe, section du projet, etc.). Les tâches dévolues peuvent se traiter comme « n’importe quel autre travail de fonctionnalité ». À ceci près que l’assistant Copilot Autofix fait partie intégrante du processus. Il commence alors à suggérer des corrections pour l’ensemble des alertes de la campagne, accompagnées d’un « texte personnalisé ». Chaque campagne a au moins un ou une responsable pour faciliter les échanges avec l’équipe produit.

Par rapport à la préversion lancée l’année dernière, les campagnes ont plusieurs nouvelles fonctions. L’équipe de sécurité peut notamment itérer sur la portée des campagnes et les enregistrer sous forme de campagnes provisoires, avant leur lancement effectif. Les responsables peuvent aussi créer automatiquement des enjeux dans les dépôts à partir des alertes présentes dans la campagne. Surtout, ils ont maintenant accès à des statistiques agrégées reflétant la progression générale de toutes les campagnes, en cours ou passées.

Copilot : des agents partout

GitHub a annoncé il y a quelques jours plusieurs améliorations aussi pour son Copilot, tout particulièrement sur les agents, notamment la disponibilité en version stable du Mode Agent, qui avait été présenté en février.

On note aussi le lancement d’une préversion pour Model Context Protocol (MCP), conçu pour compléter le Mode Agent avec du contexte et des capacités, à la manière d’un hub où viennent se brancher des aides externes, explique GitHub. L’entreprise fournit une liste de serveurs MCP, permettant au Mode Agent de gagner en fonctions comme la recherche à travers des dépôts multiples, dans l’idée de le transformer en aide de camp.

Un nouveau forfait Pro+ avec des requêtes premium

GitHub Copilot dispose en outre désormais des modèles Claude 3.5, 3.7 Sonnet et 3.7 Sonnet Thinking d’Anthropic, Gemini 2.0 Flash de Google et o3-mini d’OpenAI pour les développeurs disposant d’un abonnement payant.

Pour compenser l’arrivée des nouveaux modèles et outils, l’entreprise impose quelques limites. Toutes les tâches et actions faisant appel aux derniers modèles ajoutés, comme Claude 3.7 Sonnet, sont soumises à un plafond de « requêtes premium ». Le nombre de requêtes disponibles dépend de la formule d’abonnement : 300 pour Pro et Business, 1 000 pour Enterprise. Ces réserves seront appliquées respectivement les 5, 12 et 19 mai.

GitHub précise que ces limites ne s’appliquent qu’aux nouveaux modèles. Pour les personnes se servant de l’actuel GPT-4o, rien ne change. En outre, un nouveau forfait Pro+ est proposé avec 1 500 requêtes premium pour 39 dollars par mois. Il sera nécessaire pour accéder aux « meilleures modèles, comme GPT-4.5 ». Enfin, il est possible d’acheter des requêtes premium supplémentaires à raison de 0,04 dollar l’unité quand la réserve est épuisée.

Copilot devient plus intéressant sur Windows

Si Microsoft a décliné son Copilot pour presque tous les usages, l’assistant n’a jusqu’à présent pas marqué les esprits sur Windows, où ses capacités pourraient pourtant faire quelques étincelles.

Plusieurs améliorations sont désormais disponibles sur l’ensemble des canaux de préversion pour Windows, via une mise à jour de l’application par le Microsoft Store. Toutefois, ces fonctions ne sont accessibles qu’aux États-Unis pour l’instant.

La première est une recherche détaillée pour les fichiers. Le type de recherche que l’on attend sans doute d’un système moderne aujourd’hui. Les requêtes peuvent se faire en langage naturel, par exemple « Peux-tu retrouver mon CV ? » ou « Ouvre le document de planification de voyage sur lequel je travaillais la semaine dernière ». La plupart des types de fichiers sont pris en charge, dont les .docx, .xlsx, .pptx, .txt, .pdf et .json.

L’autre fonction, Copilot Vision, permet en théorie à l’assistant de venir donner un coup de main dans n’importe quelle application tierce. Depuis Copilot, on commence par cliquer sur l’icône représentant une paire de lunettes, puis on sélectionne la fenêtre d’application ou du navigateur sur laquelle on veut pouvoir agir. Après quoi, on rédige sa demande dans Copilot, l’assistant effectuant l’opération sur la base des renseignements présents dans l’application surveillée.

Trump a-t-il commis le plus grand délit d’initié de tous les temps ?

10 avril 2025 à 06:07
Buy the dip
Trump a-t-il commis le plus grand délit d’initié de tous les temps ?

Sans crier gare, Donald Trump a annoncé mercredi la suspension des droits de douane dits réciproques qu’il venait de mettre en œuvre contre des dizaines de pays, entraînant l’envol immédiat de tous les indices boursiers américains. Problème : le président des États-Unis avait incité, quatre heures plus tôt, ses abonnés à acheter des actions…

+ 12 % pour le Nasdaq, l’indice de référence de la bourse américaine.+ 15 % pour Apple.+ 18 % pour NVIDIA.+ 22,7 % pour Tesla, etc. Après plusieurs jours d’une extrême volatilité sur les marchés, Donald Trump peut se targuer d’avoir relancé la machine : mercredi soir, le président des États-Unis a en effet annoncé la suspension immédiate, pour 90 jours, des droits de douane dits réciproques, qu’il avait plus ou moins arbitrairement décrétés une semaine plus tôt.

C’est, une fois de plus, via les réseaux sociaux que Donald Trump a formulé son annonce. Dans un long message publié sur son propre réseau, Truth, il partage sa satisfaction d’avoir été contacté par des dizaines de pays engagés dans une recherche de négociation avec les États-Unis. Il signale le maintien d’une taxe plancher de 10 % pour tous les pays du monde, et enfonce le clou avec la Chine, annonçant que les droits de douane exceptionnels allaient désormais monter à 125 %.

Sur les marchés financiers américains, le soulagement est immédiat. Bien sûr, il ne s’agit que d’une suspension, bien sûr le conflit commercial avec la Chine risque de s’intensifier, mais la double menace d’une économie américaine paralysée et d’une récession imminente s’éloigne un peu. Immédiatement, les investisseurs retrouvent le chemin du bouton achat, soit par regain de confiance, soit par volonté de jouer le rebond, c’est-à-dire de profiter d’un mouvement de hausse soudain pour enregistrer une plus-value rapide.

Difficile de savoir si l’effet de consolidation sera durable… mais en attendant, ceux qui se sont positionnés au bon moment ont pu engranger des fortunes, et d’aucuns estiment que Donald Trump pourrait les y avoir aidés.

« C’est un bon moment pour acheter !!! »

L’annonce de Donald Trump a pris le monde par surprise. Howard Lutnick, secrétaire au commerce, affirme sur X qu’il était aux côtés du président quand ce dernier a rédigé son message, soulignant implicitement le caractère spontané de la décision. D’autres s’inquiètent toutefois de messages publiés quelques heures plus tôt par Donald Trump.

« THIS IS A GREAT TIME TO BUY!!! DJT », s’est exclamé ce dernier, mercredi à 15h37 (heure de Paris, soit 9h37 sur la côte Est, sept minutes après l’ouverture des marchés boursiers de Wall Street), quatre heures avant l’annonce de sa volte-face sur les droits de douane.

À première vue, le message ne détonne pas particulièrement au milieu du flux parfois décousu des publications de Donald Trump sur son réseau social. Il se démarque toutefois par l’usage de ces trois points d’exclamation, ou par la signature DJT, qui correspond au symbole boursier de la holding du président, Trump Media & Technology Group. Il a largement suffi pour que beaucoup d’internautes réagissent, sur les réseaux sociaux, en criant au délit d’initié.

« Constitue un délit d’initié le fait, en toute connaissance de cause et pour une personne disposant d’une information privilégiée, d’en faire un usage en réalisant, pour elle-même ou pour autrui, soit directement, soit indirectement, une ou plusieurs opérations ou en annulant ou en modifiant un ou plusieurs ordres passés sur l’émetteur ou l’instrument financier concerné par cette information privilégiée », rappelle Dalloz.

Très vite, des observateurs décèlent des mouvements suspects sur des produits financiers complexes (des options d’achat), qui permettent de parier sur la hausse (ou la baisse) d’un cours en bourse, en ajoutant un effet de levier significatif à la transaction. D’autres remarquent que la très MAGA Marjorie Taylor Greene, représentante de la Géorgie au Congrès américain, a procé (PDF) à de nombreux achats en bourse le 4 avril dernier.

Pas de quoi, à ce stade, étayer une accusation de délit d’initié ou, pour être plus précis, de manipulation de marché, mais la question risque de se poser en des termes plus officiels.

Plusieurs représentants des deux chambres du Parlement états-unien ont en effet d’ores et déjà appelé à l’ouverture d’une enquête. C’est le cas par exemple du sénateur démocrate de Californie Adam Schiff. « Qui, au sein de l’administration, était au courant du dernier revirement de Trump sur les droits de douane ? Quelqu’un a-t-il acheté ou vendu des actions, et en a-t-il tiré profit aux dépens du public ? J’écris à la Maison-Blanche : le public a le droit de savoir », s’inquiète-t-il sur Bluesky.

Pendant ce temps, à Vera Cruz

Un autre politique s’en est ému mercredi, dans une séquence qui fera date. Jamieson Greer, représentant pour le commerce extérieur de la Maison-Blanche depuis le 26 février dernier, passait en effet une audition devant le House Ways and Means Committee, la commission en charge des affaires fiscales de la Chambre des représentants, précisément au moment où Donald Trump annonçait la suspension des droits de douane.

Et le sénateur démocrate Steven Horsford, qui préside ladite commission, n’a pas ménagé ses remarques quand l’information est tombée : « On dirait que votre patron vient de vous couper l’herbe sous le pied et de suspendre les droits de douane, les impôts sur le peuple américain. Il n’y a aucune stratégie. Vous venez de l’apprendre il y a trois secondes, assis ici, on vous a vu… », a-t-il déclaré, avant d’à son tour faire part de ses soupçons.

« Si c’était un plan, si cela a toujours été le plan, comment pourrait-on dire qu’il ne s’agit pas de manipulation de marché ? » a demandé Horsford. « Ce n’est pas une manipulation de marché, Monsieur », a répondu Greer. « Ce n’est pas une stratégie », a ajouté Horsford. « Nous essayons de repenser le système commercial mondial », s’est finalement défendu le (soi-disant ?) chargé du commerce extérieur.

Ce nouveau rebondissement boursier intervient deux jours après la diffusion d’une fake news, qui avait provoqué une envolée soudaine des marchés boursiers. Elle concernait déjà l’hypothèse d’une suspension des taxes pour 90 jours.

Il rappelle aussi d’autres suspicions de malversations, liées notamment à l’univers des cryptomonnaies. L’annonce selon laquelle la Maison-Blanche allait lancer la création d’une réserve stratégique de bitcoins, début mars, avait ainsi permis à une « baleine » (un gros investisseur) de réaliser un coup particulièrement lucratif.

❌
❌