Vue lecture

Data Centres Will Use Twice as Much Energy By 2030

The electricity consumption of data centres is projected to more than double by 2030, according to a report from the International Energy Agency published today. The primary culprit? AI. Nature: The report covers the current energy footprint for data centres and forecasts their future needs, which could help governments, companies, and local communities to plan infrastructure and AI deployment. IEA's models project that data centres will use 945 terawatt-hours (TWh) in 2030, roughly equivalent to the current annual electricity consumption of Japan. By comparison, data centres consumed 415 TWh in 2024, roughly 1.5% of the world's total electricity consumption. The projections largely focus on data centres, which also run computing tasks other than AI. Although the agency estimated the proportion of servers in data centres devoted to AI. They found that servers for AI accounted for 24% of server electricity demand and 15% of total data centre energy demand in 2024.

Read more of this story at Slashdot.

Fedora 42 Will Be Released Next Tuesday

Well here is a pleasant surprise, especially for those that recall the days long ago where Fedora Linux releases tend to be notoriously delayed... Fedora 42 is cleared for releasing next week Tuesday, 15 April, in meeting its "early target" release date...

Mesa 25.1 Merges Support For Intel EU Stall Sampling As New Xe2 Profiling Feature

Merged to the Intel Xe kernel graphics driver for the current Linux 6.15 kernel cycle is EU Stall Sampling support as a new feature found with Xe2 Lunar Lake and Battlemage graphics. EU Stall Sampling is used for exposing information/reasons why execution units are stalled for helping to debug performance issues. Now that the kernel support is ready to go with Linux 6.15, merged to the Mesa 25.1 development code is the user-space support for this performance debugging feature...

OpenAI Expands ChatGPT Memory To Draw on Full Conversation History

OpenAI has expanded ChatGPT's memory functionality to include references from all past conversations. The system now builds upon existing saved memories by automatically incorporating previous interactions to deliver more contextually relevant responses for writing, learning, and advisory tasks, the startup said Thursday. Subscribers can disable the feature through settings or request memory modifications directly in chat. Those already opted out of memory features won't have past-chat references enabled by default. Temporary chats remain available for interactions that users prefer to keep isolated from memory systems. The update is rolling out immediately to Plus and Pro subscribers, excluding users in the EEA, UK, Switzerland, and other European markets.

Read more of this story at Slashdot.

The Talos Principle : on prend le premier et on le refait (encore).

Ah, The Talos Principle… Ce jeu qui nous a prouvé, encore et encore, que nous ne sommes peut-être pas aussi intelligents qu'on le pensait. Chaque énigme a été une véritable claque, un doux rappel que notre cerveau a ses limites. Plus difficile que Portal ? Disons que Portal nous laissait au moins croire que nous étions malins avant de nous écraser. The Talos Principle, lui, nous a directement mis à genoux. […]

Lire la suite

Meta Says Llama 4 Targets Left-Leaning Bias

Meta says in its Llama 4 release announcement that it's specifically addressing "left-leaning" political bias in its AI model, distinguishing this effort from traditional bias concerns around race, gender, and nationality that researchers have long documented. "Our goal is to remove bias from our AI models and to make sure that Llama can understand and articulate both sides of a contentious issue," the company said. "All leading LLMs have had issues with bias -- specifically, they historically have leaned left," Meta stated, framing AI bias primarily as a political problem. The company claims Llama 4 is "dramatically more balanced" in handling sensitive topics and touts its lack of "strong political lean" compared to competitors.

Read more of this story at Slashdot.

☕️ Windows 11 : vers un menu Démarrer enfin pratique ?

Dans notre dossier sur l’histoire de Windows 11, nous rappelions l’une des principales critiques adressées au système : sa rigidité. C’est particulièrement vrai avec le menu Démarrer et la barre des tâches. Or, Microsoft expérimente un nouveau menu, qui devrait répondre à une partie des critiques, même si on approche des quatre ans d’existence pour le système (oui, déjà).

Le nouveau menu a été repéré par phantomofearth, qui a publié sur Bluesky une vidéo de démonstration. On y voit un menu Démarrer plus grand et organisé différemment, la seconde moitié étant occupée par des dossiers d’applications.

Surtout, ce nouveau menu semble nettement plus personnalisable, avec une volonté de tout afficher dans un seul espace. Toutes les recommandations peuvent enfin être désactivées, aussi bien les documents fréquemment utilisés que les applications nouvellement installées ou semblant pertinentes sur l’instant.

Par défaut, ce nouveau menu n’affiche que deux lignes d’éléments épinglés, même si elles sont plus grandes, avec un bouton pour afficher le reste. Dans les options, on peut toutefois choisir de toujours afficher la liste complète.

Dans les options, on trouve aussi quelques nouveautés pour la barre des tâches. On ne peut toujours pas la placer sur les autres bords de l’écran, mais un réglage permet de forcer l’affichage de toutes les applications en bas à droite. Actuellement, au-delà d’un certain nombre, elles sont rassemblées dans un tiroir qu’il faut systématiquement ouvrir.

Pour les personnes testant actuellement la dernière préversion du canal Beta ou Dev, on peut activer ce nouveau menu en se servant de VivoTool, dont nous avions parlé. La référence de la fonction est 49402389, mais il faut que 4922133 et 47205210 soient également activées, si ce n’est pas déjà fait. Selon l’auteur, 48433719 peut être nécessaire si l’ensemble ne fonctionne pas.

China To Restrict US Film Releases

Hours after Donald Trump imposed record 125% tariffs on Chinese products entering the US, China has announced it will further curb the number of US films allowed to screen in the country. From a report: "The wrong action of the US government to abuse tariffs on China will inevitably further reduce the domestic audience's favourability towards American films," the China Film Administration said in a statement on Thursday. "We will follow the market rules, respect the audience's choice, and moderately reduce the number of American films imported." The move mirrors the potential countermeasure suggested by two influential Chinese bloggers earlier in the week, warning that "China has plenty of tools for retaliation." Both Liu Hong, a senior editor at Xinhuanet, the website of the state-run Xinhua news agency, as well as Ren Yi, the grandson of former Guangdong party chief Ren Zhongyi, posted an identical proposal involving a heavy reduction on the import of US movies and further investigation of the intellectual property benefits of American companies operating in China. China is the world's second largest film market after the US.

Read more of this story at Slashdot.

Meta's New Tech Wants You Using Phones in Theaters

Meta is partnering with Blumhouse to launch "Movie Mate" technology that encourages moviegoers to use their phones during theatrical screenings, beginning with an April 30 showing of "Megan" at Blumhouse's "Halfway to Halloween Film Festival." According to Variety, the system enables viewers to chat with a Megan-themed AI chatbot, answer trivia questions, and access behind-the-scenes information while watching the film in theaters.

Read more of this story at Slashdot.

Bon Plan : River City Girls offert par Epic Games

Le très bon jeu River City Girls est offert par le store d'Epic Games, vous avez jusqu'au 17 avril, 17 heures, pour l'ajouter à votre bibliothèque, ici.Les héroïnes dures à cuire Misako et Kyoko se battent dans les rues gangrenées de River City pour secourir leurs chéris ! Jouez en solo ou avec un ami dans ce beat'em up en coopération saupoudré d'éléments RPG ! […]

Lire la suite

Petite fin de semaine pour le service GeForce NOW de NVIDIA

GeForce NOW monte en puissance avec un nouveau titre Xbox disponible dès sa sortie. Cette semaine, c'est South of Midnight qui prend le devant de la scène, suivi de 7 nouveaux jeux qui rejoignent la bibliothèque de jeux en cloud. Mais ce n'est pas tout, les mises à jour de cette semaine sont riches en contenu pour les chouchous du public. Fortnite, Honkai Star Rail et Marvel Rivals lancent de nouvelles saisons, avec de nouveaux défis, des batailles épiques et de nombreuses raisons de replonger dans l'action. Soyez les premiers à vous lancer sans avoir à surveiller votre PC pour les mises à jour grâce à GeForce NOW. Dans South of Midnight de Compulsion Games, incarnez Hazel Flood, une jeune femme évoluant dans une version mystique du Sud des États-Unis. Avec son riche folklore, ses combats magiques et son récit profondément personnel, le jeu promet un voyage inoubliable dans un monde où mythe et réalité se rencontrent. Les membres GeForce NOW ont eu un avant-goût de cette aventure gothique sudiste avant sa sortie officielle grâce à un accès anticipé, explorant sa beauté étrange et son récit captivant sans attendre les téléchargements ou les mises à jour. […]

Lire la suite

IA : chez Google, les agents parlent aux agents

M. Anderson, surpris de me voir ?
IA : chez Google, les agents parlent aux agents

Google a ouvert hier soir sa conférence Next Cloud 25. L’entreprise avait pris le train de l’IA avec un peu de retard, mais semble aujourd’hui à nouveau sur les rails. Elle dispose désormais d’une offre complète et structurée et compte faire savoir qu’elle est prête pour « l’ère de l’inférence », avec un accent mis sur les agents.

Pour l’édition 2025 de la conférence Cloud Next, l’entreprise avait de quoi être plus sereine que l’année dernière. La situation de Google a été assez complexe jusqu’à présent, donnant l’impression que la firme courait systématiquement après Microsoft. En un an pourtant, la donne a quelque peu changé et Google peut se targuer d’avoir rejoint les hautes sphères avec les performances de son Gemini 2.5 Pro. Ce dernier est d’ailleurs disponible depuis peu pour Deep Research chez les personnes abonnées à Gemini Advanced.

La conférence est cependant là pour montrer aux entreprises et développeurs indépendants que Google est un acteur plus que crédible dans le domaine de l’IA, et plus particulièrement dans celui des agents. Ces derniers, fonctionnant comme des modules autonomes et indépendants capables de réaliser des missions, sont désormais au cœur de la stratégie du géant de la recherche, qui se rêve champion de l’IA.

Agents : la grande offensive

Une partie des annonces à la Google Cloud Next 25 était liée au matériel, avec notamment l’annonce de son nouveau TPU Ironwood. Nous avons détaillé hier soir les progrès réalisés par Google, même si la firme s’est servie de gros chiffres qui, sans précision, ne valent pas dire grand-chose pour l’instant.

En revanche, autour des agents, les annonces sont nombreuses, particulièrement les systèmes multi-agents, qui semblent être désormais au cœur de la stratégie de Google. On commence par une série d’améliorations pour Agentspace, service lancé l’année dernière pour simplifier la création d’agents par les utilisateurs finaux. Par exemple, l’intégration avec Chrome Enterprise, permettant l’utilisation d’Agentspace depuis la barre de recherche.

Surtout, Google lance plusieurs services pour fluidifier encore un peu la création d’agents. Agent Gallery permet ainsi de parcourir et adopter les modules disponibles. La galerie fonctionne comme une place de marché, les agents pouvant être construits par Google, des sociétés partenaires ou même d’autres employés. Agent Designer est de son côté une interface no-code pour créer des agents, à partir de modèles et avec possibilité de connecter le tout aux données de l’entreprise.

On continue avec AI Agent Marketplace, qui est cette fois une vraie place de marché. Contrairement à la Gallery, les sociétés tierces pourront proposer leurs propres agents et éventuellement les facturer. Enfin, un agent Deep Research est disponible en version finale, avec les mêmes missions d’exploration des sujets et de synthèse de rapports, tandis qu’un agent Idea Generation, se destine au développement et à l’évaluation des idées.

Tout ce qui touche à Gemini et à Agentspace sera bientôt disponible sur Google Distributed Cloud.

Et du côté développeurs ?

Si Agentspace vise les utilisateurs finaux, Google avait aussi des annonces pour les développeurs, en particulier Vertex AI Agent Builder. Le nom ne représente pas tout à fait ce que fait le service. S’il s’agit bien de construire des agents, c’est aussi une plateforme d’orchestration pour les systèmes multi-agents. Google glisse au passage que la plateforme Vertex AI a vu son utilisation multipliée par 20 au cours de l’année écoulée.

Agent Builder table sur l’existant et vient se présenter comme une pièce manquante du puzzle. Il met l’accent sur les frameworks open source et peut bien sûr se connecter aux données de l’entreprise, y compris avec des sources comme BigQuery et AlloyDB. Les agents peuvent être construits sur du stockage NetApp existant, sans duplication de données et Google fournit une centaine de connecteurs pour des applications d’entreprise. Agent Builder intègre également Agent Garden, une réserve de modèles, exemples, outils et autres composants prêts à l’emploi. Sont aussi présentes des capacités de débogage, de traçage et d’optimisation.

Google a présenté dans la foulée son propre framework open source, l’Agent Development Kit (licence Apache 2.0). Il n’est pour l’instant prévu que pour Python, mais d’autres langages seront supportés plus tard. Google affirme que l’ADK permet de créer un agent en moins de 100 lignes de code, mais encore faut-il savoir de quel type d’agent on parle. L’ADK joue lui aussi la carte de l’ouverture avec la possibilité de se connecter à Google Search, des moteurs RAG, tous les outils Google Cloud, tous les outils conformes MCP (Model Context Protocol) ou encore à des outils tiers comme LangChain, CrewAI et GenAI Toolbox for Databases. Lui aussi intègre l’Agent Garden.

Un runtime dédié et un protocole pour l’interopérabilité

Si vous en avez assez des agents, ce n’est pas fini. Google a en effet un runtime dédié pour les agents en production. Nommé simplement Agent Engine, un moteur entièrement géré intégrant la galaxie Vertex AI. Il doit servir à déployer, gérer et mettre à l’échelle les agents construits avec l’ADK ou d’autres frameworks comme LangGraph et Crew AI. Il intègre également des outils pour l’évaluation des performances, la surveillance et le traçage des comportements.

Mais c’est surtout le nouveau protocole Agent2Agent (A2A) qui résume le mieux la stratégie de Google. Ce protocole ouvert (lui aussi sous licence Apache 2.0) a été développé avec une cinquantaine de partenaires, dont Atlassian, Box, Cohere, Intuit, Langchain, MongoDB, PayPal, Salesforce, SAP, ServiceNow, UKG, Workday, ou encore des cabinets de conseil comme McKinsey.

A2A permet aux agents d’exposer leurs capacités, de négocier les modalités de collaboration avant d’interagir puis d’établir une communication sécurisée après accord. Google le présente comme le complément naturel du protocole MCP, qui lui a été pensé pour la connexion des modèles aux outils et données (OpenAI le comparait récemment à un hub USB pour l’IA). On pourrait également comparer A2A à Matter. Sans surprise, Agentspace et tous les autres produits annoncés prennent en charge A2A.

Une série d’agents prêts à l’emploi

Si Google a largement orienté sa conférence sur la facilité à créer des agents, la firme avait les siens propres à mettre en avant, notamment deux dédiés à la sécurité. Alert Triage est ainsi chargé d’enquêter sur les alertes, d’analyser le contexte et de fournir une conclusion. Malware Analysis fait ce que son nom annonce : analyser le code potentiellement malveillant. Il peut lancer des scripts de désobfuscation et présente un rapport. Tous deux font partie de la plateforme Google Unified Security.

On trouve également tout une série d’agents pour les données. Google en propose ainsi pour la création de catalogues, la génération de métadonnées et de pipelines, le maintien de la qualité, pour servir de partenaire de codage dans les notebooks ou encore l’analyse conversationnelle dans Looker.

Côté développement, Gemini Code Assist dispose désormais d’agents pouvant décomposer les requêtes faites en langage naturel en solutions à étapes et fichiers multiples. Une interface de type Kanban permet d’interagir avec les agents et de surveiller leur travail. Des intégrations sont en outre possible avec Atlassian, Sentry et Sneak.

Google propose aussi des agents pour l’engagement client, notamment la Customer Engagement Suite. On y retrouve des outils pour créer des agents virtuels, donc en interface directe avec la clientèle. Les points mis en avant sont très semblables à ceux récemment abordés par Amazon Web Services pour son modèle Nova Sonic : voix plus humaines, support de la vidéo en streaming, compréhension des émotions pour adapter la conversation, etc.

Gemini 2.5 Flash entre en piste

Alors que Gemini 2.5 Pro Experimental vient d’arriver dans Deep Search avec, selon Google, des gains très significatifs sur les résultats d’analyse, l’éditeur lance la version Flash de son modèle. On reste sur un modèle de « raisonnement », mais il propose une solution plus efficace – donc moins onéreuse – au détriment de la précision.

Google met en avant un calcul « dynamique et contrôlable », avec la possibilité pour les développeurs d’ajuster le temps de traitement en fonction de la complexité des requêtes. La société affirme que le nouveau modèle est idéal pour les applications à haut volume et fonctionnant en temps réel, notamment le service client et l’analyse de documents.

On a en outre appris que les modèles Gemini seront bientôt proposés sur la solution sur site Google Distributed Cloud. La firme indique à ce sujet que les clients ayant des exigences strictes en matière de sécurité pourront profiter des derniers apports de ses modèles.

Des doutes planent toujours sur la stratégie de Google

Les annonces présentent un visage stratégique cohérent, avec de nombreux produits conçus pour fonctionner ensemble, à l’instar de ce que Microsoft sur Azure ou Amazon Web Services. Pour autant, on peut émettre les mêmes doutes.

Google a ainsi beau fournir une multitude d’outils et services pour avancer sa vision d’un monde fonctionnant avec de multiples agents, les entreprises doivent avancer avec précaution. Le déploiement, la gestion, la surveillance et surtout l’optimisation d’un tel système demandent une planification soignée. C’est un défi opérationnel majeur, dans le sens où l’on ne peut pas transiter d’une traite vers un tel écosystème sans en mesurer les risques, notamment parce que le TCO (coût total de possession) peut être difficile à évaluer.

Outre les questions classiques de bénéfice attendu et d’enfermement dans un seul écosystème, la facilitation mise en avant par Google pose aussi question. Particulièrement Agentspace, que la firme imagine entre toutes les mains. Or, si créer des agents devient très simple, les risques liés sont toujours là, surtout s’ils sont connectés aux données de l’entreprise. Il est possible de faire fuiter par mégarde des informations, surtout avec l’arrivée d’A2A. Une entreprise pourrait se retrouver avec tout un lot d’agents plus ou moins bien pensés, qui nécessiteront tous du temps de calcul, avec les frais que cela suppose.

Il est difficile pour l’instant de savoir si la vision de Google correspond à une vraie demande, tant l’éditeur semble vouloir induire une envie de changement. Encore faut-il que les avantages soient clairs et que les clients s’y retrouvent. Au-delà de l’enthousiasme affiché par Google et des travaux et coûts engendrés, la question du retour sur investissement reste centrale. Elle s’accompagne d’ailleurs d’autres interrogations sur la fiabilité de l’ensemble, la sécurité des données, voire l’impact social d’un tel chantier.

IA : chez Google, les agents parlent aux agents

M. Anderson, surpris de me voir ?
IA : chez Google, les agents parlent aux agents

Google a ouvert hier soir sa conférence Next Cloud 25. L’entreprise avait pris le train de l’IA avec un peu de retard, mais semble aujourd’hui à nouveau sur les rails. Elle dispose désormais d’une offre complète et structurée et compte faire savoir qu’elle est prête pour « l’ère de l’inférence », avec un accent mis sur les agents.

Pour l’édition 2025 de la conférence Cloud Next, l’entreprise avait de quoi être plus sereine que l’année dernière. La situation de Google a été assez complexe jusqu’à présent, donnant l’impression que la firme courait systématiquement après Microsoft. En un an pourtant, la donne a quelque peu changé et Google peut se targuer d’avoir rejoint les hautes sphères avec les performances de son Gemini 2.5 Pro. Ce dernier est d’ailleurs disponible depuis peu pour Deep Research chez les personnes abonnées à Gemini Advanced.

La conférence est cependant là pour montrer aux entreprises et développeurs indépendants que Google est un acteur plus que crédible dans le domaine de l’IA, et plus particulièrement dans celui des agents. Ces derniers, fonctionnant comme des modules autonomes et indépendants capables de réaliser des missions, sont désormais au cœur de la stratégie du géant de la recherche, qui se rêve champion de l’IA.

Agents : la grande offensive

Une partie des annonces à la Google Cloud Next 25 était liée au matériel, avec notamment l’annonce de son nouveau TPU Ironwood. Nous avons détaillé hier soir les progrès réalisés par Google, même si la firme s’est servie de gros chiffres qui, sans précision, ne valent pas dire grand-chose pour l’instant.

En revanche, autour des agents, les annonces sont nombreuses, particulièrement les systèmes multi-agents, qui semblent être désormais au cœur de la stratégie de Google. On commence par une série d’améliorations pour Agentspace, service lancé l’année dernière pour simplifier la création d’agents par les utilisateurs finaux. Par exemple, l’intégration avec Chrome Enterprise, permettant l’utilisation d’Agentspace depuis la barre de recherche.

Surtout, Google lance plusieurs services pour fluidifier encore un peu la création d’agents. Agent Gallery permet ainsi de parcourir et adopter les modules disponibles. La galerie fonctionne comme une place de marché, les agents pouvant être construits par Google, des sociétés partenaires ou même d’autres employés. Agent Designer est de son côté une interface no-code pour créer des agents, à partir de modèles et avec possibilité de connecter le tout aux données de l’entreprise.

On continue avec AI Agent Marketplace, qui est cette fois une vraie place de marché. Contrairement à la Gallery, les sociétés tierces pourront proposer leurs propres agents et éventuellement les facturer. Enfin, un agent Deep Research est disponible en version finale, avec les mêmes missions d’exploration des sujets et de synthèse de rapports, tandis qu’un agent Idea Generation, se destine au développement et à l’évaluation des idées.

Tout ce qui touche à Gemini et à Agentspace sera bientôt disponible sur Google Distributed Cloud.

Et du côté développeurs ?

Si Agentspace vise les utilisateurs finaux, Google avait aussi des annonces pour les développeurs, en particulier Vertex AI Agent Builder. Le nom ne représente pas tout à fait ce que fait le service. S’il s’agit bien de construire des agents, c’est aussi une plateforme d’orchestration pour les systèmes multi-agents. Google glisse au passage que la plateforme Vertex AI a vu son utilisation multipliée par 20 au cours de l’année écoulée.

Agent Builder table sur l’existant et vient se présenter comme une pièce manquante du puzzle. Il met l’accent sur les frameworks open source et peut bien sûr se connecter aux données de l’entreprise, y compris avec des sources comme BigQuery et AlloyDB. Les agents peuvent être construits sur du stockage NetApp existant, sans duplication de données et Google fournit une centaine de connecteurs pour des applications d’entreprise. Agent Builder intègre également Agent Garden, une réserve de modèles, exemples, outils et autres composants prêts à l’emploi. Sont aussi présentes des capacités de débogage, de traçage et d’optimisation.

Google a présenté dans la foulée son propre framework open source, l’Agent Development Kit (licence Apache 2.0). Il n’est pour l’instant prévu que pour Python, mais d’autres langages seront supportés plus tard. Google affirme que l’ADK permet de créer un agent en moins de 100 lignes de code, mais encore faut-il savoir de quel type d’agent on parle. L’ADK joue lui aussi la carte de l’ouverture avec la possibilité de se connecter à Google Search, des moteurs RAG, tous les outils Google Cloud, tous les outils conformes MCP (Model Context Protocol) ou encore à des outils tiers comme LangChain, CrewAI et GenAI Toolbox for Databases. Lui aussi intègre l’Agent Garden.

Un runtime dédié et un protocole pour l’interopérabilité

Si vous en avez assez des agents, ce n’est pas fini. Google a en effet un runtime dédié pour les agents en production. Nommé simplement Agent Engine, un moteur entièrement géré intégrant la galaxie Vertex AI. Il doit servir à déployer, gérer et mettre à l’échelle les agents construits avec l’ADK ou d’autres frameworks comme LangGraph et Crew AI. Il intègre également des outils pour l’évaluation des performances, la surveillance et le traçage des comportements.

Mais c’est surtout le nouveau protocole Agent2Agent (A2A) qui résume le mieux la stratégie de Google. Ce protocole ouvert (lui aussi sous licence Apache 2.0) a été développé avec une cinquantaine de partenaires, dont Atlassian, Box, Cohere, Intuit, Langchain, MongoDB, PayPal, Salesforce, SAP, ServiceNow, UKG, Workday, ou encore des cabinets de conseil comme McKinsey.

A2A permet aux agents d’exposer leurs capacités, de négocier les modalités de collaboration avant d’interagir puis d’établir une communication sécurisée après accord. Google le présente comme le complément naturel du protocole MCP, qui lui a été pensé pour la connexion des modèles aux outils et données (OpenAI le comparait récemment à un hub USB pour l’IA). On pourrait également comparer A2A à Matter. Sans surprise, Agentspace et tous les autres produits annoncés prennent en charge A2A.

Une série d’agents prêts à l’emploi

Si Google a largement orienté sa conférence sur la facilité à créer des agents, la firme avait les siens propres à mettre en avant, notamment deux dédiés à la sécurité. Alert Triage est ainsi chargé d’enquêter sur les alertes, d’analyser le contexte et de fournir une conclusion. Malware Analysis fait ce que son nom annonce : analyser le code potentiellement malveillant. Il peut lancer des scripts de désobfuscation et présente un rapport. Tous deux font partie de la plateforme Google Unified Security.

On trouve également tout une série d’agents pour les données. Google en propose ainsi pour la création de catalogues, la génération de métadonnées et de pipelines, le maintien de la qualité, pour servir de partenaire de codage dans les notebooks ou encore l’analyse conversationnelle dans Looker.

Côté développement, Gemini Code Assist dispose désormais d’agents pouvant décomposer les requêtes faites en langage naturel en solutions à étapes et fichiers multiples. Une interface de type Kanban permet d’interagir avec les agents et de surveiller leur travail. Des intégrations sont en outre possible avec Atlassian, Sentry et Sneak.

Google propose aussi des agents pour l’engagement client, notamment la Customer Engagement Suite. On y retrouve des outils pour créer des agents virtuels, donc en interface directe avec la clientèle. Les points mis en avant sont très semblables à ceux récemment abordés par Amazon Web Services pour son modèle Nova Sonic : voix plus humaines, support de la vidéo en streaming, compréhension des émotions pour adapter la conversation, etc.

Gemini 2.5 Flash entre en piste

Alors que Gemini 2.5 Pro Experimental vient d’arriver dans Deep Search avec, selon Google, des gains très significatifs sur les résultats d’analyse, l’éditeur lance la version Flash de son modèle. On reste sur un modèle de « raisonnement », mais il propose une solution plus efficace – donc moins onéreuse – au détriment de la précision.

Google met en avant un calcul « dynamique et contrôlable », avec la possibilité pour les développeurs d’ajuster le temps de traitement en fonction de la complexité des requêtes. La société affirme que le nouveau modèle est idéal pour les applications à haut volume et fonctionnant en temps réel, notamment le service client et l’analyse de documents.

On a en outre appris que les modèles Gemini seront bientôt proposés sur la solution sur site Google Distributed Cloud. La firme indique à ce sujet que les clients ayant des exigences strictes en matière de sécurité pourront profiter des derniers apports de ses modèles.

Des doutes planent toujours sur la stratégie de Google

Les annonces présentent un visage stratégique cohérent, avec de nombreux produits conçus pour fonctionner ensemble, à l’instar de ce que Microsoft sur Azure ou Amazon Web Services. Pour autant, on peut émettre les mêmes doutes.

Google a ainsi beau fournir une multitude d’outils et services pour avancer sa vision d’un monde fonctionnant avec de multiples agents, les entreprises doivent avancer avec précaution. Le déploiement, la gestion, la surveillance et surtout l’optimisation d’un tel système demandent une planification soignée. C’est un défi opérationnel majeur, dans le sens où l’on ne peut pas transiter d’une traite vers un tel écosystème sans en mesurer les risques, notamment parce que le TCO (coût total de possession) peut être difficile à évaluer.

Outre les questions classiques de bénéfice attendu et d’enfermement dans un seul écosystème, la facilitation mise en avant par Google pose aussi question. Particulièrement Agentspace, que la firme imagine entre toutes les mains. Or, si créer des agents devient très simple, les risques liés sont toujours là, surtout s’ils sont connectés aux données de l’entreprise. Il est possible de faire fuiter par mégarde des informations, surtout avec l’arrivée d’A2A. Une entreprise pourrait se retrouver avec tout un lot d’agents plus ou moins bien pensés, qui nécessiteront tous du temps de calcul, avec les frais que cela suppose.

Il est difficile pour l’instant de savoir si la vision de Google correspond à une vraie demande, tant l’éditeur semble vouloir induire une envie de changement. Encore faut-il que les avantages soient clairs et que les clients s’y retrouvent. Au-delà de l’enthousiasme affiché par Google et des travaux et coûts engendrés, la question du retour sur investissement reste centrale. Elle s’accompagne d’ailleurs d’autres interrogations sur la fiabilité de l’ensemble, la sécurité des données, voire l’impact social d’un tel chantier.

L'Europe dévoile son nouveau plan d'action pour se faire sa place dans le domaine de l'IA face aux USA et à la Chine

En février dernier, l'Europe annonçait son programme InvestAI lors du Sommet pour l'action sur l'IA à Paris, une initiative visant à mobiliser 200 milliards d'euros de fonds publics et privés pour faire de l'Europe un continent de l'IA, rien que ça ! Hier, la Commission européenne a mieux défini ses...

AMD Ryzen AI 7 PRO 360 Linux Performance With The Lenovo ThinkPad T14s Gen 6

For those that are curious about the Linux support and performance of the AMD Ryzen AI 7 PRO 360 laptop processor, I've recently been testing it out within a Lenovo ThinkPad T14s Gen 6 (AMD) laptop. Up today are benchmarks of the Ryzen AI 7 PRO 360 within the ThinkPad T14s Gen 6 up against an assortment of other recent Intel and AMD laptops all while running the near-final state of Ubuntu 25.04.
❌