Lors de la conférence BDX I/O à Bordeaux, nous sommes allés à la rencontre de développeurs pour les interroger sur leur appréciation de l’IA. Dans cette première partie, nous nous intéressons aux gains de productivité et à ce que l’utilisation de modules comme Copilot de GitHub peut impliquer dans leur quotidien.
Depuis plusieurs années, l’intelligence artificielle est omniprésente. Nous la questionnons souvent, car en dépit d’avantages plus ou moins évidents et d’une célébration presque continue de sa puissance, ses usages laissent de nombreuses questions en suspens. C’est d’autant plus vrai que la thématique du numérique responsable se fait plus prégnante, face à un entrainement des modèles d’IA générative engloutissant des quantités faramineuses d’énergie.
Aussi la BDX I/O, qui s’est tenue le 8 novembre à Bordeaux, était-elle une excellente occasion d’aller faire un état des lieux : à quel point l’IA est-elle aujourd’hui utilisée par les développeurs ? Au-delà de l’intérêt qu’ils y portent dans leur production quotidienne, son utilisation leur pose-t-elle question ?
« L’IA ? Bien sûr ! »
Dans l’amphithéâtre A du Palais des Congrès de Bordeaux, le ton est rapidement donné. Les conversations perçues çà et là sont pratiques toutes axées sur l’intelligence artificielle. Beaucoup disent s’en servir. D’autres indiquent que ce n’est pas encore le cas pour diverses raisons, parfois par manque de temps, plus rarement pour des questions de maitrise : « Pas encore, je préfère écrire mon propre code ». Mais dans presque toutes les conversations, la question de la productivité est centrale. Plusieurs personnes ont ajouté que leur société réfléchissait à la question.
Il reste 78% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Microsoft a lancé hier son dernier Flight Simulator, logiquement estampillé 2024. Après une version 2020 particulièrement riche en mises à jour, la nouvelle se distingue par son usage intensif de l’intelligence artificielle. Pour autant, le lancement s’est révélé calamiteux, avec des serveurs sous-dimensionnés pour gérer l’afflux de connexions.
Flight Simulator fait partie de ces licences un peu « légendaires » où chaque version constitue un petit évènement. Le jeu ne s’adresse pourtant pas à tout le monde. Il s’agit d’une simulation de pilotage d’avions (et autres appareils aériens) mettant largement l’accent sur le réalisme et l’authenticité. Il n’est pas simple à prendre en main et, comme dans « la vraie vie », il faut mieux savoir où l’on met les pieds.
L’édition 2020 a marqué les esprits, avec une modélisation qui a fini par pratiquement couvrir l’intégralité de la planète. Mais comme toujours dans ce genre de simulation, le niveau de détail dépendait de la zone visitée. Avec les années, le studio Asobo, qui en gère le développement, a ajouté de nombreuses (et volumineuses) mises à jour, chargées d’apporter la modélisation d’un nombre toujours plus important de villes et de lieux. En outre, Flight Simulator 2020 a instauré des modes plus simples, pour les « touristes numériques ». La question était donc posée : que pouvait-on attendre d’une nouvelle version ?
Un niveau de détail multiplié par 4 000
L’édition 2024 se veut beaucoup plus réaliste que la 2020, qui représentait déjà un saut important dans ce domaine. Ce réalisme réside aussi bien dans le rendu des décors que dans la physique appliquée à l’appareil piloté. Dans une interview accordée à BFM en septembre, le responsable Jörg Neumann évoquait 10 000 points répartis sur le fuselage de l’avion pour appliquer les mouvements de l’air.
Le nouveau jeu cherche surtout à rendre le monde virtuel plus vivant. Dans une autre interview, donnée cette fois à VentureBeat, on apprend ainsi que cette édition 2024 multiplie par 4 000 le niveau de détail de l’environnement, grâce à l’intelligence artificielle. L’équipe affirme avoir créé un « jumeau numérique complet » de la planète.
À RockPaperShotgun, Neumann expliquait hier que l’IA avait été utilisée pour créer les textures. Les données récupérées par les développeurs ont été découpées en 28 000 « tuiles », étiquetées selon ce qu’elles représentaient, dont le « biome » (forêt, désert, etc.) et le type de surface (gravier, herbe rase, brousse…).
Asobo et Microsoft ont également profité de l’importante communauté existant autour du jeu. Jörg Neumann indique ainsi que l’équipe (800 développeurs à temps plein pendant quatre ans) s’est largement appuyée sur les suggestions de la communauté.
« L’ensemble du processus est plus sain, je pense. Vous pouvez facilement répondre aux gens, car vous avez déjà un terrain d’entente. Ils vous ont fait part de leurs problèmes. Nous pouvons proposer des solutions. Ils nous donnent leur avis sur ces solutions. Lors de la mise en œuvre, nous allons jusqu’au bout de ce dont ils ont réellement besoin. Je crée des jeux depuis 30 ans. Je ne l’ai jamais fait de cette manière, et c’est mieux. Je ne reviendrai jamais en arrière », a ainsi déclaré le responsable.
L’interview revient sur plusieurs points intéressants, comme les données satellitaires constituant une mauvaise base pour la 3D, le rôle dévolu à quatre personnes à temps plein pour s’entretenir avec les gouvernements, les instituts géographiques et les sociétés de forage, ou encore le dosage entre simulation réaliste et gamification.
Mais ce qui nous intéresse aujourd’hui, c’est surtout le choix technique du studio sur le fonctionnement du jeu.
30 Go à l’installation… seulement ?
L’un des aspects frappants de Flight Simulator 2024 est son empreinte relativement faible sur le stockage : 30 Go. On est loin de jeux assez récents comme Baldur’s Gate 3 et Starfield avec leurs 120 Go, ou même… Flight Simulator 2020 et ses 130 Go dans sa version d’origine, avant le déluge de mises à jour et leurs centaines de Go. Mais ces 30 Go sont en trompe-l’œil.
Si vous volez haut, ils suffiront la plupart du temps. Mais si vous vous approchez du sol, votre ordinateur va commencer à télécharger un lot de plus en plus important de données. Avantage pour les joueurs : un nombre croissant de détails, les régions ayant été envisagées comme des biomes, avec texture du sol, la faune, la flore, etc. Si on s’approche de la savane, par exemple, les animaux vont apparaître et on pourra survoler des rhinocéros et des girafes. Il est même possible de se poser et de descendre à pied pour explorer le coin.
C’est ici que l’on revient sur le fonctionnement par IA. Le modèle créé par Asobo pour Flight Simulator 2024 n’a pas généré la totalité des textures et des détails pour l’ensemble de la planète. Quand un joueur s’approche d’un environnement, des requêtes sont envoyées aux serveurs. En réponse, les détails et textures sont envoyés au joueur. Quand une zone a été calculée, elle est partagée automatiquement aux autres personnes qui s’en approcheraient, afin que les calculs ne soient pas refaits.
L’inconvénient, on s’en doute, réside dans le flux. Même si les données ne sont pas sauvegardées sur le disque, le flux représente en moyenne 5 Go par heure. Il s’agit d’un chiffre donné par Jörg Neumann dans plusieurs interviews, mais la consommation réelle dépend de l’usage et reste à mesurer par un grand nombre de joueurs. Un fonctionnement qui risque non seulement de représenter un gros problème dans les pays où il existe un palier mensuel de données consommées, mais qui a mis les serveurs de Microsoft à mal dès le lancement.
Crash au décollage
Les premières heures du jeu ont en effet été compliquées. Lancé hier soir, de très nombreux joueurs n’ont pas pu mettre la main sur leur avion pour un premier tour. L’écran de chargement concentre les reproches, puisque dans la plupart des cas, il reste bloqué sur un certain pourcentage, sans plus progresser.
Hier soir, vers 19 h, Microsoft a reconnu le problème. « Nous avons pris connaissance de rapports d’utilisateurs faisant état de longs temps de chargement initial dans Microsoft Flight Simulator 2024. En raison du grand nombre d’utilisateurs qui initialisent la simulation simultanément, nous avons un grand nombre de demandes de serveur. Nous nous efforçons de résoudre les problèmes dès que possible. Pour les utilisateurs dont le chargement initial a dépassé 90 % et ne progresse plus, nous recommandons un redémarrage. Sinon, nous conseillons d’attendre que le chargement se déroule normalement », a indiqué l’entreprise sur X.
Sous le tweet, on peut lire de nombreuses réactions en colère. Si certains abordent ces problèmes avec humour (« ça arrive les retards sur les vols »), beaucoup soulignent que Flight Simulator 2020 avait eu de gros soucis à son lancement, quand d’autres disent leur incompréhension face à l’attente de millions de joueurs.
Le torrent de connexions est probablement dû en partie à un lancement simultané sur PC et consoles Xbox, d’autant qu’il est présent dans le Game Pass. Quand bien même, le chargement initial n’était pas la seule difficulté. « Nous avons pris connaissance de rapports faisant état d’avions manquants dans les écrans Ma bibliothèque et Sélection d’avions dans Microsoft Flight Simulator 2024. Ce problème est lié aux problèmes de serveur que nous travaillons actuellement à résoudre », a ainsi ajouté le compte officiel une heure plus tard.
Un peu après minuit, les équipes indiquaient travailler encore sur le problème et pointaient vers une page du support Xbox pour vérifier le statut du service. À l’heure actuelle, tout serait rentré dans l’ordre. Si l’on regarde les derniers commentaires sur X, on peut voir que beaucoup signalent encore divers problèmes, même si celui de l’écran de chargement semble avoir été réglé.
Microsoft a lancé hier son dernier Flight Simulator, logiquement estampillé 2024. Après une version 2020 particulièrement riche en mises à jour, la nouvelle se distingue par son usage intensif de l’intelligence artificielle. Pour autant, le lancement s’est révélé calamiteux, avec des serveurs sous-dimensionnés pour gérer l’afflux de connexions.
Flight Simulator fait partie de ces licences un peu « légendaires » où chaque version constitue un petit évènement. Le jeu ne s’adresse pourtant pas à tout le monde. Il s’agit d’une simulation de pilotage d’avions (et autres appareils aériens) mettant largement l’accent sur le réalisme et l’authenticité. Il n’est pas simple à prendre en main et, comme dans « la vraie vie », il faut mieux savoir où l’on met les pieds.
L’édition 2020 a marqué les esprits, avec une modélisation qui a fini par pratiquement couvrir l’intégralité de la planète. Mais comme toujours dans ce genre de simulation, le niveau de détail dépendait de la zone visitée. Avec les années, le studio Asobo, qui en gère le développement, a ajouté de nombreuses (et volumineuses) mises à jour, chargées d’apporter la modélisation d’un nombre toujours plus important de villes et de lieux. En outre, Flight Simulator 2020 a instauré des modes plus simples, pour les « touristes numériques ». La question était donc posée : que pouvait-on attendre d’une nouvelle version ?
Un niveau de détail multiplié par 4 000
L’édition 2024 se veut beaucoup plus réaliste que la 2020, qui représentait déjà un saut important dans ce domaine. Ce réalisme réside aussi bien dans le rendu des décors que dans la physique appliquée à l’appareil piloté. Dans une interview accordée à BFM en septembre, le responsable Jörg Neumann évoquait 10 000 points répartis sur le fuselage de l’avion pour appliquer les mouvements de l’air.
Le nouveau jeu cherche surtout à rendre le monde virtuel plus vivant. Dans une autre interview, donnée cette fois à VentureBeat, on apprend ainsi que cette édition 2024 multiplie par 4 000 le niveau de détail de l’environnement, grâce à l’intelligence artificielle. L’équipe affirme avoir créé un « jumeau numérique complet » de la planète.
À RockPaperShotgun, Neumann expliquait hier que l’IA avait été utilisée pour créer les textures. Les données récupérées par les développeurs ont été découpées en 28 000 « tuiles », étiquetées selon ce qu’elles représentaient, dont le « biome » (forêt, désert, etc.) et le type de surface (gravier, herbe rase, brousse…).
Asobo et Microsoft ont également profité de l’importante communauté existant autour du jeu. Jörg Neumann indique ainsi que l’équipe (800 développeurs à temps plein pendant quatre ans) s’est largement appuyée sur les suggestions de la communauté.
« L’ensemble du processus est plus sain, je pense. Vous pouvez facilement répondre aux gens, car vous avez déjà un terrain d’entente. Ils vous ont fait part de leurs problèmes. Nous pouvons proposer des solutions. Ils nous donnent leur avis sur ces solutions. Lors de la mise en œuvre, nous allons jusqu’au bout de ce dont ils ont réellement besoin. Je crée des jeux depuis 30 ans. Je ne l’ai jamais fait de cette manière, et c’est mieux. Je ne reviendrai jamais en arrière », a ainsi déclaré le responsable.
L’interview revient sur plusieurs points intéressants, comme les données satellitaires constituant une mauvaise base pour la 3D, le rôle dévolu à quatre personnes à temps plein pour s’entretenir avec les gouvernements, les instituts géographiques et les sociétés de forage, ou encore le dosage entre simulation réaliste et gamification.
Mais ce qui nous intéresse aujourd’hui, c’est surtout le choix technique du studio sur le fonctionnement du jeu.
30 Go à l’installation… seulement ?
L’un des aspects frappants de Flight Simulator 2024 est son empreinte relativement faible sur le stockage : 30 Go. On est loin de jeux assez récents comme Baldur’s Gate 3 et Starfield avec leurs 120 Go, ou même… Flight Simulator 2020 et ses 130 Go dans sa version d’origine, avant le déluge de mises à jour et leurs centaines de Go. Mais ces 30 Go sont en trompe-l’œil.
Si vous volez haut, ils suffiront la plupart du temps. Mais si vous vous approchez du sol, votre ordinateur va commencer à télécharger un lot de plus en plus important de données. Avantage pour les joueurs : un nombre croissant de détails, les régions ayant été envisagées comme des biomes, avec texture du sol, la faune, la flore, etc. Si on s’approche de la savane, par exemple, les animaux vont apparaître et on pourra survoler des rhinocéros et des girafes. Il est même possible de se poser et de descendre à pied pour explorer le coin.
C’est ici que l’on revient sur le fonctionnement par IA. Le modèle créé par Asobo pour Flight Simulator 2024 n’a pas généré la totalité des textures et des détails pour l’ensemble de la planète. Quand un joueur s’approche d’un environnement, des requêtes sont envoyées aux serveurs. En réponse, les détails et textures sont envoyés au joueur. Quand une zone a été calculée, elle est partagée automatiquement aux autres personnes qui s’en approcheraient, afin que les calculs ne soient pas refaits.
L’inconvénient, on s’en doute, réside dans le flux. Même si les données ne sont pas sauvegardées sur le disque, le flux représente en moyenne 5 Go par heure. Il s’agit d’un chiffre donné par Jörg Neumann dans plusieurs interviews, mais la consommation réelle dépend de l’usage et reste à mesurer par un grand nombre de joueurs. Un fonctionnement qui risque non seulement de représenter un gros problème dans les pays où il existe un palier mensuel de données consommées, mais qui a mis les serveurs de Microsoft à mal dès le lancement.
Crash au décollage
Les premières heures du jeu ont en effet été compliquées. Lancé hier soir, de très nombreux joueurs n’ont pas pu mettre la main sur leur avion pour un premier tour. L’écran de chargement concentre les reproches, puisque dans la plupart des cas, il reste bloqué sur un certain pourcentage, sans plus progresser.
Hier soir, vers 19 h, Microsoft a reconnu le problème. « Nous avons pris connaissance de rapports d’utilisateurs faisant état de longs temps de chargement initial dans Microsoft Flight Simulator 2024. En raison du grand nombre d’utilisateurs qui initialisent la simulation simultanément, nous avons un grand nombre de demandes de serveur. Nous nous efforçons de résoudre les problèmes dès que possible. Pour les utilisateurs dont le chargement initial a dépassé 90 % et ne progresse plus, nous recommandons un redémarrage. Sinon, nous conseillons d’attendre que le chargement se déroule normalement », a indiqué l’entreprise sur X.
Sous le tweet, on peut lire de nombreuses réactions en colère. Si certains abordent ces problèmes avec humour (« ça arrive les retards sur les vols »), beaucoup soulignent que Flight Simulator 2020 avait eu de gros soucis à son lancement, quand d’autres disent leur incompréhension face à l’attente de millions de joueurs.
Le torrent de connexions est probablement dû en partie à un lancement simultané sur PC et consoles Xbox, d’autant qu’il est présent dans le Game Pass. Quand bien même, le chargement initial n’était pas la seule difficulté. « Nous avons pris connaissance de rapports faisant état d’avions manquants dans les écrans Ma bibliothèque et Sélection d’avions dans Microsoft Flight Simulator 2024. Ce problème est lié aux problèmes de serveur que nous travaillons actuellement à résoudre », a ainsi ajouté le compte officiel une heure plus tard.
Un peu après minuit, les équipes indiquaient travailler encore sur le problème et pointaient vers une page du support Xbox pour vérifier le statut du service. À l’heure actuelle, tout serait rentré dans l’ordre. Si l’on regarde les derniers commentaires sur X, on peut voir que beaucoup signalent encore divers problèmes, même si celui de l’écran de chargement semble avoir été réglé.
À sa conférence Ignite 2024, Microsoft a annoncé comme chaque année de nombreux nouveaux produits. La plupart concernent l’IA et le cloud, les deux plus gros chevaux de bataille de l’entreprise désormais. Après l’explosion du nombre de services, Microsoft cherche désormais à en simplifier l’accès.
Azure AI Foundry, pour les lier tous
On commence tout de suite avec AI Foundry, qui concerne à la fois l’IA et le cloud. S’il s’agit bien d’un nouveau produit, c’est surtout l’occasion pour l’éditeur de rassembler de nombreux services sous un même toit. Tout ce qui touche aux modèles, aux outils, fonctions de sécurité et de surveillance y est contenu. Le portail Azure AI Studio devient dans le même temps Azure AI Foundry pour marquer le changement, pour devenir le point d’accès unique.
Dans le même temps, Microsoft lance en avant-première un SDK pour Foundry. Il fournit une chaine d’outils pour la personnalisation, les tests, le déploiement et la gestion des applications et agents d’IA, avec des contrôles pour les entreprises. Le SDK fait le lien avec GitHub, Visual Studio et Copilot Studio. Les développeurs sont invités à piocher dans les 25 modèles préconstruits disponibles, le SDK ayant pour mission de faciliter l’intégration d’Azure AI dans les applications.
Azure AI Agent Service est l’autre larron présenté à l’annonce de Foundry. Il aura pour mission d’aider à la gestion des agents d’IA, avec des fonctions d’orchestration, de déploiement et de mise à l’échelle, dans une optique d’automatisation des processus métier. Il intégrera des fonctions de type BYOS (bring your own storage) et de réseau privé, permettant aux entreprises d’héberger leurs données ailleurs que dans le cloud.
SQL Server 2025
Puisque l’on parle de stockage, SQL Server 2025 est une autre des grandes annonces de la conférence Ignite 2024. Le produit n’est pas encore disponible en version finale, seulement sous forme d’avant-première privée, avec formulaire d’inscription pour y participer.
L’IA n’est pas loin, car cette base de données vectorielle est largement tournée vers les modèles d’IA générative. Elle veut également faciliter l’emploi des données propres à l’entreprise pour les entrainements. Le prochain SQL Server s’interfacera avec Azure Arc pour le choix des modèles (avec données dans le cloud ou sur site), tandis que Copilot dans SQL Server Management Studio (SSMS) offrira les fonctions que l’on attend de ce genre de module : suggestions en temps réel, compléments de code, recommandations de meilleures pratiques, etc.
SQL Server 2025 intègrera également la gestion des identités par Entra. Microsoft promet aussi une augmentation des performances, grâce notamment « à l’optimisation intelligente des requêtes ». Le nouveau SGBD pourra fonctionner de concert avec Fabric pour mettre en miroir les bases de données dans OneLake, autorisant les analyses en temps réel « sans frictions ».
Azure Local vient remplacer Stack HCI
Le terme HCI, pour « Hyper-converged infrastructure », est voué à disparaitre. L’hyperconvergence est devenue monnaie courante et Microsoft n’éprouve plus le besoin de mettre le sigle en avant. Azure Stack HCI va donc disparaître au profit d’un petit nouveau, Azure Local.
Il s’agit toujours d’une solution d’infrastructure hybride, dans une optique de déploiement et de gestion des machines virtuelles à la périphérie, tandis que la gestion de l’infrastructure réside dans le cloud. Azure Local reprend les fonctions existantes et en ajoute d’autres, notamment un plus grand nombre d’options pour la sécurité, le support des applications natives et basées dans le cloud ou encore l’intégration de Azure Virtual Desktop.
Le remplacement d’Azure Stack HCI ne change pas les tarifs. Microsoft s’est également associé avec plusieurs équipementiers (Dell, HP, Lenovo…) pour proposer du matériel conçu pour Azure Local.
Une mise à jour majeure pour Microsoft 365 Copilot
Ce Copilot est l’un des plus importants chez Microsoft, puisqu’il est principalement attaché à la suite Office et aux services en ligne associés. Plusieurs apports intéressants ont été présentés.
Les Actions d’abord, qui ciblent les tâches répétitives. L’éditeur indique que le Copilot est en effet utilisé le plus souvent pour des activités fréquentes et rébarbatives, comme demander des mises à jour de statut, résumer des réunions, etc. Les Actions permettent de créer de déclencher un traitement déclenché par un ou plusieurs évènements, pour automatiser ces opérations.
Les autres nouveautés dépendent des applications. Dans Teams, Copilot pourra bientôt (début 2025 en préversion) résumer le contenu partagé à l’écran ainsi que les fichiers échangés dans les conversations (en tête-à-tête ou en groupe). Ces apports seront présents dans toutes les versions, y compris mobiles. Dans PowerPoint, on pourra pointer à Copilot un fichier spécifique pour créer une narration lors de la génération d’un premier jet de diapositives. Viendra également une fonction attendue depuis un moment : la traduction intégrale d’une présentation. Enfin, on pourra demander à Copilot de se servir d’une banque d’images spécifique pour qu’une entreprise s’assure qu’elles correspondent à sa marque. Ces apports arriveront entre décembre et janvier.
D’ici la fin de l’année également, Copilot pour Excel aidera les utilisateurs à se lancer depuis un tableau vierge. On pourra y décrire le type de feuille de calcul que l’on souhaite, Copilot créant un modèle que l’on pourra ensuite affiner. Dans Outlook, Copilot veut simplifier la création de réunions en proposant de lui-même des créneaux semblant le plus adaptés (si les agendas sont correctement remplis). La fonction pourra générer un ordre du jour selon les informations disponibles et sera disponible d’ici la fin du mois.
Enfin, il y aura bientôt du neuf pour Pages, un canevas dynamique lancé récemment. Au début de l’année prochaine, Pages prendra ainsi en charge de nouveaux types de données, dont « le code, les graphiques interactifs, les tableaux, les diagrammes et les mathématiques à partir de données d’entreprise ou de données Web ». Le support du multi-pages sera de la partie, tout comme une meilleure intégration du contexte au fur et à mesure que des informations sont ajoutées. Enfin, Pages pourra être utilisé depuis des appareils mobiles.
Windows 365 Link, un mini client léger pour streamer Windows
Microsoft a présenté un tout petit PC à 349 dollars. On ne sait presque rien de ses composants, mais la machine est estampillée Copilot+ et devrait embarquer une puce Arm, sans que l’on sache laquelle. L’éditeur évoque simplement des « performances très réactives », un « démarrage en quelques secondes » et « une sortie de veille instantanée ».
Le positionnement du Windows 365 Link est particulier. Il ne s’adresse qu’aux entreprises souhaitant des clients légers. Windows n’est même pas installé sur cette configuration. Comme Microsoft l’explique sur sa page de présentation, le Link est doté d’un OS minimal servant uniquement à joindre le serveur et afficher Windows en stream, depuis une machine virtuelle. Toutes les fonctions possibles de sécurité sont activées et ne peuvent pas être coupées, selon Microsoft.
Le Link fournit ainsi trois ports USB-A et un USB-C, le tout en USB 3.2. Il prend en charge deux écrans 4K, présente un port Ethernet (la vitesse n’est pas précisée), un port HDMI, une prise jack 3,5 mm, du Wi-Fi 6E et du Bluetooth 5.3. La machine est particulièrement discrète : avec des dimensions de 120 mm x 120 mm x 30 mm, elle est un peu plus petite que le dernier Mac mini.
Le Link ne s’adresse qu’aux entreprises ayant des formules Windows 365 Enterprise, Frontline ou Business, Intune et Entra ID. Il doit être lancé en avril prochain, mais seuls quelques pays sont d’abord concernés : États-Unis, Canada, Royaume-Uni, Allemagne, Japon, Australie et Nouvelle-Zélande. Microsoft indique que son Link sera proposé dans d’autres marchés plus tard, sans précision. L’entreprise ajoute qu’elle ne compte pas s’arrêter là et proposera d’autres matériels de ce type à l’avenir.
Et le reste ?
S’il s’agit des plus grosses annonces, Microsoft a également présenté diverses autres nouveautés. Teams disposera ainsi l’année prochaine (sans plus de précision) d’une traduction intégrale dans les réunions multilingues. La traduction pourra se faire sur 31 langues supportées et concernera également les transcriptions et les résumés des réunions.
Universal Print franchit aussi un cap en se voulant plus « universel ». D’abord, via la prise en charge des Mac, via l’arrivée d’une application dans le Mac App Store. Ce support est pour l’instant en préversion, mais arrivera en version finale le mois prochain. Le service lui-même évolue avec une fonction nommée « Universal Print anywhere », permettant d’imprimer depuis n’importe quel appareil et sur n’importe quelle imprimante dans la structure. La sécurité joue un rôle essentiel, car après avoir lancé le travail d’impression, il faudra se rendre sur l’imprimante de son choix et s’y authentifier pour que l’impression commence. Les avantages cités sont ceux du pull print habituel : meilleure confidentialité (moins d’oublis de documents) et économies de toner et de papier.
Signalons enfin l’arrivée prochaine de plusieurs améliorations de sécurité importantes dans Windows, notamment la protection du compte administrateur. Actuellement en préversion, elle permet la génération d’un jeton d’authentification (via Windows Hello) lorsque l’on effectue une tâche requérant des droits élevés. Une fois l’action accomplie, le jeton est détruit, permettant en théorie de ne plus pouvoir détourner le compte administrateur dans ce type de cas.
Microsoft proposera également bientôt un mécanisme nommé Quick Machine Recovery. Il s’agit d’une réaction directe à l’énorme panne CrowdStrike en juillet dernier. Les administrateurs pourront ainsi déployer des correctifs critiques et autres mises à jour de Windows sur les systèmes incapables de démarrer. Ce qui était effectivement le cas pour CrowdStrike.
L’intégralité des nouveautés annoncées lors de la conférence peut être consultée depuis cette page (en anglais).
À sa conférence Ignite 2024, Microsoft a annoncé comme chaque année de nombreux nouveaux produits. La plupart concernent l’IA et le cloud, les deux plus gros chevaux de bataille de l’entreprise désormais. Après l’explosion du nombre de services, Microsoft cherche désormais à en simplifier l’accès.
Azure AI Foundry, pour les lier tous
On commence tout de suite avec AI Foundry, qui concerne à la fois l’IA et le cloud. S’il s’agit bien d’un nouveau produit, c’est surtout l’occasion pour l’éditeur de rassembler de nombreux services sous un même toit. Tout ce qui touche aux modèles, aux outils, fonctions de sécurité et de surveillance y est contenu. Le portail Azure AI Studio devient dans le même temps Azure AI Foundry pour marquer le changement, pour devenir le point d’accès unique.
Dans le même temps, Microsoft lance en avant-première un SDK pour Foundry. Il fournit une chaine d’outils pour la personnalisation, les tests, le déploiement et la gestion des applications et agents d’IA, avec des contrôles pour les entreprises. Le SDK fait le lien avec GitHub, Visual Studio et Copilot Studio. Les développeurs sont invités à piocher dans les 25 modèles préconstruits disponibles, le SDK ayant pour mission de faciliter l’intégration d’Azure AI dans les applications.
Azure AI Agent Service est l’autre larron présenté à l’annonce de Foundry. Il aura pour mission d’aider à la gestion des agents d’IA, avec des fonctions d’orchestration, de déploiement et de mise à l’échelle, dans une optique d’automatisation des processus métier. Il intégrera des fonctions de type BYOS (bring your own storage) et de réseau privé, permettant aux entreprises d’héberger leurs données ailleurs que dans le cloud.
SQL Server 2025
Puisque l’on parle de stockage, SQL Server 2025 est une autre des grandes annonces de la conférence Ignite 2024. Le produit n’est pas encore disponible en version finale, seulement sous forme d’avant-première privée, avec formulaire d’inscription pour y participer.
L’IA n’est pas loin, car cette base de données vectorielle est largement tournée vers les modèles d’IA générative. Elle veut également faciliter l’emploi des données propres à l’entreprise pour les entrainements. Le prochain SQL Server s’interfacera avec Azure Arc pour le choix des modèles (avec données dans le cloud ou sur site), tandis que Copilot dans SQL Server Management Studio (SSMS) offrira les fonctions que l’on attend de ce genre de module : suggestions en temps réel, compléments de code, recommandations de meilleures pratiques, etc.
SQL Server 2025 intègrera également la gestion des identités par Entra. Microsoft promet aussi une augmentation des performances, grâce notamment « à l’optimisation intelligente des requêtes ». Le nouveau SGBD pourra fonctionner de concert avec Fabric pour mettre en miroir les bases de données dans OneLake, autorisant les analyses en temps réel « sans frictions ».
Azure Local vient remplacer Stack HCI
Le terme HCI, pour « Hyper-converged infrastructure », est voué à disparaitre. L’hyperconvergence est devenue monnaie courante et Microsoft n’éprouve plus le besoin de mettre le sigle en avant. Azure Stack HCI va donc disparaître au profit d’un petit nouveau, Azure Local.
Il s’agit toujours d’une solution d’infrastructure hybride, dans une optique de déploiement et de gestion des machines virtuelles à la périphérie, tandis que la gestion de l’infrastructure réside dans le cloud. Azure Local reprend les fonctions existantes et en ajoute d’autres, notamment un plus grand nombre d’options pour la sécurité, le support des applications natives et basées dans le cloud ou encore l’intégration de Azure Virtual Desktop.
Le remplacement d’Azure Stack HCI ne change pas les tarifs. Microsoft s’est également associé avec plusieurs équipementiers (Dell, HP, Lenovo…) pour proposer du matériel conçu pour Azure Local.
Une mise à jour majeure pour Microsoft 365 Copilot
Ce Copilot est l’un des plus importants chez Microsoft, puisqu’il est principalement attaché à la suite Office et aux services en ligne associés. Plusieurs apports intéressants ont été présentés.
Les Actions d’abord, qui ciblent les tâches répétitives. L’éditeur indique que le Copilot est en effet utilisé le plus souvent pour des activités fréquentes et rébarbatives, comme demander des mises à jour de statut, résumer des réunions, etc. Les Actions permettent de créer de déclencher un traitement déclenché par un ou plusieurs évènements, pour automatiser ces opérations.
Les autres nouveautés dépendent des applications. Dans Teams, Copilot pourra bientôt (début 2025 en préversion) résumer le contenu partagé à l’écran ainsi que les fichiers échangés dans les conversations (en tête-à-tête ou en groupe). Ces apports seront présents dans toutes les versions, y compris mobiles. Dans PowerPoint, on pourra pointer à Copilot un fichier spécifique pour créer une narration lors de la génération d’un premier jet de diapositives. Viendra également une fonction attendue depuis un moment : la traduction intégrale d’une présentation. Enfin, on pourra demander à Copilot de se servir d’une banque d’images spécifique pour qu’une entreprise s’assure qu’elles correspondent à sa marque. Ces apports arriveront entre décembre et janvier.
D’ici la fin de l’année également, Copilot pour Excel aidera les utilisateurs à se lancer depuis un tableau vierge. On pourra y décrire le type de feuille de calcul que l’on souhaite, Copilot créant un modèle que l’on pourra ensuite affiner. Dans Outlook, Copilot veut simplifier la création de réunions en proposant de lui-même des créneaux semblant le plus adaptés (si les agendas sont correctement remplis). La fonction pourra générer un ordre du jour selon les informations disponibles et sera disponible d’ici la fin du mois.
Enfin, il y aura bientôt du neuf pour Pages, un canevas dynamique lancé récemment. Au début de l’année prochaine, Pages prendra ainsi en charge de nouveaux types de données, dont « le code, les graphiques interactifs, les tableaux, les diagrammes et les mathématiques à partir de données d’entreprise ou de données Web ». Le support du multi-pages sera de la partie, tout comme une meilleure intégration du contexte au fur et à mesure que des informations sont ajoutées. Enfin, Pages pourra être utilisé depuis des appareils mobiles.
Windows 365 Link, un mini client léger pour streamer Windows
Microsoft a présenté un tout petit PC à 349 dollars. On ne sait presque rien de ses composants, mais la machine est estampillée Copilot+ et devrait embarquer une puce Arm, sans que l’on sache laquelle. L’éditeur évoque simplement des « performances très réactives », un « démarrage en quelques secondes » et « une sortie de veille instantanée ».
Le positionnement du Windows 365 Link est particulier. Il ne s’adresse qu’aux entreprises souhaitant des clients légers. Windows n’est même pas installé sur cette configuration. Comme Microsoft l’explique sur sa page de présentation, le Link est doté d’un OS minimal servant uniquement à joindre le serveur et afficher Windows en stream, depuis une machine virtuelle. Toutes les fonctions possibles de sécurité sont activées et ne peuvent pas être coupées, selon Microsoft.
Le Link fournit ainsi trois ports USB-A et un USB-C, le tout en USB 3.2. Il prend en charge deux écrans 4K, présente un port Ethernet (la vitesse n’est pas précisée), un port HDMI, une prise jack 3,5 mm, du Wi-Fi 6E et du Bluetooth 5.3. La machine est particulièrement discrète : avec des dimensions de 120 mm x 120 mm x 30 mm, elle est un peu plus petite que le dernier Mac mini.
Le Link ne s’adresse qu’aux entreprises ayant des formules Windows 365 Enterprise, Frontline ou Business, Intune et Entra ID. Il doit être lancé en avril prochain, mais seuls quelques pays sont d’abord concernés : États-Unis, Canada, Royaume-Uni, Allemagne, Japon, Australie et Nouvelle-Zélande. Microsoft indique que son Link sera proposé dans d’autres marchés plus tard, sans précision. L’entreprise ajoute qu’elle ne compte pas s’arrêter là et proposera d’autres matériels de ce type à l’avenir.
Et le reste ?
S’il s’agit des plus grosses annonces, Microsoft a également présenté diverses autres nouveautés. Teams disposera ainsi l’année prochaine (sans plus de précision) d’une traduction intégrale dans les réunions multilingues. La traduction pourra se faire sur 31 langues supportées et concernera également les transcriptions et les résumés des réunions.
Universal Print franchit aussi un cap en se voulant plus « universel ». D’abord, via la prise en charge des Mac, via l’arrivée d’une application dans le Mac App Store. Ce support est pour l’instant en préversion, mais arrivera en version finale le mois prochain. Le service lui-même évolue avec une fonction nommée « Universal Print anywhere », permettant d’imprimer depuis n’importe quel appareil et sur n’importe quelle imprimante dans la structure. La sécurité joue un rôle essentiel, car après avoir lancé le travail d’impression, il faudra se rendre sur l’imprimante de son choix et s’y authentifier pour que l’impression commence. Les avantages cités sont ceux du pull print habituel : meilleure confidentialité (moins d’oublis de documents) et économies de toner et de papier.
Signalons enfin l’arrivée prochaine de plusieurs améliorations de sécurité importantes dans Windows, notamment la protection du compte administrateur. Actuellement en préversion, elle permet la génération d’un jeton d’authentification (via Windows Hello) lorsque l’on effectue une tâche requérant des droits élevés. Une fois l’action accomplie, le jeton est détruit, permettant en théorie de ne plus pouvoir détourner le compte administrateur dans ce type de cas.
Microsoft proposera également bientôt un mécanisme nommé Quick Machine Recovery. Il s’agit d’une réaction directe à l’énorme panne CrowdStrike en juillet dernier. Les administrateurs pourront ainsi déployer des correctifs critiques et autres mises à jour de Windows sur les systèmes incapables de démarrer. Ce qui était effectivement le cas pour CrowdStrike.
L’intégralité des nouveautés annoncées lors de la conférence peut être consultée depuis cette page (en anglais).
Toutes ces mises à jour ont en commun la correction de deux failles de sécurité déjà exploitées. La première, CVE-2024-44308, réside dans JavaScriptCore. Elle peut être exploitée par le traitement d’un contenu web malveillant et entrainer une exécution de code arbitraire à distance.
La deuxième faille, CVE-2024-44309, concerne WebKit. Via un contenu web spécialement conçu, il est possible d’obtenir une attaque de type cross site scripting (XSS). Selon Apple, il s’agissait d’un problème lié à des cookies.
Les deux failles ont été corrigées et leur installation rapide est recommandée. Selon Apple, ces deux brèches sont exploitées, des rapports ayant indiqué notamment leur utilisation contre des Mac basés sur Intel. S’agissant de bugs logiciels dans le traitement du contenu web, ces failles peuvent cependant toucher l’ensemble des appareils concernés par les mises à jour.
Clément Lecigne et Benoît Sevens, du Threat Analysis Group (TGA) de Google, ont été crédités pour la découverte de ces failles.
Toutes ces mises à jour ont en commun la correction de deux failles de sécurité déjà exploitées. La première, CVE-2024-44308, réside dans JavaScriptCore. Elle peut être exploitée par le traitement d’un contenu web malveillant et entrainer une exécution de code arbitraire à distance.
La deuxième faille, CVE-2024-44309, concerne WebKit. Via un contenu web spécialement conçu, il est possible d’obtenir une attaque de type cross site scripting (XSS). Selon Apple, il s’agissait d’un problème lié à des cookies.
Les deux failles ont été corrigées et leur installation rapide est recommandée. Selon Apple, ces deux brèches sont exploitées, des rapports ayant indiqué notamment leur utilisation contre des Mac basés sur Intel. S’agissant de bugs logiciels dans le traitement du contenu web, ces failles peuvent cependant toucher l’ensemble des appareils concernés par les mises à jour.
Clément Lecigne et Benoît Sevens, du Threat Analysis Group (TGA) de Google, ont été crédités pour la découverte de ces failles.
Un Autrichien anonyme a déposé au Parlement européen une pétition pour encourager le développement d’une distribution souveraine pour le Vieux continent. S’il y a peu de chances qu’elle récolte suffisamment de votes au vu de la complexité du sujet, elle vient mettre le doigt sur de nombreuses problématiques actuelles, dont la dépendance aux grandes sociétés américaines.
« Le pétitionnaire demande à l’Union européenne de développer et de mettre en œuvre activement un système d’exploitation basé sur Linux, appelé « EU-Linux », dans les administrations publiques de tous les États membres de l’UE. Cette initiative vise à réduire la dépendance à l’égard des produits Microsoft, à garantir la conformité au règlement général sur la protection des données (RGPD) et à promouvoir la transparence, la durabilité et la souveraineté numérique au sein de l’UE », décrit ainsi la page web consacrée à la pétition sur le site du Parlement européen.
On peut lire également que l’auteur insiste sur l’importance « d’utiliser des alternatives open-source à Microsoft 365, telles que LibreOffice et Nextcloud, et suggère l’adoption du système d’exploitation mobile E/OS pour les appareils gouvernementaux ». Il fait en outre mention des créations d’emplois qu’un tel projet provoquerait.
Cette pétition, qui porte le numéro 0729/2024, a été enregistrée par N. W. et cumule un peu moins de 2 000 signatures à l’heure où nous écrivons ces lignes. En l’état, à moins d’un large engouement – potentiellement par le biais de relais dans la presse – cette initiative a peu de chances d’aboutir. Pourtant, l’idée est séduisante et met en lumière plusieurs thématiques récurrentes.
Des avantages « évidents »
L’initiative, repérée notamment par le développeur Stéfane Fermigier (coprésident du CNLL notamment), a de quoi séduire. Ce dernier, dans une analyse publiée sur son site et sur LinuxFR.org, pointe les nombreux avantages qu’il y aurait à promouvoir un tel système. Après tout, Linux est un matériau particulièrement flexible et adaptable à tous les besoins, c’est l’une de ses plus grandes forces, avec la transparence de son code libre.
Il reste 69% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
World of Warcraft et Half-Life 2 fêtent tous deux leur 20e anniversaire. L’occasion de revenir sur leur parcours, d’autant que leur vie n’est pas terminée. Le MMORPG de Blizzard reste joué par des millions de personnes, tandis que le titre de Valve vient de recevoir une mise à jour conséquente pour fêter l’évènement.
Lorsque World of Warcraft sort en novembre 2004, il est le quatrième titre de la franchise Warcraft. Avant le MMO, les trois jeux Warcraft (et leurs extensions) étaient des RTS, des jeux de stratégie militaire en temps réel. Le concept central était toujours le même : récolter des ressources, développer une base, construire une armée et se débarrasser de ses adversaires. Un principe largement inspiré par le jeu Dune II.
Si le premier jeu en 1994 avait été remarqué, c’est le deuxième opus, sorti l’année suivante, qui fera réellement connaitre le studio Blizzard. Trois ans plus tard, en 1998, Blizzard appliquera la même recette dans Starcraft. Warcraft III, lui, arrivera en 2002, suivi de son extension The Frozen Throne l’année suivante.
La « patte » Blizzard
Ce sont bien Warcraft III et son extension qui ont posé les bases de ce qu’allait être World of Warcraft (souvent appelé WoW). Blizzard se faisait déjà un nom pour son storytelling, notamment à travers la saga du Roi Liche. Quand le nouveau titre sort, il n’est pas le premier MMO, loin de là. Mais la patte Blizzard fonctionne immédiatement : simplifiant l’interface et l’accès, le jeu pose des bases qui vont rapidement devenir la référence, jusqu’à la disposition des éléments d’information à l’écran.
Le jeu est très bien accueilli à sa sortie, à une époque où les connexions internet sont bien loin de celles que nous connaissons aujourd’hui. Imaginez : MySpace existait encore. En outre, il faut payer un abonnement de 13 euros par mois, en plus de l’achat initial du jeu. Tous les deux à trois ans, une extension vient agrandir le monde déjà en place, ajoutant de nouveaux continents, des quêtes, des équipements, des montures, des races, des classes, des métiers, etc. En quatre ans, le jeu comptait déjà dix millions de joueurs, créant une immense manne financière pour Blizzard.
Des meuporgs à l’étude d’une pandémie virtuelle
Le jeu est également connu pour d’autres aspects « périludiques ». Après quelques années de succès, c’est ainsi qu’une grande polémique a explosé un peu partout sur le temps passé dans les univers virtuels. Comment oublier le phénomène des « meuporg », des grandes inquiétudes sur une éventuelle génération perdue d’enfants et de jeunes adultes, trop abîmés dans leur jeu pour s’intéresser au monde « réel » ?
WoW est également connu pour certaines séquences devenues cultes, comme celle de Leeroy Jenkins, au point que Blizzard finira par intégrer le personnage dans son jeu. Autre épisode intéressant : le sang vicié. Il s’agissait d’une malédiction qu’un boss du jeu pouvait poser sur les joueurs. Un cas non prévu par les développeurs avait entrainé la diffusion de cette malédiction à l’extérieur du donjon, entrainant une vaste épidémie qui a sévi pendant plusieurs jours. La situation avait été pénible pour les joueurs, mais la communauté scientifique avait observé l’évènement de près, car le comportement des joueurs avait été riche d’enseignements. L’incident a même refait surface en 2020 comme inspiration dans l’étude de la pandémie de covid-19.
Aujourd’hui, même si le jeu n’est plus autant joué qu’avant, les joueurs se comptent encore par millions. Le 20e anniversaire du jeu est l’occasion d’un évènement s’étalant sur trois mois, avec de nombreuses récompenses un peu partout. Le titre n’a aucune fin annoncée pour le moment. Et pour cause : la dernière présentation d’une extension était en fait celle d’une trilogie, dont le premier volet – The War Within – est la dernière extension en date. Elle sera suivie de Midnight et de The Last Titan.
Le retour de Gordon Freeman
Half-Life 2 est un autre immense succès du jeu vidéo. Avec le premier titre, sorti en 1998, Valve signe un classique instantané. Ce FPS (first person shooter) s’est signalé d’emblée comme une nouvelle approche du genre. On y suivait les aventures de Gordon Freeman dans le complexe scientifique de Black Mesa. Nous assistions à un incident technique et l’explosion d’une partie de la base. Lorsque l’on commence à jouer, les monstres sont partout… et nulle part à la fois. L’ambiance, semi-horrifique, s’inspire très volontiers de la sensation prégnante de menace masquée présente dans Alien.
Comme pour Starcraft, sorti la même année, la narration joue un rôle prépondérant, l’action étant mise au service de l’histoire. La mise en scène a également marqué toute une génération de joueurs. La séquence du tunnel a laissé ainsi d’impérissables souvenirs et annonçait le ton du jeu. On avançait ainsi dans un couloir, dont la porte devant se fermait brutalement. On se retournait alors pour revenir sur ses pas, mais la première porte se fermait à son tour. Ensuite, c’était le drame : les lumières s’éteignaient et on se retrouvait dans le noir. Le jeu, sadique, nous laissait alors entendre le son de monstres se rapprochant par le plafond. Toute l’aventure était vécue à travers les yeux du personnage que l’on incarnait, favorisant l’immersion.
Lorsque Half-Life 2 sort en 2004, l’attente est immense. Le jeu est acclamé dès sa sortie pour ses qualités. L’histoire reprend 20 ans plus tard et – sans trop spoiler – on y incarne une nouvelle fois Gordon Freeman. Les principes de narration sont les mêmes, conduisant le jeu à laisser une impression durable chez les joueurs, avec une influence conséquente sur le monde du jeu vidéo.
Une grosse mise à jour
Pour le 20e anniversaire, Valve a d’ailleurs mis les petits plats dans les grands. Comme l’éditeur l’avait fait pour le 25e anniversaire du premier Half-Life, une mise à jour spéciale a été distribuée sur Steam. Le jeu, qui n’avait plus vraiment de développement actif depuis longtemps, reçoit ainsi de nombreuses corrections pour des bugs connus depuis des années. Le jeu est également modernisé : un éclairage rééquilibré permettant d’utiliser le HDR, un brouillard radial pour des lignes d’horizon plus nettes, des lightmaps en haute définition, un mode Haute qualité pour les modèles, etc. Les contrôles de la manette peuvent être changés pour correspondre à ceux de la mise à jour 25e anniversaire du premier Half-Life.
Valve a également mis en ligne un documentaire de 2 heures. On peut y voir des membres de l’équipe originale raconter leur expérience de développement du jeu. Il faudra cependant s’y connaître assez en anglais pour suivre au moins les sous-titres (intégrés). En plus d’autres vidéos d’archive, le site créé pour l’occasion mentionne la réédition en 2025 du livre Raising The Bar. Sortie en 2004, il détaillait la création du jeu. La nouvelle édition tiendra compte de tous les contenus ajoutés ensuite, notamment les Episode One et Two.
World of Warcraft et Half-Life 2 fêtent tous deux leur 20e anniversaire. L’occasion de revenir sur leur parcours, d’autant que leur vie n’est pas terminée. Le MMORPG de Blizzard reste joué par des millions de personnes, tandis que le titre de Valve vient de recevoir une mise à jour conséquente pour fêter l’évènement.
Lorsque World of Warcraft sort en novembre 2004, il est le quatrième titre de la franchise Warcraft. Avant le MMO, les trois jeux Warcraft (et leurs extensions) étaient des RTS, des jeux de stratégie militaire en temps réel. Le concept central était toujours le même : récolter des ressources, développer une base, construire une armée et se débarrasser de ses adversaires. Un principe largement inspiré par le jeu Dune II.
Si le premier jeu en 1994 avait été remarqué, c’est le deuxième opus, sorti l’année suivante, qui fera réellement connaitre le studio Blizzard. Trois ans plus tard, en 1998, Blizzard appliquera la même recette dans Starcraft. Warcraft III, lui, arrivera en 2002, suivi de son extension The Frozen Throne l’année suivante.
La « patte » Blizzard
Ce sont bien Warcraft III et son extension qui ont posé les bases de ce qu’allait être World of Warcraft (souvent appelé WoW). Blizzard se faisait déjà un nom pour son storytelling, notamment à travers la saga du Roi Liche. Quand le nouveau titre sort, il n’est pas le premier MMO, loin de là. Mais la patte Blizzard fonctionne immédiatement : simplifiant l’interface et l’accès, le jeu pose des bases qui vont rapidement devenir la référence, jusqu’à la disposition des éléments d’information à l’écran.
Le jeu est très bien accueilli à sa sortie, à une époque où les connexions internet sont bien loin de celles que nous connaissons aujourd’hui. Imaginez : MySpace existait encore. En outre, il faut payer un abonnement de 13 euros par mois, en plus de l’achat initial du jeu. Tous les deux à trois ans, une extension vient agrandir le monde déjà en place, ajoutant de nouveaux continents, des quêtes, des équipements, des montures, des races, des classes, des métiers, etc. En quatre ans, le jeu comptait déjà dix millions de joueurs, créant une immense manne financière pour Blizzard.
Des meuporgs à l’étude d’une pandémie virtuelle
Le jeu est également connu pour d’autres aspects « périludiques ». Après quelques années de succès, c’est ainsi qu’une grande polémique a explosé un peu partout sur le temps passé dans les univers virtuels. Comment oublier le phénomène des « meuporg », des grandes inquiétudes sur une éventuelle génération perdue d’enfants et de jeunes adultes, trop abîmés dans leur jeu pour s’intéresser au monde « réel » ?
WoW est également connu pour certaines séquences devenues cultes, comme celle de Leeroy Jenkins, au point que Blizzard finira par intégrer le personnage dans son jeu. Autre épisode intéressant : le sang vicié. Il s’agissait d’une malédiction qu’un boss du jeu pouvait poser sur les joueurs. Un cas non prévu par les développeurs avait entrainé la diffusion de cette malédiction à l’extérieur du donjon, entrainant une vaste épidémie qui a sévi pendant plusieurs jours. La situation avait été pénible pour les joueurs, mais la communauté scientifique avait observé l’évènement de près, car le comportement des joueurs avait été riche d’enseignements. L’incident a même refait surface en 2020 comme inspiration dans l’étude de la pandémie de covid-19.
Aujourd’hui, même si le jeu n’est plus autant joué qu’avant, les joueurs se comptent encore par millions. Le 20e anniversaire du jeu est l’occasion d’un évènement s’étalant sur trois mois, avec de nombreuses récompenses un peu partout. Le titre n’a aucune fin annoncée pour le moment. Et pour cause : la dernière présentation d’une extension était en fait celle d’une trilogie, dont le premier volet – The War Within – est la dernière extension en date. Elle sera suivie de Midnight et de The Last Titan.
Le retour de Gordon Freeman
Half-Life 2 est un autre immense succès du jeu vidéo. Avec le premier titre, sorti en 1998, Valve signe un classique instantané. Ce FPS (first person shooter) s’est signalé d’emblée comme une nouvelle approche du genre. On y suivait les aventures de Gordon Freeman dans le complexe scientifique de Black Mesa. Nous assistions à un incident technique et l’explosion d’une partie de la base. Lorsque l’on commence à jouer, les monstres sont partout… et nulle part à la fois. L’ambiance, semi-horrifique, s’inspire très volontiers de la sensation prégnante de menace masquée présente dans Alien.
Comme pour Starcraft, sorti la même année, la narration joue un rôle prépondérant, l’action étant mise au service de l’histoire. La mise en scène a également marqué toute une génération de joueurs. La séquence du tunnel a laissé ainsi d’impérissables souvenirs et annonçait le ton du jeu. On avançait ainsi dans un couloir, dont la porte devant se fermait brutalement. On se retournait alors pour revenir sur ses pas, mais la première porte se fermait à son tour. Ensuite, c’était le drame : les lumières s’éteignaient et on se retrouvait dans le noir. Le jeu, sadique, nous laissait alors entendre le son de monstres se rapprochant par le plafond. Toute l’aventure était vécue à travers les yeux du personnage que l’on incarnait, favorisant l’immersion.
Lorsque Half-Life 2 sort en 2004, l’attente est immense. Le jeu est acclamé dès sa sortie pour ses qualités. L’histoire reprend 20 ans plus tard et – sans trop spoiler – on y incarne une nouvelle fois Gordon Freeman. Les principes de narration sont les mêmes, conduisant le jeu à laisser une impression durable chez les joueurs, avec une influence conséquente sur le monde du jeu vidéo.
Une grosse mise à jour
Pour le 20e anniversaire, Valve a d’ailleurs mis les petits plats dans les grands. Comme l’éditeur l’avait fait pour le 25e anniversaire du premier Half-Life, une mise à jour spéciale a été distribuée sur Steam. Le jeu, qui n’avait plus vraiment de développement actif depuis longtemps, reçoit ainsi de nombreuses corrections pour des bugs connus depuis des années. Le jeu est également modernisé : un éclairage rééquilibré permettant d’utiliser le HDR, un brouillard radial pour des lignes d’horizon plus nettes, des lightmaps en haute définition, un mode Haute qualité pour les modèles, etc. Les contrôles de la manette peuvent être changés pour correspondre à ceux de la mise à jour 25e anniversaire du premier Half-Life.
Valve a également mis en ligne un documentaire de 2 heures. On peut y voir des membres de l’équipe originale raconter leur expérience de développement du jeu. Il faudra cependant s’y connaître assez en anglais pour suivre au moins les sous-titres (intégrés). En plus d’autres vidéos d’archive, le site créé pour l’occasion mentionne la réédition en 2025 du livre Raising The Bar. Sortie en 2004, il détaillait la création du jeu. La nouvelle édition tiendra compte de tous les contenus ajoutés ensuite, notamment les Episode One et Two.
Nouvelle version pour le noyau Linux, officialisée hier par Linus Torvalds. Elle contient de nombreuses nouveautés, dont une longue liste d’améliorations pour le support du matériel, particulièrement celui de l’architecture RDNA4 d’AMD et le passage en version stable du support de Xe2 d’Intel.
Cette version 6.12, disponible sur kernel.org, se distingue par ses premières capacités dédiées au temps réel, avec l’arrivée de PREEMPT_RT, après pas loin de deux décennies de travail. En temps réel, un système doit non seulement fournir le résultat attendu, mais il doit le faire dans les délais imposés. Sur Wikipedia, on trouve des exemples simples : industrie de production, salles de marché, systèmes de pilotage dans l’aéronautique ou encore dans le monde de l’automobile.
Long Ma pour Unsplash
Ce qui ne signifie pas que ces capacités étaient inexistantes dans le monde Linux jusqu’à présent. Chez Canonical, par exemple, PREEMPT_RT est disponible via Ubuntu Pro depuis février 2023. Chez MontaVista Software, le composant est même disponible depuis les premiers développements, il y a une vingtaine d’années. Le noyau 6.12 officialise simplement l’intégration de PREEMPT_RT et sa disponibilité générale.
Parmi les autres changements apportés par la nouvelle version, on note l’arrivée des liens SWIG pour libcpupower, un chargement simplifié des correctifs de microcode pour les processeurs AMD Zen, l’énumération des contrôleurs d’interruption basés sur ACPI sur RISC-V, la possibilité de créer des zones thermiques fictives et de les contrôler via debugfs, le support de l’exécution en tant qu’invité protégé sur Android ou encore celui de Device Memory TCP.
Comme d’habitude, l’obtention du nouveau noyau dépend du type de distribution que vous utilisez. Sur des systèmes classiques comme Debian, Ubuntu, Fedora, il faut parfois attendre la mouture suivante, particulièrement sur des variantes LTS. Sur les rolling releases, elles arrivent généralement vite.
Nouvelle version pour le noyau Linux, officialisée hier par Linus Torvalds. Elle contient de nombreuses nouveautés, dont une longue liste d’améliorations pour le support du matériel, particulièrement celui de l’architecture RDNA4 d’AMD et le passage en version stable du support de Xe2 d’Intel.
Cette version 6.12, disponible sur kernel.org, se distingue par ses premières capacités dédiées au temps réel, avec l’arrivée de PREEMPT_RT, après pas loin de deux décennies de travail. En temps réel, un système doit non seulement fournir le résultat attendu, mais il doit le faire dans les délais imposés. Sur Wikipedia, on trouve des exemples simples : industrie de production, salles de marché, systèmes de pilotage dans l’aéronautique ou encore dans le monde de l’automobile.
Long Ma pour Unsplash
Ce qui ne signifie pas que ces capacités étaient inexistantes dans le monde Linux jusqu’à présent. Chez Canonical, par exemple, PREEMPT_RT est disponible via Ubuntu Pro depuis février 2023. Chez MontaVista Software, le composant est même disponible depuis les premiers développements, il y a une vingtaine d’années. Le noyau 6.12 officialise simplement l’intégration de PREEMPT_RT et sa disponibilité générale.
Parmi les autres changements apportés par la nouvelle version, on note l’arrivée des liens SWIG pour libcpupower, un chargement simplifié des correctifs de microcode pour les processeurs AMD Zen, l’énumération des contrôleurs d’interruption basés sur ACPI sur RISC-V, la possibilité de créer des zones thermiques fictives et de les contrôler via debugfs, le support de l’exécution en tant qu’invité protégé sur Android ou encore celui de Device Memory TCP.
Comme d’habitude, l’obtention du nouveau noyau dépend du type de distribution que vous utilisez. Sur des systèmes classiques comme Debian, Ubuntu, Fedora, il faut parfois attendre la mouture suivante, particulièrement sur des variantes LTS. Sur les rolling releases, elles arrivent généralement vite.
Quand on choisit de synchroniser ses identifiants et mots de passe avec un compte Apple, Google ou Microsoft, il existe plusieurs moyens de les récupérer en fonction du contexte. Pour Microsoft, cela passe par son application Authenticator sur Android et iOS. On peut la configurer comme gestionnaire de mots de passe par défaut, permettant de rappeler ses identifiants dans les autres applications.
Et dans les navigateurs ? Microsoft synchronise bien sûr les données avec Edge. Pour les autres navigateurs basés sur Chromium, l’extension Autofill existe depuis février 2021. Firefox n’y a jamais eu droit.
Cependant, comme un lecteur nous en a informé, cette extension va disparaitre. Elle sera supprimée le 14 décembre, dans à peine un mois. Yoann, avec qui nous avons échangé, est concerné de près : il se sert de Vivaldi et utilisait jusqu’à présent la sauvegarde dans le compte de Microsoft.
Que donne Microsoft comme solution ? Une bascule vers Edge. « Pas question que j’abandonne Vivaldi », nous a cependant répondu Yoann. De fait, on comprend mal cet abandon chez l’éditeur. L’opération a toutes les apparences d’une tentative forcée de rabattre des utilisateurs vers Edge. Sur sa page, Microsoft dit avoir décidé de « simplifier ses offres ». Les personnes concernées apprécieront de devoir changer de navigateur parce que l’entreprise ne veut plus maintenir son extension.
Nous avons souligné ce problème dans notre récent article sur l’utilisation pratique des clés d’accès. Bien que ces dernières soient efficaces et globalement au niveau de leurs promesses, le choix de l’entreprise chez qui les stocker est déterminant.
Quel que soit le service que vous utilisez pour stocker et synchroniser vos secrets, mieux vaut s’assurer qu’il est disponible sur toutes les plateformes et dans tous les navigateurs dont vous vous servez. Dans le cas contraire, ce sera une source fréquente d’agacements.
Si l’on parle beaucoup de Bluesky actuellement, notamment à cause de nombreux transfuges de X, le réseau social de Meta croît également. Et les chiffres sont difficilement comparables, puisque Threads a reçu 15 millions de nouveaux utilisateurs sur les seuls 15 derniers jours. Ce qui fait dire à The Verge que « Threads a grandi d’un Bluesky ce mois-ci ».
La force de frappe est bien sûr très différente. Bluesky est pratiquement « parti de rien », sans glissement depuis une autre plateforme, et avec très peu de fonctions initialement. Threads, de son côté, est rattaché à Instagram et son immense base d’utilisateurs. Les liens vers Threads sont nombreux et Meta pousse copieusement à son utilisation.
Le même Mosseri a indiqué hier que Threads ne demande désormais plus, après l’inscription, si l’on souhaite suivre automatiquement tous les comptes que l’on suit déjà sur Instagram. Le responsable affirme qu’après un test de quelques mois, l’équipe s’est rendu compte que les utilisateurs allaient plus souvent sur Threads en partant d’une liste vierge.
« Nous savons qu’il nous reste encore beaucoup à faire, et nos équipes travaillent dur pour apporter à cette communauté ce dont elle a besoin. Nous vous apprécions tous », a également ajouté Mosseri. Il reste, en effet, de nombreux manques dans Threads, particulièrement quand on le compare à X, dont il est à l’heure actuelle le principal concurrent.
Toujours pas de messages directs intégrés
C’est notamment le cas des messages directs (DM). Répondant à un message de la journaliste Katie Notopoulos, Adam Mosseri a indiqué qu’il fallait y réfléchir. Le système de messages sur Threads est en effet particulier : il faut passer par Instagram. La journaliste trouvait pour sa part qu’il y avait une certaine « perversité » à se rendre sur l’Instagram d’une personne pour lui envoyer un message. Elle dit ne jamais avoir eu ce ressenti sur Twitter.
On peut lire dans les réactions que la demande est populaire. Beaucoup parlent de la friction à changer d’application pour discuter en tête-à-tête avec des personnes présentes sur Threads, d’autres de cassure dans l’expérience. D’autres encore suggèrent différentes approches, comme l’intégration d’un onglet dans Threads pour afficher la messagerie d’Instagram.
De nombreux travaux encore à prévoir
L’autre gros reproche fait à Threads est l’algorithme de son flux principal, contre lequel le journaliste Tom Warren, de The Verge, ne mâchait pas ses mots il y a quelques jours. Là encore, on peut lire dans les réponses les mêmes reproches que l’on peut lire sur X : l’impossibilité d’un ordre chronologique par défaut et la mise en avant des contenus à fort engagement, jugés par beaucoup comme autant de « clickbaits ».
Enfin, Threads se prépare à ajouter de la publicité à son réseau social dès le début de l’année prochaine, c’est du moins ce qu’affirme The Information en se basant sur des déclarations de trois sources. Elle devrait être ajouté progressivement, mais nos confrères n’ont pas plus de détails.
Les mises à jour d’Authenticator sont assez rares chez Google. Pourtant, l’application est importante chez l’éditeur, car elle peut fournir le second facteur sur les demandes de connexions, en générant les fameuses séries de six chiffres.
La version 7.0 avait commencé à être déployée en aout. Pourtant, elle n’est pleinement disponible pour l’ensemble des utilisateurs que depuis hier. Elle contient plusieurs évolutions significatives, dont le passage à Material You, avec adaptation automatique au thème utilisé sur l’appareil, qu’il soit clair ou sombre (la bascule était jusqu’à présent manuelle).
Outre cette modernisation de l’interface, on repère l’arrivée d’un champ de recherche en haut de l’écran, qui n’oblige plus à faire défiler ses comptes pour trouver la ligne qui nous intéresse ? Cette barre de recherche contient également à gauche le bouton du menu hamburger et à droite l’état du statut de synchronisation. Le scan de codes QR bénéficie quant à lui du flash et peut être appelé d’un appui long sur l’icône de l’application.
Plus important encore, une option permet – enfin ! – de verrouiller l’application après un certain temps quand elle n’est plus au premier plan. Une fonction courante sur ce type d’application et qui manquait cruellement sur celle de Google. Dans le menu associé, on peut choisir entre Immédiatement, 10 secondes, 1 minute et 10 minutes. Une fois verrouillée, l’application réclame le code PIN, le schéma ou l’identification biométrique, selon la configuration de l’appareil.
Depuis plusieurs versions, l’une des nouveautés prévues est la bascule de l’installeur Anaconda vers WebUI. Comme Ubuntu l’a déjà fait avec Flutter, il s’agit de réécrire complètement le processus d’installation pour le moderniser et lui apporter de nouvelles fonctions. Dans le cas d’Ubuntu, on a pu voir, par exemple, des options d’accessibilité ajoutées dès le début de l’installation.
Pourtant, WebUI n’arrive pas. Il est à nouveau prévu pour Fedora 42, qui arrivera au printemps prochain. Mais parallèlement, l’équipe de développement travaille sur un autre projet : abandonner complètement X11 via le passage du processus d’installation à Wayland. Le serveur d’affichage a beau être utilisé par défaut depuis Fedora 25, X11 est toujours présent.
Dans la proposition faite par l’équipe, on apprend qu’elle veut se débarrasser de l’ensemble des dépendances X11 dans les images ISO d’installation. Dans la foulée, Xorg serait également supprimé dans les distributions CentOS Stream et bien sûr RHEL.
Comme l’indique l’équipe, ce n’est pas si simple. Il faut notamment supprimer TigerVNC, qui permet l’installation à distance avec interface graphique. L’idée serait de le remplacer par Gnome Remote Desktop (grd), avec à la clé une sécurité accrue et de meilleures performances.
Il faudrait également abandonner libXklavier (qui gère la disposition des claviers), à cause d’instabilités avec Wayland. Dans ce cas, c’est un peu le « bazar », car Wayland n’a pas d’API unifiée pour la gestion du clavier. L’équipe n’a pas les moyens de maintenir une solution personnalisée pour chaque spin (variante) de Fedora. Notant que plusieurs environnements de bureau se sont orientés vers l’API systemd-localed, elle recommande donc cette approche.
Fedora 42 s’annonce, quoi qu’il en soit, comme une version importante, avec des modifications majeures, comme le rapporte 9to5Linux. Par exemple, l’activation de Copy on Write sur DNF et RPM dans toutes les variantes du système, de nouveaux scripts d’installation pour le média Live ou encore l’unification de /usr/bin et /usr/sbin.
Enfin, KDE devrait être propulsé sur le devant de la scène avec Fedora 42, relevait récemment Phoronix. Une proposition de faire du spin KDE une édition officielle à part entière a été acceptée. En clair, il s’agirait d’une nouvelle édition de Fedora, proposée au même niveau que l’actuelle Workstation, toujours basée sur GNOME. Les deux devraient être proposées côte à côte, en reconnaissance du travail fourni par les développeurs du Fedora KDE Special Interest Group (SIG).
Quand on choisit de synchroniser ses identifiants et mots de passe avec un compte Apple, Google ou Microsoft, il existe plusieurs moyens de les récupérer en fonction du contexte. Pour Microsoft, cela passe par son application Authenticator sur Android et iOS. On peut la configurer comme gestionnaire de mots de passe par défaut, permettant de rappeler ses identifiants dans les autres applications.
Et dans les navigateurs ? Microsoft synchronise bien sûr les données avec Edge. Pour les autres navigateurs basés sur Chromium, l’extension Autofill existe depuis février 2021. Firefox n’y a jamais eu droit.
Cependant, comme un lecteur nous en a informé, cette extension va disparaitre. Elle sera supprimée le 14 décembre, dans à peine un mois. Yoann, avec qui nous avons échangé, est concerné de près : il se sert de Vivaldi et utilisait jusqu’à présent la sauvegarde dans le compte de Microsoft.
Que donne Microsoft comme solution ? Une bascule vers Edge. « Pas question que j’abandonne Vivaldi », nous a cependant répondu Yoann. De fait, on comprend mal cet abandon chez l’éditeur. L’opération a toutes les apparences d’une tentative forcée de rabattre des utilisateurs vers Edge. Sur sa page, Microsoft dit avoir décidé de « simplifier ses offres ». Les personnes concernées apprécieront de devoir changer de navigateur parce que l’entreprise ne veut plus maintenir son extension.
Nous avons souligné ce problème dans notre récent article sur l’utilisation pratique des clés d’accès. Bien que ces dernières soient efficaces et globalement au niveau de leurs promesses, le choix de l’entreprise chez qui les stocker est déterminant.
Quel que soit le service que vous utilisez pour stocker et synchroniser vos secrets, mieux vaut s’assurer qu’il est disponible sur toutes les plateformes et dans tous les navigateurs dont vous vous servez. Dans le cas contraire, ce sera une source fréquente d’agacements.
Si l’on parle beaucoup de Bluesky actuellement, notamment à cause de nombreux transfuges de X, le réseau social de Meta croît également. Et les chiffres sont difficilement comparables, puisque Threads a reçu 15 millions de nouveaux utilisateurs sur les seuls 15 derniers jours. Ce qui fait dire à The Verge que « Threads a grandi d’un Bluesky ce mois-ci ».
La force de frappe est bien sûr très différente. Bluesky est pratiquement « parti de rien », sans glissement depuis une autre plateforme, et avec très peu de fonctions initialement. Threads, de son côté, est rattaché à Instagram et son immense base d’utilisateurs. Les liens vers Threads sont nombreux et Meta pousse copieusement à son utilisation.
Le même Mosseri a indiqué hier que Threads ne demande désormais plus, après l’inscription, si l’on souhaite suivre automatiquement tous les comptes que l’on suit déjà sur Instagram. Le responsable affirme qu’après un test de quelques mois, l’équipe s’est rendu compte que les utilisateurs allaient plus souvent sur Threads en partant d’une liste vierge.
« Nous savons qu’il nous reste encore beaucoup à faire, et nos équipes travaillent dur pour apporter à cette communauté ce dont elle a besoin. Nous vous apprécions tous », a également ajouté Mosseri. Il reste, en effet, de nombreux manques dans Threads, particulièrement quand on le compare à X, dont il est à l’heure actuelle le principal concurrent.
Toujours pas de messages directs intégrés
C’est notamment le cas des messages directs (DM). Répondant à un message de la journaliste Katie Notopoulos, Adam Mosseri a indiqué qu’il fallait y réfléchir. Le système de messages sur Threads est en effet particulier : il faut passer par Instagram. La journaliste trouvait pour sa part qu’il y avait une certaine « perversité » à se rendre sur l’Instagram d’une personne pour lui envoyer un message. Elle dit ne jamais avoir eu ce ressenti sur Twitter.
On peut lire dans les réactions que la demande est populaire. Beaucoup parlent de la friction à changer d’application pour discuter en tête-à-tête avec des personnes présentes sur Threads, d’autres de cassure dans l’expérience. D’autres encore suggèrent différentes approches, comme l’intégration d’un onglet dans Threads pour afficher la messagerie d’Instagram.
De nombreux travaux encore à prévoir
L’autre gros reproche fait à Threads est l’algorithme de son flux principal, contre lequel le journaliste Tom Warren, de The Verge, ne mâchait pas ses mots il y a quelques jours. Là encore, on peut lire dans les réponses les mêmes reproches que l’on peut lire sur X : l’impossibilité d’un ordre chronologique par défaut et la mise en avant des contenus à fort engagement, jugés par beaucoup comme autant de « clickbaits ».
Enfin, Threads se prépare à ajouter de la publicité à son réseau social dès le début de l’année prochaine, c’est du moins ce qu’affirme The Information en se basant sur des déclarations de trois sources. Elle devrait être ajouté progressivement, mais nos confrères n’ont pas plus de détails.
Depuis plusieurs versions, l’une des nouveautés prévues est la bascule de l’installeur Anaconda vers WebUI. Comme Ubuntu l’a déjà fait avec Flutter, il s’agit de réécrire complètement le processus d’installation pour le moderniser et lui apporter de nouvelles fonctions. Dans le cas d’Ubuntu, on a pu voir, par exemple, des options d’accessibilité ajoutées dès le début de l’installation.
Pourtant, WebUI n’arrive pas. Il est à nouveau prévu pour Fedora 42, qui arrivera au printemps prochain. Mais parallèlement, l’équipe de développement travaille sur un autre projet : abandonner complètement X11 via le passage du processus d’installation à Wayland. Le serveur d’affichage a beau être utilisé par défaut depuis Fedora 25, X11 est toujours présent.
Dans la proposition faite par l’équipe, on apprend qu’elle veut se débarrasser de l’ensemble des dépendances X11 dans les images ISO d’installation. Dans la foulée, Xorg serait également supprimé dans les distributions CentOS Stream et bien sûr RHEL.
Comme l’indique l’équipe, ce n’est pas si simple. Il faut notamment supprimer TigerVNC, qui permet l’installation à distance avec interface graphique. L’idée serait de le remplacer par Gnome Remote Desktop (grd), avec à la clé une sécurité accrue et de meilleures performances.
Il faudrait également abandonner libXklavier (qui gère la disposition des claviers), à cause d’instabilités avec Wayland. Dans ce cas, c’est un peu le « bazar », car Wayland n’a pas d’API unifiée pour la gestion du clavier. L’équipe n’a pas les moyens de maintenir une solution personnalisée pour chaque spin (variante) de Fedora. Notant que plusieurs environnements de bureau se sont orientés vers l’API systemd-localed, elle recommande donc cette approche.
Fedora 42 s’annonce, quoi qu’il en soit, comme une version importante, avec des modifications majeures, comme le rapporte 9to5Linux. Par exemple, l’activation de Copy on Write sur DNF et RPM dans toutes les variantes du système, de nouveaux scripts d’installation pour le média Live ou encore l’unification de /usr/bin et /usr/sbin.
Enfin, KDE devrait être propulsé sur le devant de la scène avec Fedora 42, relevait récemment Phoronix. Une proposition de faire du spin KDE une édition officielle à part entière a été acceptée. En clair, il s’agirait d’une nouvelle édition de Fedora, proposée au même niveau que l’actuelle Workstation, toujours basée sur GNOME. Les deux devraient être proposées côte à côte, en reconnaissance du travail fourni par les développeurs du Fedora KDE Special Interest Group (SIG).
La société allemande, spécialisée dans la traduction, manquait depuis plusieurs années d’un service permettant d’afficher immédiatement des sous-titres traduits à partir de sources audio. Alors que de nombreuses entreprises s’y sont mises, dont Google et Microsoft, DeepL comble enfin cette absence.
Dans son billet de blog, DeepL cite plusieurs études pour étayer son propos. Ainsi, selon le NBER (National Bureau of Economic Research), 33,8 % du temps passé en réunion serait perdu à cause de problèmes de compréhension entre les participants. Pour Axios HQ, il en coûte aux entreprises jusqu’à 54 860 dollars par employé et par an, toujours à cause des incompréhensions et du temps perdu.
DeepL se propose bien sûr de réduire cette f(r)acture avec son nouveau produit. À TechCrunch, la société explique qu’il s’agissait de la demande la plus fréquente des clients depuis 2017. Pourquoi avoir mis tout ce temps ? Parce qu’elle a développé son propre modèle de langage, plutôt que de s’appuyer sur un modèle existant, comme GPT.
DeepL Voice se destine donc avant tout aux entreprises. Le nouveau service est divisé en deux versions : l’une pour les réunions, l’autre pour les conversations. Dans la première, des cadres apparaissent près des participants pour traduire ce qu’ils disent. DeepL met largement en avant les gains de temps quand les réunions réunissent des personnes d’un peu partout dans le monde.
Dans la seconde, c’est le téléphone qui sert d’interface entre deux personnes. Là encore, les cas d’usages envisagés se font toujours dans un cadre professionnel, par exemple quand un employé s’adresse à un client étranger.
Par TechCrunch, on apprend aussi plusieurs éléments importants. D’abord, que DeepL Voice n’est pas disponible sous forme d’API que les applications peuvent intégrer comme elles le souhaitent. DeepL travaille spécifiquement avec d’autres entreprises pour intégrer sa technologie. Dans le cadre des réunions, le seul produit à en bénéficier est pour l’instant Teams de Microsoft. Il n’est pas non plus question pour l’instant d’une intégration par exemple dans les navigateurs sous forme d’extension.
DeepL indique également que rien n’est sauvegardé. Les données vocales sont bien envoyées vers les serveurs, mais rien n’y serait stocké, ni pour des questions d’archivage ni pour l’entrainement des modèles. Il est possible, comme le notent nos confrères, que tout le monde ne soit pas à l’aise à l’idée que tous ses propos soient envoyés à une entreprise pour analyse. DeepL a cependant cherché à rassurer en indiquant que la question du RGPD ou de toute autre réglementation du même acabit était travaillée avec ses clients.
Avec les PC Copilot+, Microsoft propose de la traduction automatique, mais vers une poignée de langues pour l’instant. Cette solution, qui exploite le NPU des machines, a néanmoins l’avantage d’être locale.