Vue lecture

☕️ Chrome se dote de plusieurs outils dédiés aux performances

La dernière version de Chrome s’est équipée de plusieurs ajouts liés aux performances et à leur surveillance. La principale nouveauté peut se trouver dans la section Performances des paramètres du navigateur.

La ligne « Alertes concernant les problèmes de performances » est active par défaut et va prévenir l’utilisateur quand le comportement de certains onglets devient erratique. La grande consommation de ressources est alors signalée quand elle peut avoir un impact sur l’utilisation de l’onglet en cours.

La fonction pointe alors les onglets fautifs et propose de les désactiver. Pour rappel, cette fonction – désormais commune à tous les principaux navigateurs – décharge les ressources consommées par les onglets. Elles ne sont rechargées que si l’on revient dessus. Ce mécanisme est utilisé pour l’endormissement des onglets après un certain temps d’inactivité. Les onglets désactivés sont affichés avec un cercle en pointillés autour de leur icône.

Parallèlement, l’économiseur de mémoire peut désormais être paramétré selon trois crans :

  • Modéré :  désactive les onglets en fonction des besoins du système
  • Équilibré : tient compte des habitudes de navigation et des besoins du système
  • Maximal : désactive les onglets lorsque vous cessez de les utiliser, plus rapidement que les deux autres modes

La fonction est désactivée par défaut. Lorsqu’elle est activée, elle est réglée sur Équilibré, qui s’affiche avec une mention « Recommandé ».

Enfin, il est possible d’établir des paramètres plus personnalisés. Par exemple, on peut indiquer les sites devant toujours rester actifs. Les cercles en pointillés peuvent être désactivés, de même que la quantité de mémoire consommée dans le panneau qui s’affiche au survol d’un onglet par la souris.

Microsoft se bat encore contre Midnight Blizzard, cette fois pour du harponnage

Clique, on va te dépanner
Microsoft se bat encore contre Midnight Blizzard, cette fois pour du harponnage

Dans une communication du 29 octobre, Microsoft a averti d’une importante campagne de spear phishing – une forme de phishing très ciblé – contre des milliers de personnes aux États-Unis. Le groupe malveillant russe Midnight Blizzard serait derrière l’attaque. Signe particulier : des fichiers RDP ont été utilisés pour la première fois.

Microsoft est en guerre contre le groupe Midnight Blizzard (aussi appelé Nobelium, APT29 ou Cozy Bear) depuis plusieurs années maintenant. En aout 2023, par exemple, la société prévenait que le groupe, décrit par plusieurs sociétés de sécurité comme proche du gouvernement russe, s’était lancé dans une vaste campagne de phishing sur Teams.

Mais c’est surtout Midnight Blizzard que l’on a retrouvé derrière l’opération qui a mené au piratage de plusieurs boites mails de dirigeants de l’entreprise. Les pirates ont ensuite tenté de récupérer des informations internes et du code source. Google les a même épinglés pour leurs techniques très proches de sociétés comme Intellexa et NSO (auteur du fameux Pegasus).

Dans un billet de sécurité publié le 29 octobre, Microsoft prévient cette fois que Midnight Blizzard est à l’origine d’une nouvelle campagne. Cette fois cependant, il s’agit de spear phishing (ou harponnage), une forme très personnalisée de phishing, dans le but de récupérer des informations sensibles. L’entreprise dit communiquer sur le sujet « pour informer le public et perturber l’activité de cet acteur malveillant ».

Une campagne très ciblée

L’opération aurait débuté le 22 octobre. Des emails ont été envoyés à plusieurs milliers de personnes réparties dans une centaine d’organisations diverses. Des membres du gouvernement américain, du personnel d’universités, de la défense, d’ONG et d’autres secteurs ont ainsi été visés. « Nous estimons que l’objectif de cette opération est probablement la collecte de renseignements », indique Microsoft.

Selon l’entreprise, l’opération – toujours en cours – est dans la lignée des précédentes de Midnight Blizzard, que ce soit au travers des cibles ou de la finalité. « Ses opérations impliquent souvent la compromission de comptes valides et, dans certains cas très ciblés, des techniques avancées pour compromettre les mécanismes d’authentification au sein d’une organisation afin d’élargir l’accès et d’échapper à la détection », explique ainsi l’éditeur.

Les emails envoyés utilisent des techniques d’ingénierie sociale en lien avec Microsoft, Amazon Web Services et même le concept de confiance zéro. On apprécie bien sûr l’ironie de la situation, devant un texte fait pour inspirer la confiance. Le contenu de ces courriels semblerait à s’y méprendre comme envoyé par des employés de Microsoft.

Comment les pirates ont-ils pu cibler ces personnes spécifiques ? Grâce à de précédentes compromissions, qui ont permis aux pirates de collecter les adresses emails.

La technique employée, en revanche, est nouvelle

Microsoft a observé dans la campagne une technique qu’elle n’avait encore jamais vue. La société explique ainsi que les emails contiennent un fichier .rdp. RDP, pour Remote Desktop Protocol, pointe vers l’outil d’accès à distance, qui peut également servir à faire de la prise de contrôle. Ce type d’outil est très courant et simplifie beaucoup la gestion d’un parc ou même le dépannage à distance d’un proche.

Dans le cas présent, le fichier est signé avec un certificat obtenu auprès de Let’s Encrypt. Il contient plusieurs paramètres décrits comme « sensibles », pouvant entrainer une exposition des informations chez le client. S’il est ouvert, le fichier connecte ce dernier à un serveur contrôlé par Midnight Blizzard. Un mapping bidirectionnel entre le client et le serveur est également mis en place. Tout le contenu des disques et du presse-papiers, l’ensemble des périphériques connectés, l’audio, les équipements comme les lecteurs de cartes ainsi que les fonctions d’authentification deviennent alors accessibles par les pirates.

La session n’a pas d’autre but que de dérober des informations et/ou d’installer des malwares. Ces derniers se chargeront alors d’entretenir le lien entre la machine contaminée et le serveur. En dépit des soins pris par les pirates pour personnaliser l’attaque, on peut voir dans les images fournies par Microsoft que l’ouverture du fichier .rdp provoque l’apparition d’une fenêtre indiquant qu’un test va avoir lieu. Celui-ci est censé mesurer la stabilité d’une connexion à AWS Secure Storage. Ce pourrait être effectivement le cas, mais le fait de mettre en avant Amazon Web Services dans un email prétendument envoyé par un employé de Microsoft peut interroger des personnes prudentes.

De nombreuses mesures pour atténuer les risques

Microsoft dresse une longue liste de mesures que les structures peuvent mettre en place pour ne pas tomber dans ce genre de piège. Bien que l’ingénierie sociale ne puisse jamais complètement être éliminée, des règles peuvent être mises en place pour casser certains scénarios ou en atténuer les effets.

L’utilisation d’un pare-feu pour empêcher ou limiter les connexions RDP sortantes vers des réseaux externes ou publics est ainsi en première place des suggestions. Suit rapidement l’authentification multifactorielle (MFA), quand un autre appareil est utilisé pour confirmer une demande d’authentification. Même si Microsoft décrit la mesure comme un « pilier essentiel de la sécurité », la même entreprise avait montré en aout 2022 qu’elle n’était pas non plus l’alpha et l’oméga de la protection. Mais les moyens à mettre en œuvre pour la contourner sont aussi plus importants. Microsoft recommande à ce titre d’éviter si possible les téléphones pour éviter les risques liés à la carte SIM.

Si l’entreprise en profite pour mettre en avant certains de ses produits et services, tel que Defender SmartScreen dans Edge, les conseils donnés restent assez généraux. Elle recommande par exemple la mise en œuvre de l’accès conditionnel avec authentification forte. L’accès conditionnel permet de n’autoriser un appareil à se connecter au réseau que s’il répond à des critères spécifiques, comme sa géolocalisation, l’installation d’une certaine mise à jour ou encore l’application de règles précises. L’authentification forte permettra de confirmer une identité avant l’accès à une application critique.

Suivent une série de conseils pour configurer certains produits courants, comme Office 365. Pour ce dernier, Microsoft conseille ainsi d’activer les liens et pièces jointes sécurisés, ainsi que la Zero-hour auto purge (ZAP). Cette dernière permet la récupération d’informations sur les nouvelles campagnes malveillantes. Elle peut alors proactivement mettre en quarantaine les emails considérés comme suspicieux et rétroactivement isoler ceux déjà présents dans les boites de réception.

☕️ Un paquet malveillant Python ciblait les portefeuilles de cryptomonnaies

Dans un billet publié mardi par GitHub, on a appris que l’usage du Python avait désormais dépassé celui de JavaScript. « Python est fortement utilisé dans les domaines de l’apprentissage automatique, de la science des données, de l’informatique scientifique, des loisirs et de la domotique, entre autres », explique l’entreprise. Dès lors, il n’est pas étonnant de voir le Python grimper en flèche, au vu de l’explosion des développements autour de l’IA.

La société note quand même que les « langages de programmation de systèmes, comme Rust, sont également en hausse, même si Python, JavaScript, TypeScript et Java restent les langages les plus utilisés sur GitHub ».

C’est probablement cette popularité que des pirates ont voulu exploiter. Dans un billet publié hier, la société de sécurité Checkmark explique qu’un paquet nommé CryptoAITools a été publié sur le Python Package Index (PyPI) et de faux dépôts GitHub. Il a été téléchargé 1 300 fois avant d’être supprimé de l’Index. Il a donc pu accomplir un certain nombre de méfaits avant d’être détecté.

Il est conçu pour Windows et macOS et s’active dès l’installation ; grâce à un code présent dans son fichier __init__.py. Il présente une interface trompeuse, conçue pour duper les utilisateurs pendant qu’il active ses fonctions malveillantes.

Le code peut être utilisé pour récupérer d’autres charges utiles depuis le site coinsw[.]app, qui avait toutes les apparences d’un vrai site, pour tromper la vigilance des personnes qui seraient allées voir. Le site faisait la promotion d’un bot d’échange de cryptomonnaies.

Le malware est conçu pour voler des données personnelles et puiser dans les actifs des portefeuilles de cryptomonnaies. Les informations ainsi récupérées sont nombreuses : portefeuilles de crypto-monnaies (Bitcoin, Ethereum, Exodus, Atomic, Electrum, etc.), mots de passe enregistrés, cookies, historique de navigation, extensions de cryptomonnaies, clés SSH, fichiers stockés dans les répertoires Téléchargements, Documents, Bureau qui référencent des cryptomonnaies, informations financières…

« La campagne de logiciels malveillants CryptoAITools a de graves conséquences pour les victimes et la communauté des crypto-monnaies au sens large. Les utilisateurs qui ont mis en vedette ou forké le dépôt malveillant ‘Meme-Token-Hunter-Bot’ sont des victimes potentielles, ce qui élargit considérablement la portée de l’attaque », indique Checkmark.

La société a également découvert un dépôt GitHub, nommé Meme Token Hunter Bot, qui distribue le même malware. Le dépôt est toujours en ligne, et on peut voir qu’il a été forké une fois et mis en favori dix fois.

☕️ Chrome se dote de plusieurs outils dédiés aux performances

La dernière version de Chrome s’est équipée de plusieurs ajouts liés aux performances et à leur surveillance. La principale nouveauté peut se trouver dans la section Performances des paramètres du navigateur.

La ligne « Alertes concernant les problèmes de performances » est active par défaut et va prévenir l’utilisateur quand le comportement de certains onglets devient erratique. La grande consommation de ressources est alors signalée quand elle peut avoir un impact sur l’utilisation de l’onglet en cours.

La fonction pointe alors les onglets fautifs et propose de les désactiver. Pour rappel, cette fonction – désormais commune à tous les principaux navigateurs – décharge les ressources consommées par les onglets. Elles ne sont rechargées que si l’on revient dessus. Ce mécanisme est utilisé pour l’endormissement des onglets après un certain temps d’inactivité. Les onglets désactivés sont affichés avec un cercle en pointillés autour de leur icône.

Parallèlement, l’économiseur de mémoire peut désormais être paramétré selon trois crans :

  • Modéré :  désactive les onglets en fonction des besoins du système
  • Équilibré : tient compte des habitudes de navigation et des besoins du système
  • Maximal : désactive les onglets lorsque vous cessez de les utiliser, plus rapidement que les deux autres modes

La fonction est désactivée par défaut. Lorsqu’elle est activée, elle est réglée sur Équilibré, qui s’affiche avec une mention « Recommandé ».

Enfin, il est possible d’établir des paramètres plus personnalisés. Par exemple, on peut indiquer les sites devant toujours rester actifs. Les cercles en pointillés peuvent être désactivés, de même que la quantité de mémoire consommée dans le panneau qui s’affiche au survol d’un onglet par la souris.

Microsoft se bat encore contre Midnight Blizzard, cette fois pour du harponnage

Clique, on va te dépanner
Microsoft se bat encore contre Midnight Blizzard, cette fois pour du harponnage

Dans une communication du 29 octobre, Microsoft a averti d’une importante campagne de spear phishing – une forme de phishing très ciblé – contre des milliers de personnes aux États-Unis. Le groupe malveillant russe Midnight Blizzard serait derrière l’attaque. Signe particulier : des fichiers RDP ont été utilisés pour la première fois.

Microsoft est en guerre contre le groupe Midnight Blizzard (aussi appelé Nobelium, APT29 ou Cozy Bear) depuis plusieurs années maintenant. En aout 2023, par exemple, la société prévenait que le groupe, décrit par plusieurs sociétés de sécurité comme proche du gouvernement russe, s’était lancé dans une vaste campagne de phishing sur Teams.

Mais c’est surtout Midnight Blizzard que l’on a retrouvé derrière l’opération qui a mené au piratage de plusieurs boites mails de dirigeants de l’entreprise. Les pirates ont ensuite tenté de récupérer des informations internes et du code source. Google les a même épinglés pour leurs techniques très proches de sociétés comme Intellexa et NSO (auteur du fameux Pegasus).

Dans un billet de sécurité publié le 29 octobre, Microsoft prévient cette fois que Midnight Blizzard est à l’origine d’une nouvelle campagne. Cette fois cependant, il s’agit de spear phishing (ou harponnage), une forme très personnalisée de phishing, dans le but de récupérer des informations sensibles. L’entreprise dit communiquer sur le sujet « pour informer le public et perturber l’activité de cet acteur malveillant ».

Une campagne très ciblée

L’opération aurait débuté le 22 octobre. Des emails ont été envoyés à plusieurs milliers de personnes réparties dans une centaine d’organisations diverses. Des membres du gouvernement américain, du personnel d’universités, de la défense, d’ONG et d’autres secteurs ont ainsi été visés. « Nous estimons que l’objectif de cette opération est probablement la collecte de renseignements », indique Microsoft.

Selon l’entreprise, l’opération – toujours en cours – est dans la lignée des précédentes de Midnight Blizzard, que ce soit au travers des cibles ou de la finalité. « Ses opérations impliquent souvent la compromission de comptes valides et, dans certains cas très ciblés, des techniques avancées pour compromettre les mécanismes d’authentification au sein d’une organisation afin d’élargir l’accès et d’échapper à la détection », explique ainsi l’éditeur.

Les emails envoyés utilisent des techniques d’ingénierie sociale en lien avec Microsoft, Amazon Web Services et même le concept de confiance zéro. On apprécie bien sûr l’ironie de la situation, devant un texte fait pour inspirer la confiance. Le contenu de ces courriels semblerait à s’y méprendre comme envoyé par des employés de Microsoft.

Comment les pirates ont-ils pu cibler ces personnes spécifiques ? Grâce à de précédentes compromissions, qui ont permis aux pirates de collecter les adresses emails.

La technique employée, en revanche, est nouvelle

Microsoft a observé dans la campagne une technique qu’elle n’avait encore jamais vue. La société explique ainsi que les emails contiennent un fichier .rdp. RDP, pour Remote Desktop Protocol, pointe vers l’outil d’accès à distance, qui peut également servir à faire de la prise de contrôle. Ce type d’outil est très courant et simplifie beaucoup la gestion d’un parc ou même le dépannage à distance d’un proche.

Dans le cas présent, le fichier est signé avec un certificat obtenu auprès de Let’s Encrypt. Il contient plusieurs paramètres décrits comme « sensibles », pouvant entrainer une exposition des informations chez le client. S’il est ouvert, le fichier connecte ce dernier à un serveur contrôlé par Midnight Blizzard. Un mapping bidirectionnel entre le client et le serveur est également mis en place. Tout le contenu des disques et du presse-papiers, l’ensemble des périphériques connectés, l’audio, les équipements comme les lecteurs de cartes ainsi que les fonctions d’authentification deviennent alors accessibles par les pirates.

La session n’a pas d’autre but que de dérober des informations et/ou d’installer des malwares. Ces derniers se chargeront alors d’entretenir le lien entre la machine contaminée et le serveur. En dépit des soins pris par les pirates pour personnaliser l’attaque, on peut voir dans les images fournies par Microsoft que l’ouverture du fichier .rdp provoque l’apparition d’une fenêtre indiquant qu’un test va avoir lieu. Celui-ci est censé mesurer la stabilité d’une connexion à AWS Secure Storage. Ce pourrait être effectivement le cas, mais le fait de mettre en avant Amazon Web Services dans un email prétendument envoyé par un employé de Microsoft peut interroger des personnes prudentes.

De nombreuses mesures pour atténuer les risques

Microsoft dresse une longue liste de mesures que les structures peuvent mettre en place pour ne pas tomber dans ce genre de piège. Bien que l’ingénierie sociale ne puisse jamais complètement être éliminée, des règles peuvent être mises en place pour casser certains scénarios ou en atténuer les effets.

L’utilisation d’un pare-feu pour empêcher ou limiter les connexions RDP sortantes vers des réseaux externes ou publics est ainsi en première place des suggestions. Suit rapidement l’authentification multifactorielle (MFA), quand un autre appareil est utilisé pour confirmer une demande d’authentification. Même si Microsoft décrit la mesure comme un « pilier essentiel de la sécurité », la même entreprise avait montré en aout 2022 qu’elle n’était pas non plus l’alpha et l’oméga de la protection. Mais les moyens à mettre en œuvre pour la contourner sont aussi plus importants. Microsoft recommande à ce titre d’éviter si possible les téléphones pour éviter les risques liés à la carte SIM.

Si l’entreprise en profite pour mettre en avant certains de ses produits et services, tel que Defender SmartScreen dans Edge, les conseils donnés restent assez généraux. Elle recommande par exemple la mise en œuvre de l’accès conditionnel avec authentification forte. L’accès conditionnel permet de n’autoriser un appareil à se connecter au réseau que s’il répond à des critères spécifiques, comme sa géolocalisation, l’installation d’une certaine mise à jour ou encore l’application de règles précises. L’authentification forte permettra de confirmer une identité avant l’accès à une application critique.

Suivent une série de conseils pour configurer certains produits courants, comme Office 365. Pour ce dernier, Microsoft conseille ainsi d’activer les liens et pièces jointes sécurisés, ainsi que la Zero-hour auto purge (ZAP). Cette dernière permet la récupération d’informations sur les nouvelles campagnes malveillantes. Elle peut alors proactivement mettre en quarantaine les emails considérés comme suspicieux et rétroactivement isoler ceux déjà présents dans les boites de réception.

☕️ Un paquet malveillant Python ciblait les portefeuilles de cryptomonnaies

Dans un billet publié mardi par GitHub, on a appris que l’usage du Python avait désormais dépassé celui de JavaScript. « Python est fortement utilisé dans les domaines de l’apprentissage automatique, de la science des données, de l’informatique scientifique, des loisirs et de la domotique, entre autres », explique l’entreprise. Dès lors, il n’est pas étonnant de voir le Python grimper en flèche, au vu de l’explosion des développements autour de l’IA.

La société note quand même que les « langages de programmation de systèmes, comme Rust, sont également en hausse, même si Python, JavaScript, TypeScript et Java restent les langages les plus utilisés sur GitHub ».

C’est probablement cette popularité que des pirates ont voulu exploiter. Dans un billet publié hier, la société de sécurité Checkmark explique qu’un paquet nommé CryptoAITools a été publié sur le Python Package Index (PyPI) et de faux dépôts GitHub. Il a été téléchargé 1 300 fois avant d’être supprimé de l’Index. Il a donc pu accomplir un certain nombre de méfaits avant d’être détecté.

Il est conçu pour Windows et macOS et s’active dès l’installation ; grâce à un code présent dans son fichier __init__.py. Il présente une interface trompeuse, conçue pour duper les utilisateurs pendant qu’il active ses fonctions malveillantes.

Le code peut être utilisé pour récupérer d’autres charges utiles depuis le site coinsw[.]app, qui avait toutes les apparences d’un vrai site, pour tromper la vigilance des personnes qui seraient allées voir. Le site faisait la promotion d’un bot d’échange de cryptomonnaies.

Le malware est conçu pour voler des données personnelles et puiser dans les actifs des portefeuilles de cryptomonnaies. Les informations ainsi récupérées sont nombreuses : portefeuilles de crypto-monnaies (Bitcoin, Ethereum, Exodus, Atomic, Electrum, etc.), mots de passe enregistrés, cookies, historique de navigation, extensions de cryptomonnaies, clés SSH, fichiers stockés dans les répertoires Téléchargements, Documents, Bureau qui référencent des cryptomonnaies, informations financières…

« La campagne de logiciels malveillants CryptoAITools a de graves conséquences pour les victimes et la communauté des crypto-monnaies au sens large. Les utilisateurs qui ont mis en vedette ou forké le dépôt malveillant ‘Meme-Token-Hunter-Bot’ sont des victimes potentielles, ce qui élargit considérablement la portée de l’attaque », indique Checkmark.

La société a également découvert un dépôt GitHub, nommé Meme Token Hunter Bot, qui distribue le même malware. Le dépôt est toujours en ligne, et on peut voir qu’il a été forké une fois et mis en favori dix fois.

☕️ Apple présente ses nouveaux MacBook Pro et sa puce M4 Max

Après les iMac et le Mac mini, c’est au tour des MacBook Pro de passer à la moulinette de la puce M4. Cette fois, les portables ont accès aux trois variantes de la puce : M4, M4 Pro et M4 Max. Comme pour les générations précédentes, c’est bien sûr la version Max qui offre les meilleures performances.

La puce M4 Max comporte jusqu’à 16 cœurs : 12 performants (2 de plus que sur la version Pro) et 4 efficaces. Si le M4 Pro voyait ses cœurs GPU doubler pour passer de 10 à 20, c’est encore le cas sur la version Max, avec jusqu’à 40 cœurs GPU, soit le même nombre que dans les versions précédentes. En revanche, GPU doublé oblige, la puce intègre deux codeurs/décodeurs vidéo.

La bande passante de la mémoire reste sur 512 bits, mais passe de 410 Go/s à un maximum 546 Go/s. La puce M4 Max peut supporter jusqu’à 128 Go de RAM. On retrouve la compatibilité Thunderbolt 5. Le Neural Engine garde ses 16 cœurs. Nous reviendrons prochainement plus en détail sur les caractéristiques de cette puce.

Quant aux MacBook Pro, la présentation de la gamme n’a pas changé. On retrouve toujours six configurations de base proposées : trois en M4, deux en M4 Pro et une M4 Max. La version 14 pouces du portable peut être configurée en M4 classique ou Pro. En revanche, la version 16 pouces ne peut avoir que du Pro au minimum.

La mémoire et la taille du SSD dépendent de la machine visée. On trouve au minimum 16 Go de RAM et 512 Go de SSD sur le MacBook Pro M4 en 14 pouces. En M4 Pro, la quantité minimale de RAM passe à 24 Go, toujours en 512 Go. Quant aux versions M4 Max, il y en a deux. La première intègre une puce à 14 cœurs CPU et 32 cœurs GPU, 36 Go de RAM et 1 To de SSD, et existe en modèles 14 et 16 pouces. La seconde possède le M4 Max « complet » avec ses 16 cœurs CPU et 40 cœurs GPU, épaulés par 48 Go de RAM et 1 To de SSD, et n’existe qu’en 16 pouces.

Tous les MacBook Pro présentent de nombreuses caractéristiques communes : trois ports Thunderbolt 4 (sur les modèles M4) ou 5 (sur les modèles Pro et Max), un port HDMI, un lecteur de carte SDXC, une prise casque, un port MagSafe 3, TouchID intégré au clavier, une luminosité de 1 000 nits, une autonomie pouvant grimper jusqu’à 24 heures (contre 22 sur la génération précédente) en lecture vidéo, du Wi-Fi 6E (dommage) et du Bluetooth 5.3. Tout ce petit monde est bien sûr taillé pour Apple Intelligence.

En ce qui concerne les prix, nous ne sommes plus sur le tarif d’appel du Mac mini et ses 700 euros (qui certes n’avait ni écran ni périphériques). Le plus petit modèle de MacBook Pro M4 est vendu au prix de 1 899 euros. Quand on passe au M4 Pro, le tarif minimal devient 2 399 euros pour du 14 pouces et 2 899 euros pour du 16 pouces (mais dans une version avec plus de cœurs). Quant au M4 Max, il vous en coutera au moins 3 799 euros en 14 pouces 4 099 euros en 16 pouces.

Les précommandes sont ouvertes, pour des livraisons débutant le 8 novembre.

À noter que même si Apple ne le proclame pas, tous les MacBook Air (actuellement équipés d’une puce M3) viennent de voir leur mémoire doubler et passer à 16 Go, sans modification du tarif.

☕️ Apple présente ses nouveaux MacBook Pro et sa puce M4 Max

Après les iMac et le Mac mini, c’est au tour des MacBook Pro de passer à la moulinette de la puce M4. Cette fois, les portables ont accès aux trois variantes de la puce : M4, M4 Pro et M4 Max. Comme pour les générations précédentes, c’est bien sûr la version Max qui offre les meilleures performances.

La puce M4 Max comporte jusqu’à 16 cœurs : 12 performants (2 de plus que sur la version Pro) et 4 efficaces. Si le M4 Pro voyait ses cœurs GPU doubler pour passer de 10 à 20, c’est encore le cas sur la version Max, avec jusqu’à 40 cœurs GPU, soit le même nombre que dans les versions précédentes. En revanche, GPU doublé oblige, la puce intègre deux codeurs/décodeurs vidéo.

La bande passante de la mémoire reste sur 512 bits, mais passe de 410 Go/s à un maximum 546 Go/s. La puce M4 Max peut supporter jusqu’à 128 Go de RAM. On retrouve la compatibilité Thunderbolt 5. Le Neural Engine garde ses 16 cœurs. Nous reviendrons prochainement plus en détail sur les caractéristiques de cette puce.

Quant aux MacBook Pro, la présentation de la gamme n’a pas changé. On retrouve toujours six configurations de base proposées : trois en M4, deux en M4 Pro et une M4 Max. La version 14 pouces du portable peut être configurée en M4 classique ou Pro. En revanche, la version 16 pouces ne peut avoir que du Pro au minimum.

La mémoire et la taille du SSD dépendent de la machine visée. On trouve au minimum 16 Go de RAM et 512 Go de SSD sur le MacBook Pro M4 en 14 pouces. En M4 Pro, la quantité minimale de RAM passe à 24 Go, toujours en 512 Go. Quant aux versions M4 Max, il y en a deux. La première intègre une puce à 14 cœurs CPU et 32 cœurs GPU, 36 Go de RAM et 1 To de SSD, et existe en modèles 14 et 16 pouces. La seconde possède le M4 Max « complet » avec ses 16 cœurs CPU et 40 cœurs GPU, épaulés par 48 Go de RAM et 1 To de SSD, et n’existe qu’en 16 pouces.

Tous les MacBook Pro présentent de nombreuses caractéristiques communes : trois ports Thunderbolt 4 (sur les modèles M4) ou 5 (sur les modèles Pro et Max), un port HDMI, un lecteur de carte SDXC, une prise casque, un port MagSafe 3, TouchID intégré au clavier, une luminosité de 1 000 nits, une autonomie pouvant grimper jusqu’à 24 heures (contre 22 sur la génération précédente) en lecture vidéo, du Wi-Fi 6E (dommage) et du Bluetooth 5.3. Tout ce petit monde est bien sûr taillé pour Apple Intelligence.

En ce qui concerne les prix, nous ne sommes plus sur le tarif d’appel du Mac mini et ses 700 euros (qui certes n’avait ni écran ni périphériques). Le plus petit modèle de MacBook Pro M4 est vendu au prix de 1 899 euros. Quand on passe au M4 Pro, le tarif minimal devient 2 399 euros pour du 14 pouces et 2 899 euros pour du 16 pouces (mais dans une version avec plus de cœurs). Quant au M4 Max, il vous en coutera au moins 3 799 euros en 14 pouces 4 099 euros en 16 pouces.

Les précommandes sont ouvertes, pour des livraisons débutant le 8 novembre.

À noter que même si Apple ne le proclame pas, tous les MacBook Air (actuellement équipés d’une puce M3) viennent de voir leur mémoire doubler et passer à 16 Go, sans modification du tarif.

Dénonçant un manque d’investissement de Google, un développeur forke Flutter

Sans dessin acide
Dénonçant un manque d’investissement de Google, un développeur forke Flutter

La gestion de Flutter, un framework multiplateforme chez Google, semble poser problème à un nombre croissant de développeurs. Au point que Matt Carroll, anciennement employé chez Google et ayant travaillé sur le cadriciel, en a annoncé un fork.

Flutter est un kit de développement multiplateforme open source (sous licence BSD). Créé par Google, il a d’abord été conçu pour les applications mobiles, mais a pris du galon avec les années. On se souvient notamment que c’est Canonical qui s’était chargé de son portage sur Linux. La société l’a ensuite utilisé pour réécrire complètement l’installeur de la distribution Ubuntu.

Mais l’un des anciens développeurs du SDK, Matt Carroll, resté sous forme de contributeur externe, a annoncé récemment la création d’un fork. Pour rappel, le terme peut être traduit par « bifurcation » ou « embranchement ». Il est utilisé dans le cas où le code source d’un projet est copié pour servir de base à un nouveau projet. L’opération est extrêmement courante dans le monde du libre et alimente l’émulation autour du développement logiciel. Firefox a par exemple plusieurs forks : LibreWolf, Waterfox, Iceweasel…

Dans le cas présent, Matt Carroll a annoncé un fork de Flutter le 27 octobre, citant de vastes problèmes chez Google et une réduction continuelle de l’équipe. Le nom du nouveau projet ? Flock (sans rapport avec notre dessinateur).

Un trop grand nombre de problèmes

Matt Carroll fait une longue liste des problèmes observés sur ces dernières années. Son principal grief est une équipe de développement manquant singulièrement de personnel. Il l’estime à une cinquantaine de personnes (chiffre gelé en 2023), alors que le nombre de développeurs utilisant Flutter serait d’un million, une estimation basse et conservatrice selon lui. Le ratio serait alors d’un membre de l’équipe pour 20 000 développeurs, ce qui ne peut pas fonctionner, d’après Matt Carroll.

Il cite plusieurs exemples, dont le temps de traitement des tickets de support. Il affirme qu’il peut s’écouler parfois plusieurs années entre la création d’un ticket et le moment où l’équipe s’en empare pour l’examiner. Or, avec le temps, les informations qui avaient servi à le créer ont peut-être été perdues. Le développeur a pu passer à autre chose et oublier le contexte du problème signalé.

« D’après mon expérience, lorsque cela m’arrive, j’ai cessé depuis longtemps de travailler avec le client à l’origine du problème initial. J’ai écrit des centaines de milliers de lignes de code depuis lors et, souvent, je ne me souviens même pas d’avoir déposé le problème, sans parler des détails obscurs liés au problème initial. L’équipe ne peut pas corriger le bug sans mes informations, et cela fait trop longtemps que je ne lui en ai pas fournies. Le bug est donc enterré et sera redécouvert par un futur développeur », explique Matt Carroll.

L’ancien employé de Google cite également les changements de priorités dans l’entreprise, avec des yeux largement tournés vers l’intelligence artificielle. Google vient d’ailleurs de mettre en avant que plus d’un quart du nouveau code écrit par ses développeurs l’a été par une IA générative. Les plateformes desktop ne sont ainsi plus considérées comme des priorités et trois des six plateformes sont en mode maintenance. Le desktop est selon Carroll le plus grand gâchis de Flutter. Certains des bugs non corrigés étaient suffisamment importants pour que les clients changent de crèmerie.

Il est vrai que les questions autour de Flutter commençaient à s’accumuler. La dernière Google I/O en mai a renforcé les inquiétudes. De nouvelles versions avaient bien été proposées pour Flutter (3.22) et Dart (3.4), mais l’arrivée de Kotlin Multiplatform les a éclipsés. Plusieurs médias avaient noté ce changement, dont DevClass. En outre, l’ancien directeur de l’équipe Flutter, Tim Sneath (ancien transfuge de Microsoft), est parti chez Apple en juin 2023.

Le choix du fork

Matt Carroll indique que la question d’une coopération massive avec des développeurs externes aurait pu être envisagée. Le problème est cependant le même, car l’afflux des participations aurait été géré par la même équipe qui manque actuellement de main d’œuvre pour s’occuper des tickets du support. Or, la révision du code prend du temps. En outre, de nombreux développeurs auraient trouvé la communication avec l’équipe Flutter « frustrante, voire impossible ».

Que propose-t-il ? Flock, un fork de Flutter imaginé comme un catalyseur. Il décrit en effet le projet comme un « Flutter+ », non comme un remplaçant. Il espère attirer les contributions pour faire de Flock un outil dont les bugs seront corrigés rapidement, tout comme l’ajout de nouvelles fonctions.

« En d’autres termes, nous ne voulons pas, ou avons l’intention, de forker la communauté Flutter. Flock restera constamment à jour avec Flutter. Flock ajoutera d’importantes corrections de bugs et des fonctionnalités populaires de la communauté, que l’équipe de Flutter ne peut pas ou ne veut pas implémenter », indique Matt Carroll.

Dans les grandes lignes, chaque nouvelle version de Flutter verra ses nouveautés portées vers Flock. Ce dernier ira dans le sens que sa communauté de développeurs estimera la plus logique, s’occupant d’abord de tous les bugs en attente, tout en partageant le code correcteur avec l’équipe de Flutter, qui sera alors libre de l’intégrer ou non.

Sa priorité pour l’instant est de créer un miroir de Flutter pour refléter automatiquement les branches master, beta et stable. Il faudra ensuite que Flock puisse construire le moteur d’exécution. Matt Carroll invite les développeurs à participer et à tester leurs applications sur Flock. Pour l’instant, puisqu’il s’agira d’une copie miroir, elles devraient fonctionner sans modification.

Des réactions mitigées

Que ce soit sur Hacker News ou Reddit, les réactions sont en majorité négatives. Beaucoup estiment que les problèmes avancés par Matt Carroll sont réels et sérieux. Cependant, la plupart pensent que dans ce cas précis, la création d’un fork va diviser les ressources et ne servira pas.

« Mais je suis sceptique quant à sa suggestion d’accueillir de nouveaux changements dans un fork de Flutter et ainsi gagner en vitesse de développement. Cela nécessiterait des personnes qui souhaitent réellement travailler sur de nouvelles fonctionnalités. Je doute que ces personnes existent. Du moins, qu’elles existent en nombre suffisant pour qu’un fork soit plus rapide – en termes de fonctionnalités – que Google lui-même », estime par exemple l’un d’entre eux sur Reddit.

En revanche, sur X, l’annonce a créé plus d’engouement, Matt Carroll ayant répondu à de nombreuses questions, certaines très concrètes. Par exemple, Remi Rousselet se demandait hier comment gérer les paquets si Flock devient aussi populaire que Flutter : faudra-t-il que leurs auteurs supportent systématiquement les deux ? Matt Carroll lui a répondu que la conduite serait de recommander Flock pour les applications et Flutter pour les paquets. À un autre, il a répondu qu’en cas de conflit d’approche sur une fonction, la version Flock serait supprimée.

Dénonçant un manque d’investissement de Google, un développeur forke Flutter

Sans dessin acide
Dénonçant un manque d’investissement de Google, un développeur forke Flutter

La gestion de Flutter, un framework multiplateforme chez Google, semble poser problème à un nombre croissant de développeurs. Au point que Matt Carroll, anciennement employé chez Google et ayant travaillé sur le cadriciel, en a annoncé un fork.

Flutter est un kit de développement multiplateforme open source (sous licence BSD). Créé par Google, il a d’abord été conçu pour les applications mobiles, mais a pris du galon avec les années. On se souvient notamment que c’est Canonical qui s’était chargé de son portage sur Linux. La société l’a ensuite utilisé pour réécrire complètement l’installeur de la distribution Ubuntu.

Mais l’un des anciens développeurs du SDK, Matt Carroll, resté sous forme de contributeur externe, a annoncé récemment la création d’un fork. Pour rappel, le terme peut être traduit par « bifurcation » ou « embranchement ». Il est utilisé dans le cas où le code source d’un projet est copié pour servir de base à un nouveau projet. L’opération est extrêmement courante dans le monde du libre et alimente l’émulation autour du développement logiciel. Firefox a par exemple plusieurs forks : LibreWolf, Waterfox, Iceweasel…

Dans le cas présent, Matt Carroll a annoncé un fork de Flutter le 27 octobre, citant de vastes problèmes chez Google et une réduction continuelle de l’équipe. Le nom du nouveau projet ? Flock (sans rapport avec notre dessinateur).

Un trop grand nombre de problèmes

Matt Carroll fait une longue liste des problèmes observés sur ces dernières années. Son principal grief est une équipe de développement manquant singulièrement de personnel. Il l’estime à une cinquantaine de personnes (chiffre gelé en 2023), alors que le nombre de développeurs utilisant Flutter serait d’un million, une estimation basse et conservatrice selon lui. Le ratio serait alors d’un membre de l’équipe pour 20 000 développeurs, ce qui ne peut pas fonctionner, d’après Matt Carroll.

Il cite plusieurs exemples, dont le temps de traitement des tickets de support. Il affirme qu’il peut s’écouler parfois plusieurs années entre la création d’un ticket et le moment où l’équipe s’en empare pour l’examiner. Or, avec le temps, les informations qui avaient servi à le créer ont peut-être été perdues. Le développeur a pu passer à autre chose et oublier le contexte du problème signalé.

« D’après mon expérience, lorsque cela m’arrive, j’ai cessé depuis longtemps de travailler avec le client à l’origine du problème initial. J’ai écrit des centaines de milliers de lignes de code depuis lors et, souvent, je ne me souviens même pas d’avoir déposé le problème, sans parler des détails obscurs liés au problème initial. L’équipe ne peut pas corriger le bug sans mes informations, et cela fait trop longtemps que je ne lui en ai pas fournies. Le bug est donc enterré et sera redécouvert par un futur développeur », explique Matt Carroll.

L’ancien employé de Google cite également les changements de priorités dans l’entreprise, avec des yeux largement tournés vers l’intelligence artificielle. Google vient d’ailleurs de mettre en avant que plus d’un quart du nouveau code écrit par ses développeurs l’a été par une IA générative. Les plateformes desktop ne sont ainsi plus considérées comme des priorités et trois des six plateformes sont en mode maintenance. Le desktop est selon Carroll le plus grand gâchis de Flutter. Certains des bugs non corrigés étaient suffisamment importants pour que les clients changent de crèmerie.

Il est vrai que les questions autour de Flutter commençaient à s’accumuler. La dernière Google I/O en mai a renforcé les inquiétudes. De nouvelles versions avaient bien été proposées pour Flutter (3.22) et Dart (3.4), mais l’arrivée de Kotlin Multiplatform les a éclipsés. Plusieurs médias avaient noté ce changement, dont DevClass. En outre, l’ancien directeur de l’équipe Flutter, Tim Sneath (ancien transfuge de Microsoft), est parti chez Apple en juin 2023.

Le choix du fork

Matt Carroll indique que la question d’une coopération massive avec des développeurs externes aurait pu être envisagée. Le problème est cependant le même, car l’afflux des participations aurait été géré par la même équipe qui manque actuellement de main d’œuvre pour s’occuper des tickets du support. Or, la révision du code prend du temps. En outre, de nombreux développeurs auraient trouvé la communication avec l’équipe Flutter « frustrante, voire impossible ».

Que propose-t-il ? Flock, un fork de Flutter imaginé comme un catalyseur. Il décrit en effet le projet comme un « Flutter+ », non comme un remplaçant. Il espère attirer les contributions pour faire de Flock un outil dont les bugs seront corrigés rapidement, tout comme l’ajout de nouvelles fonctions.

« En d’autres termes, nous ne voulons pas, ou avons l’intention, de forker la communauté Flutter. Flock restera constamment à jour avec Flutter. Flock ajoutera d’importantes corrections de bugs et des fonctionnalités populaires de la communauté, que l’équipe de Flutter ne peut pas ou ne veut pas implémenter », indique Matt Carroll.

Dans les grandes lignes, chaque nouvelle version de Flutter verra ses nouveautés portées vers Flock. Ce dernier ira dans le sens que sa communauté de développeurs estimera la plus logique, s’occupant d’abord de tous les bugs en attente, tout en partageant le code correcteur avec l’équipe de Flutter, qui sera alors libre de l’intégrer ou non.

Sa priorité pour l’instant est de créer un miroir de Flutter pour refléter automatiquement les branches master, beta et stable. Il faudra ensuite que Flock puisse construire le moteur d’exécution. Matt Carroll invite les développeurs à participer et à tester leurs applications sur Flock. Pour l’instant, puisqu’il s’agira d’une copie miroir, elles devraient fonctionner sans modification.

Des réactions mitigées

Que ce soit sur Hacker News ou Reddit, les réactions sont en majorité négatives. Beaucoup estiment que les problèmes avancés par Matt Carroll sont réels et sérieux. Cependant, la plupart pensent que dans ce cas précis, la création d’un fork va diviser les ressources et ne servira pas.

« Mais je suis sceptique quant à sa suggestion d’accueillir de nouveaux changements dans un fork de Flutter et ainsi gagner en vitesse de développement. Cela nécessiterait des personnes qui souhaitent réellement travailler sur de nouvelles fonctionnalités. Je doute que ces personnes existent. Du moins, qu’elles existent en nombre suffisant pour qu’un fork soit plus rapide – en termes de fonctionnalités – que Google lui-même », estime par exemple l’un d’entre eux sur Reddit.

En revanche, sur X, l’annonce a créé plus d’engouement, Matt Carroll ayant répondu à de nombreuses questions, certaines très concrètes. Par exemple, Remi Rousselet se demandait hier comment gérer les paquets si Flock devient aussi populaire que Flutter : faudra-t-il que leurs auteurs supportent systématiquement les deux ? Matt Carroll lui a répondu que la conduite serait de recommander Flock pour les applications et Flutter pour les paquets. À un autre, il a répondu qu’en cas de conflit d’approche sur une fonction, la version Flock serait supprimée.

GitHub : Copilot s’ouvre à d’autres modèles et à Xcode, Spark écrit seul des applications

Tranquille, pépère
GitHub : Copilot s’ouvre à d’autres modèles et à Xcode, Spark écrit seul des applications

À travers sa conférence Universe, GitHub a annoncé plusieurs de nouveautés importantes à destination des développeurs. Le projet Spark, par exemple, ambitionne l’écriture des applications réalisée entièrement par l’IA. Le fameux Copilot s’ouvre également à d’autres modèles et outils de la concurrence, ainsi que de plusieurs améliorations significatives.

GitHub a fait son show hier lors de sa conférence Universe. Comme de nombreuses autres entreprises, elle tient une grand-messe annuelle pour y présenter ses nouveautés. Une manière bien sûr d’attirer l’attention avec un tir groupé. Et on peut dire que GitHub a tiré tous azimuts.

Lorsque GitHub a lancé son Copilot – initiant une vague d’autres Copilot chez Microsoft, qui possède GitHub – les développeurs ont pu commencer à compléter leurs lignes de code par des suggestions. Lors d’une évolution suivante, ce sont des pans de code entiers qui ont pu être ajoutés, toujours sous la supervision des développeurs. C’est à ce moment-là que deux questions sont apparues : le code suggéré n’enfreint-il pas le droit d’auteur (via son entrainement sur les dépôts publics) ? À quand l’intégralité du code d’un projet suggérée par Copilot ?

Si la première question a trouvé réponse dans plusieurs plaintes, la seconde était dans l’attente. Avec Spark, GitHub a fini par y répondre.

Une petite application en langage naturel

Selon GitHub, Spark est né comme un projet de recherche dans son laboratoire GitHub Next. La question était posée : peut-on obtenir une application complète en décrivant simplement ce que l’on souhaite en langage naturel ? La réponse est : oui.

On commence par un premier prompt définissant dans les grandes lignes ce que l’on veut obtenir, sachant que Spark se destine plutôt aux petits projets pour l’instant. Les projets eux-mêmes peuvent viser des applications web, natives ou mobiles. Après cette première demande, Spark affiche un aperçu général de l’application. Le développeur peut alors compléter au fur et à mesure ses requêtes pour préciser un nombre plus ou moins importants de détails du fonctionnement.

Le code reste toujours accessible et peut donc être modifié. Selon GitHub, Spark permet surtout d’explorer des idées au travers de micro-applications. Il peut s’agir de petits outils pour s’aider au quotidien dans des tâches spécifiques, de petits robots ou agents pour traiter certaines informations. À TechCrunch cependant, GitHub a confirmé qu’il n’y avait a priori pas de limites à ce que l’on pouvait demander à Spark. L’outil, fourni pour l’instant en avant-première, accepte a priori toutes les entrées, mais ses capacités seront peut-être resserrées une fois le produit disponible en version finale.

Le potentiel de Spark semble conséquent, puisque l’outil peut utiliser n’importe quelle API web. En outre, il va profiter de l’ouverture de GitHub à d’autres modèles et outils.

GitHub s’ouvre à d’autres modèles

L’interface de « discussion » avec GitHub Copilot est basée depuis le début sur GPT, la version actuelle utilisant GPT4. Ce n’est pas étonnant, puisque l’on se situe toujours dans la galaxie Microsoft. Cependant, cette exclusivité va prendre fin.

GitHub a en effet annoncé hier que Copilot allait pouvoir être utilisé avec d’autres modèles d’IA générative. Claude 3.5 Sonnet aura les honneurs de commencer très prochainement. Gemini 1.5 Pro devrait suivre dans quelque semaines. GPT-4o, o1-preview et o1-mini et d’OpenAI suivront également.

L’entreprise dit croire au choix pour les développeurs, un seul modèle n’étant pas idéal dans tous les cas de figure. Selon les besoins, la politique d’entreprise, les langages de programmation ou encore les préférences personnelles, le choix d’un modèle ou d’un autre peut faire une grande différence. Dans notre cas, nous avons par exemple utilisé Claude pour créer un grand tableau permettant de calculer les abonnements à l’électricité les plus intéressants, en fonction de votre consommation horaire sur un an (chiffres obtenus par le Linky via le site d’Enedis).

Mais attention : ce choix ne va être offert dans un premier temps que sur Copilot Chat et Spark. GitHub compte bien le répercuter sur l’ensemble de ses outils, mais n’a fourni aucune information sur le délai.

GitHub s’ouvre à Xcode, un timing intéressant

Au sein de GitHub, Copilot représente toujours un produit central. À l’occasion de la conférence Universe, il reçoit plusieurs nouveautés, dont une ouverture à Xcode, l’environnement de développement intégré d’Apple.

Même s’il s’agit d’une préversion publique et qu’il reste donc du travail, le mouvement est intéressant à plus d’un titre. D’abord, parce que les développeurs sur Mac seront probablement intéressés par l’arrivée d’un composant entré dans les habitudes de bon nombre d’entre eux sur d’autres plateformes. Même si cette préversion se focalise d’abord et avant tout sur la complétion du code, d’autres fonctions arriveront par la suite.

Ensuite, parce qu’Apple vient de donner le coup d’envoi de son bouquet de services Apple Intelligence. Or, sur macOS Sequoia 15.1, Xcode peut profiter de l’assistant maison pour produire le même type de résultat. Mais là où l’assistant d’Apple est neuf et a encore tout à prouver, Copilot arrive avec une expérience de plusieurs années dans le domaine.

« Il s’agit d’une étape majeure dans notre mission permanente visant à faire de Copilot un outil essentiel pour les développeurs sur une grande variété de plateformes. Désormais, les développeurs Apple peuvent bénéficier de la même assistance intelligente au codage, intégrée de manière transparente dans leur IDE préféré », indique ainsi GitHub dans son communiqué.

Prenant en charge les langages Objective-C et surtout Swift, le Copilot de GitHub pourrait donc couper l’herbe sous le pied d’Apple. À ceci près qu’Apple n’a pour l’instant affiché aucun tarif pour ses fonctions alimentées par l’IA générative. Beaucoup se demandent d’ailleurs si la firme pourra longtemps proposer gratuitement ses services, au vu des investissements colossaux nécessaires, que ce soit pour l’entrainement des modèles, la puissance nécessaire ou l’infrastructure mise en place. Apple en a d’ailleurs récemment détaillé la sécurité, proposant jusqu’à un million de dollars aux chercheurs qui parviendraient à exécuter un code arbitraire dans son Private Cloud Compute.

L’arrivée officielle de Copilot sur Xcode devrait mettre un sérieux frein à certains projets tiers, comme l’extension Copilot for Xcode, disponible sous licence MIT.

D’autres apports pour Copilot

À côté des annonces importantes, on trouve également d’autres nouveautés pour Copilot. Dans VS Code, Copilot Chat permet par exemple désormais de modifier plusieurs fichiers à la fois, dans le cadre de projets plus complexes. Il propose aussi une fonction permettant d’examiner le code pour obtenir des informations complémentaires. À noter la possibilité de personnaliser les instructions à Copilot Chat pour lui pointer les outils préférés par une personne ou une structure (comme une entreprise), ainsi que les connaissances organisationnelles.

GitHub a en outre donné quelques informations sur les fameuses extensions, qui permettent de personnaliser les demandes pour tenir compte d’un contexte particulier. Plusieurs d’entre elles ont été créées par Atlassian, Docker ou encore Stack Overflow, mais sont toujours en préversions.

On sait à présent que les versions finales seront lancées en début d’année prochaine, mais il n’y a pas encore de date précise. Dans la foulée, toute personne, entreprise ou autre structure pourra créer ses propres extensions, la capacité n’étant plus liée à quelques partenaires triés sur le volet.

GitHub : Copilot s’ouvre à d’autres modèles et à Xcode, Spark écrit seul des applications

Tranquille, pépère
GitHub : Copilot s’ouvre à d’autres modèles et à Xcode, Spark écrit seul des applications

À travers sa conférence Universe, GitHub a annoncé plusieurs de nouveautés importantes à destination des développeurs. Le projet Spark, par exemple, ambitionne l’écriture des applications réalisée entièrement par l’IA. Le fameux Copilot s’ouvre également à d’autres modèles et outils de la concurrence, ainsi que de plusieurs améliorations significatives.

GitHub a fait son show hier lors de sa conférence Universe. Comme de nombreuses autres entreprises, elle tient une grand-messe annuelle pour y présenter ses nouveautés. Une manière bien sûr d’attirer l’attention avec un tir groupé. Et on peut dire que GitHub a tiré tous azimuts.

Lorsque GitHub a lancé son Copilot – initiant une vague d’autres Copilot chez Microsoft, qui possède GitHub – les développeurs ont pu commencer à compléter leurs lignes de code par des suggestions. Lors d’une évolution suivante, ce sont des pans de code entiers qui ont pu être ajoutés, toujours sous la supervision des développeurs. C’est à ce moment-là que deux questions sont apparues : le code suggéré n’enfreint-il pas le droit d’auteur (via son entrainement sur les dépôts publics) ? À quand l’intégralité du code d’un projet suggérée par Copilot ?

Si la première question a trouvé réponse dans plusieurs plaintes, la seconde était dans l’attente. Avec Spark, GitHub a fini par y répondre.

Une petite application en langage naturel

Selon GitHub, Spark est né comme un projet de recherche dans son laboratoire GitHub Next. La question était posée : peut-on obtenir une application complète en décrivant simplement ce que l’on souhaite en langage naturel ? La réponse est : oui.

On commence par un premier prompt définissant dans les grandes lignes ce que l’on veut obtenir, sachant que Spark se destine plutôt aux petits projets pour l’instant. Les projets eux-mêmes peuvent viser des applications web, natives ou mobiles. Après cette première demande, Spark affiche un aperçu général de l’application. Le développeur peut alors compléter au fur et à mesure ses requêtes pour préciser un nombre plus ou moins importants de détails du fonctionnement.

Le code reste toujours accessible et peut donc être modifié. Selon GitHub, Spark permet surtout d’explorer des idées au travers de micro-applications. Il peut s’agir de petits outils pour s’aider au quotidien dans des tâches spécifiques, de petits robots ou agents pour traiter certaines informations. À TechCrunch cependant, GitHub a confirmé qu’il n’y avait a priori pas de limites à ce que l’on pouvait demander à Spark. L’outil, fourni pour l’instant en avant-première, accepte a priori toutes les entrées, mais ses capacités seront peut-être resserrées une fois le produit disponible en version finale.

Le potentiel de Spark semble conséquent, puisque l’outil peut utiliser n’importe quelle API web. En outre, il va profiter de l’ouverture de GitHub à d’autres modèles et outils.

GitHub s’ouvre à d’autres modèles

L’interface de « discussion » avec GitHub Copilot est basée depuis le début sur GPT, la version actuelle utilisant GPT4. Ce n’est pas étonnant, puisque l’on se situe toujours dans la galaxie Microsoft. Cependant, cette exclusivité va prendre fin.

GitHub a en effet annoncé hier que Copilot allait pouvoir être utilisé avec d’autres modèles d’IA générative. Claude 3.5 Sonnet aura les honneurs de commencer très prochainement. Gemini 1.5 Pro devrait suivre dans quelque semaines. GPT-4o, o1-preview et o1-mini et d’OpenAI suivront également.

L’entreprise dit croire au choix pour les développeurs, un seul modèle n’étant pas idéal dans tous les cas de figure. Selon les besoins, la politique d’entreprise, les langages de programmation ou encore les préférences personnelles, le choix d’un modèle ou d’un autre peut faire une grande différence. Dans notre cas, nous avons par exemple utilisé Claude pour créer un grand tableau permettant de calculer les abonnements à l’électricité les plus intéressants, en fonction de votre consommation horaire sur un an (chiffres obtenus par le Linky via le site d’Enedis).

Mais attention : ce choix ne va être offert dans un premier temps que sur Copilot Chat et Spark. GitHub compte bien le répercuter sur l’ensemble de ses outils, mais n’a fourni aucune information sur le délai.

GitHub s’ouvre à Xcode, un timing intéressant

Au sein de GitHub, Copilot représente toujours un produit central. À l’occasion de la conférence Universe, il reçoit plusieurs nouveautés, dont une ouverture à Xcode, l’environnement de développement intégré d’Apple.

Même s’il s’agit d’une préversion publique et qu’il reste donc du travail, le mouvement est intéressant à plus d’un titre. D’abord, parce que les développeurs sur Mac seront probablement intéressés par l’arrivée d’un composant entré dans les habitudes de bon nombre d’entre eux sur d’autres plateformes. Même si cette préversion se focalise d’abord et avant tout sur la complétion du code, d’autres fonctions arriveront par la suite.

Ensuite, parce qu’Apple vient de donner le coup d’envoi de son bouquet de services Apple Intelligence. Or, sur macOS Sequoia 15.1, Xcode peut profiter de l’assistant maison pour produire le même type de résultat. Mais là où l’assistant d’Apple est neuf et a encore tout à prouver, Copilot arrive avec une expérience de plusieurs années dans le domaine.

« Il s’agit d’une étape majeure dans notre mission permanente visant à faire de Copilot un outil essentiel pour les développeurs sur une grande variété de plateformes. Désormais, les développeurs Apple peuvent bénéficier de la même assistance intelligente au codage, intégrée de manière transparente dans leur IDE préféré », indique ainsi GitHub dans son communiqué.

Prenant en charge les langages Objective-C et surtout Swift, le Copilot de GitHub pourrait donc couper l’herbe sous le pied d’Apple. À ceci près qu’Apple n’a pour l’instant affiché aucun tarif pour ses fonctions alimentées par l’IA générative. Beaucoup se demandent d’ailleurs si la firme pourra longtemps proposer gratuitement ses services, au vu des investissements colossaux nécessaires, que ce soit pour l’entrainement des modèles, la puissance nécessaire ou l’infrastructure mise en place. Apple en a d’ailleurs récemment détaillé la sécurité, proposant jusqu’à un million de dollars aux chercheurs qui parviendraient à exécuter un code arbitraire dans son Private Cloud Compute.

L’arrivée officielle de Copilot sur Xcode devrait mettre un sérieux frein à certains projets tiers, comme l’extension Copilot for Xcode, disponible sous licence MIT.

D’autres apports pour Copilot

À côté des annonces importantes, on trouve également d’autres nouveautés pour Copilot. Dans VS Code, Copilot Chat permet par exemple désormais de modifier plusieurs fichiers à la fois, dans le cadre de projets plus complexes. Il propose aussi une fonction permettant d’examiner le code pour obtenir des informations complémentaires. À noter la possibilité de personnaliser les instructions à Copilot Chat pour lui pointer les outils préférés par une personne ou une structure (comme une entreprise), ainsi que les connaissances organisationnelles.

GitHub a en outre donné quelques informations sur les fameuses extensions, qui permettent de personnaliser les demandes pour tenir compte d’un contexte particulier. Plusieurs d’entre elles ont été créées par Atlassian, Docker ou encore Stack Overflow, mais sont toujours en préversions.

On sait à présent que les versions finales seront lancées en début d’année prochaine, mais il n’y a pas encore de date précise. Dans la foulée, toute personne, entreprise ou autre structure pourra créer ses propres extensions, la capacité n’étant plus liée à quelques partenaires triés sur le volet.

☕️ Firefox 132 : streaming 4K, large gamme de couleurs et SVG accéléré

Nouvelle mouture pour Firefox, avec des améliorations notables à la clé. Le DRM PlayReady de Microsoft est ainsi supporté. Sur les sites de streaming compatibles, le 1080p devient alors la qualité minimale, pouvant grimper jusqu’à la 4K.

Autre ajout notable, le support du Wide Color Gamut WebGL pour Windows et macOS, permettant des couleurs plus riches pour les contenus. « Cette implémentation prend actuellement en charge des profils de couleurs plus larges (P3) en 8 bits », précise Mozilla.

L’accélération matérielle dans WebRender prend également en charge un plus grand nombre de primitives de filtres SVG : feBlend, feColorMatrix, feComponentTransfer, feComposite, feDropShadow, feFlood, feGaussianBlur, feMerge et feOffset. Les contenus « à forte composante graphique » seront donc plus fluides.

Logo de la fondation Mozilla

Mozilla ajoute en outre le support des fonctions de partage d’écran introduites dans les derniers macOS. La compatibilité commence avec la version 15 (l’actuel Sequoia), puis sera répercutée sur la précédente, Sonoma, dans une prochaine mouture. Firefox prend aussi mieux en charge la reprise de session après redémarrage du Mac, quand l’option de réouverture des applications est active.

On note également un changement important sur le comportement du mode Strict pour la Protection renforcée, puisque l’accès aux cookies tiers est désormais bloqué.

Signalons enfin plusieurs améliorations liées à la sécurité. Les favicons (icônes des sites apparaissant dans les onglets ou dans les marque-pages) ne peuvent désormais plus être reçues que si elles sont délivrées via HTTPS. De plus, la fonction « Copier sans le pistage du site » (via le clic droit sur l’URL) a été renforcée pour inclure plus de paramètres. Elle est en outre grisée si aucun paramètre n’est trouvé dans le lien.

Quant aux failles de sécurité, Firefox 132 en corrige onze, dont deux critiques.

Cloud, lobbying : rien ne va plus entre Microsoft et Google

spiderman-meme.jpg
Cloud, lobbying : rien ne va plus entre Microsoft et Google

Dans une publication lundi soir, Microsoft a accusé Google de préparer une guerre « clandestine » contre ses offres Azure. La société de Mountain View serait directement à l’origine de l’Open Cloud Coalition – officielle depuis quelques heures – pour faire du lobbying en Europe et influencer l’opinion.

Rien ne va plus entre Microsoft et Google. Les deux entreprises s’affrontent depuis des années sur le cloud mais, en parts de marché, Microsoft est loin devant Google, tandis qu’Amazon Web Services détient toujours la première place dans le monde.

Dans un communiqué publié lundi, Microsoft révèle d’étranges informations. La société accuse sa concurrente d’être derrière l’Open Cloud Coalition (OCC), tout juste lancée. « La mission de l’OCC est de promouvoir l’ouverture, l’interopérabilité et la concurrence loyale dans le paysage du cloud, en favorisant un écosystème du cloud plus innovant, transparent, résilient et sécurisé qui profite aux clients du Royaume-Uni, de l’UE et d’ailleurs », indique ainsi la nouvelle coalition.

Google, Civo, Centerprise International, Gigas, ControlPlane, DTP Group, Prolinx, Pulsant, Clairo et Room 101 en sont les dix membres. Cette coalition est dirigée par Nicky Stewart, auparavant à la tête de la société britannique UKCloud.

L’avocate de Microsoft, Rima Alaily, qualifie les futures activités de l’OCC comme de « l’astroturfing », soit de la désinformation populaire orchestrée. Selon Microsoft, cette coalition semble dirigée par « une poignée de fournisseurs européens de services en nuage » intéressés par la transparence sur le marché du cloud, mais qui auraient en réalité été recrutés par Google pour lui servir de caisse de résonance. Google aurait payé ces entreprises pour mener une autre forme du combat qu’elle tente de mener contre Microsoft.

« Campagnes obscures »

Toujours selon le père de Windows, cette Open Cloud Coalition ne serait qu’un élément parmi plusieurs « campagnes obscures » directement ou indirectement financées par Google. L’objectif général de ces campagnes serait de brouiller les pistes et d’influencer l’opinion sur tout ce qui touche aux procédures antitrust. Celles-ci, aux États-Unis, sont d’ailleurs renforcées depuis l’arrivée de Lina Khan à la tête de la Federal Trade Commission.

« Google s’est donné beaucoup de mal pour dissimuler son implication, son financement et son contrôle, notamment en recrutant une poignée de fournisseurs européens de services d’informatique en nuage pour servir de visage public à la nouvelle organisation. Lorsque le groupe sera lancé, Google se présentera vraisemblablement comme un membre de second plan plutôt que comme le chef de file », affirme Microsoft au sujet de la nouvelle coalition. L’entreprise estime que Google a pu offrir des avantages sous forme d’argent ou de remises. Dans le groupe, Google n’apparait que comme un membre parmi les autres.

Cette stratégie de Google serait l’héritage direct de son essai manqué avec le CISPE (Cloud Infrastructure Services Providers in Europe). Ce dernier avait en effet déposé plainte en novembre 2022 contre Microsoft, fustigeant les conditions et tarifs de ses produits pour les exécuter dans d’autres environnements qu’Azure.

Seulement, Microsoft a fini par négocier, aboutissant à un accord très critiqué avec le CISPE. En plus d’un paiement de 22 millions de dollars, Microsoft s’était engagée à participer à un observatoire permettant de suivre l’évolution de plusieurs de ses produits. Le 16 juillet, Bloomberg affirmait également que Google avait tout fait pour enjoindre le CISPE à refuser cet accord et à continuer la bataille. La firme aurait proposé jusqu’à 470 millions de dollars, ce que le CISPE aurait refusé. Une décision « sage », selon Microsoft.

Cette dernière trace un parallèle entre l’Open Cloud Coalition et la Coalition for Fair Software Licensing (CFSL), toujours pour du lobbying (États-Unis, Royaume-Uni et Europe). Selon Microsoft, Google en est le principal soutien financier. Contacté par Ars Technica, Ryan Triplette, président de la CFSL, indique au contraire que Google est un soutien public depuis plus de deux ans. Interrogé sur l’accusation de Microsoft sur son statut de lobbyiste chez Google auparavant, Triplette a répondu qu’il s’agissait d’une « étrange critique » : « tout le monde dans le domaine du droit, de la politique, etc. a travaillé pour Google, Microsoft ou Amazon à un moment donné, à un titre ou à un autre ».

Détourner l’attention

Pour Microsoft, il n’y a pas de doute : « Jamais, au cours des deux dernières décennies, les monopoles de Google en matière de recherche, de publicité numérique et de magasins d’applications mobiles n’ont fait l’objet d’une menace aussi concertée et déterminée qu’aujourd’hui. Selon nos estimations, au moins 24 enquêtes antitrust ont été ouvertes à l’encontre de Google sur les principaux marchés numériques du monde ».

La tactique actuelle servirait donc deux objectifs : détourner l’attention et, bien sûr, récupérer les restes en cas d’impact concret. Et, pour cela, Google aurait donc monté son propre CISPE, engageant « une agence de lobbying et de communication en Europe pour créer et gérer l’organisation ».

Le tout se ferait en parallèle de la plainte déposée en septembre devant la Commission européenne contre Microsoft pour pratiques abusives. La communication de Google était à cette occasion devenue ronflante.

Faisant référence à la panne CrowdStrike, la société de Mountain View avait déclaré : « Comme l’a montré la panne de sécurité massive survenue il y a deux mois, les tactiques de verrouillage de Microsoft peuvent aboutir à un point de défaillance unique qui nuit aux entreprises, aux industries et aux gouvernements ». Un incident certes grave, mais dont Microsoft n’était pas à l’origine et qui, surtout, ne concernait pas le cloud ni même les serveurs.

Microsoft accuse également Google de vouloir noyer le poisson en se faisant passer pour un petit acteur, bien loin d’un AWS ou d’un Microsoft. Cette dernière insiste – sans doute avec beaucoup de plaisir : cela est peut-être vrai en matière de parts de marché, mais pas en termes de moyens, puisque Google serait première au classement des centres de données.

Comment Microsoft a-t-elle appris tout ça ? L’entreprise explique que l’un des fournisseurs européens approchés par Google aurait refusé et l’en aurait averti. Aucun nom n’est donné.

Que se passe-t-il ?

Il ne fait aucun doute que Microsoft a voulu couper l’herbe sous le pied de la nouvelle coalition, pour présenter ses actions sous un mauvais jour. Mais le communiqué de Microsoft est également un exercice de communication, même si c’est la première fois que l’entreprise adopte un ton aussi offensif.

Difficile pour l’instant de savoir ce qu’il s’est passé. Microsoft semble avoir été piquée au vif par sa concurrente. Cependant, la société passe elle-même par des coalitions et alliances, comme l’European Cloud Alliance. Microsoft pourrait simplement avoir été fâchée d’apprendre que les activités du CISPE allaient ressurgir sous une autre forme, alors qu’elle pensait en avoir terminé.

« Nous avons fait part publiquement de nos inquiétudes concernant les licences de Microsoft pour le cloud. Nous pensons, comme beaucoup d’autres, que les pratiques anticoncurrentielles de Microsoft verrouillent les clients et créent des effets négatifs en aval qui ont un impact sur la cybersécurité, l’innovation et le choix. Vous pouvez en savoir plus dans nos nombreux billets de blog sur ces questions », a simplement réagi Google auprès d’Ars Technica.

Et en France ? Interrogée, OVHcloud ne cache pas un certain agacement : « Il nous apparaît regrettable que les débats actuels semblent se concentrer sur la forme et les modalités d’action des acteurs plutôt que sur l’amélioration concrète de la situation pour les utilisateurs du cloud. Nous souhaitons que ces acteurs mettent fin aux pratiques préjudiciables qui enferment les utilisateurs du cloud. »

Du côté de Clever Cloud, on sourit : « Ce spectacle est à la fois ironique et révélateur. Ironique, car ces géants américains qui s’affrontent aujourd’hui n’ont jamais brillé par leur attachement à une concurrence libre et non faussée. Révélateur, car ils confirment ce que nous savions déjà : l’Europe est le terreau idéal pour l’émergence d’un cloud équitable pour le consommateur. Mais cette transformation ne viendra pas de ces entreprises. C’est à nous, industriels européens, qu’il revient de faire de cette opportunité une réalité, de faire comprendre à nos dirigeants, dans chaque pays de l’Union, l’importance stratégique qu’elle représente. C’est précisément cette vision qui anime Clever Cloud : construire jour après jour un écosystème souverain, compétitif et ouvert », a ainsi réagi Quentin Adam, CEO de Clever Cloud.

☕️ Firefox 132 : streaming 4K, large gamme de couleurs et SVG accéléré

Nouvelle mouture pour Firefox, avec des améliorations notables à la clé. Le DRM PlayReady de Microsoft est ainsi supporté. Sur les sites de streaming compatibles, le 1080p devient alors la qualité minimale, pouvant grimper jusqu’à la 4K.

Autre ajout notable, le support du Wide Color Gamut WebGL pour Windows et macOS, permettant des couleurs plus riches pour les contenus. « Cette implémentation prend actuellement en charge des profils de couleurs plus larges (P3) en 8 bits », précise Mozilla.

L’accélération matérielle dans WebRender prend également en charge un plus grand nombre de primitives de filtres SVG : feBlend, feColorMatrix, feComponentTransfer, feComposite, feDropShadow, feFlood, feGaussianBlur, feMerge et feOffset. Les contenus « à forte composante graphique » seront donc plus fluides.

Logo de la fondation Mozilla

Mozilla ajoute en outre le support des fonctions de partage d’écran introduites dans les derniers macOS. La compatibilité commence avec la version 15 (l’actuel Sequoia), puis sera répercutée sur la précédente, Sonoma, dans une prochaine mouture. Firefox prend aussi mieux en charge la reprise de session après redémarrage du Mac, quand l’option de réouverture des applications est active.

On note également un changement important sur le comportement du mode Strict pour la Protection renforcée, puisque l’accès aux cookies tiers est désormais bloqué.

Signalons enfin plusieurs améliorations liées à la sécurité. Les favicons (icônes des sites apparaissant dans les onglets ou dans les marque-pages) ne peuvent désormais plus être reçues que si elles sont délivrées via HTTPS. De plus, la fonction « Copier sans le pistage du site » (via le clic droit sur l’URL) a été renforcée pour inclure plus de paramètres. Elle est en outre grisée si aucun paramètre n’est trouvé dans le lien.

Quant aux failles de sécurité, Firefox 132 en corrige onze, dont deux critiques.

Cloud, lobbying : rien ne va plus entre Microsoft et Google

spiderman-meme.jpg
Cloud, lobbying : rien ne va plus entre Microsoft et Google

Dans une publication lundi soir, Microsoft a accusé Google de préparer une guerre « clandestine » contre ses offres Azure. La société de Mountain View serait directement à l’origine de l’Open Cloud Coalition – officielle depuis quelques heures – pour faire du lobbying en Europe et influencer l’opinion.

Rien ne va plus entre Microsoft et Google. Les deux entreprises s’affrontent depuis des années sur le cloud mais, en parts de marché, Microsoft est loin devant Google, tandis qu’Amazon Web Services détient toujours la première place dans le monde.

Dans un communiqué publié lundi, Microsoft révèle d’étranges informations. La société accuse sa concurrente d’être derrière l’Open Cloud Coalition (OCC), tout juste lancée. « La mission de l’OCC est de promouvoir l’ouverture, l’interopérabilité et la concurrence loyale dans le paysage du cloud, en favorisant un écosystème du cloud plus innovant, transparent, résilient et sécurisé qui profite aux clients du Royaume-Uni, de l’UE et d’ailleurs », indique ainsi la nouvelle coalition.

Google, Civo, Centerprise International, Gigas, ControlPlane, DTP Group, Prolinx, Pulsant, Clairo et Room 101 en sont les dix membres. Cette coalition est dirigée par Nicky Stewart, auparavant à la tête de la société britannique UKCloud.

L’avocate de Microsoft, Rima Alaily, qualifie les futures activités de l’OCC comme de « l’astroturfing », soit de la désinformation populaire orchestrée. Selon Microsoft, cette coalition semble dirigée par « une poignée de fournisseurs européens de services en nuage » intéressés par la transparence sur le marché du cloud, mais qui auraient en réalité été recrutés par Google pour lui servir de caisse de résonance. Google aurait payé ces entreprises pour mener une autre forme du combat qu’elle tente de mener contre Microsoft.

« Campagnes obscures »

Toujours selon le père de Windows, cette Open Cloud Coalition ne serait qu’un élément parmi plusieurs « campagnes obscures » directement ou indirectement financées par Google. L’objectif général de ces campagnes serait de brouiller les pistes et d’influencer l’opinion sur tout ce qui touche aux procédures antitrust. Celles-ci, aux États-Unis, sont d’ailleurs renforcées depuis l’arrivée de Lina Khan à la tête de la Federal Trade Commission.

« Google s’est donné beaucoup de mal pour dissimuler son implication, son financement et son contrôle, notamment en recrutant une poignée de fournisseurs européens de services d’informatique en nuage pour servir de visage public à la nouvelle organisation. Lorsque le groupe sera lancé, Google se présentera vraisemblablement comme un membre de second plan plutôt que comme le chef de file », affirme Microsoft au sujet de la nouvelle coalition. L’entreprise estime que Google a pu offrir des avantages sous forme d’argent ou de remises. Dans le groupe, Google n’apparait que comme un membre parmi les autres.

Cette stratégie de Google serait l’héritage direct de son essai manqué avec le CISPE (Cloud Infrastructure Services Providers in Europe). Ce dernier avait en effet déposé plainte en novembre 2022 contre Microsoft, fustigeant les conditions et tarifs de ses produits pour les exécuter dans d’autres environnements qu’Azure.

Seulement, Microsoft a fini par négocier, aboutissant à un accord très critiqué avec le CISPE. En plus d’un paiement de 22 millions de dollars, Microsoft s’était engagée à participer à un observatoire permettant de suivre l’évolution de plusieurs de ses produits. Le 16 juillet, Bloomberg affirmait également que Google avait tout fait pour enjoindre le CISPE à refuser cet accord et à continuer la bataille. La firme aurait proposé jusqu’à 470 millions de dollars, ce que le CISPE aurait refusé. Une décision « sage », selon Microsoft.

Cette dernière trace un parallèle entre l’Open Cloud Coalition et la Coalition for Fair Software Licensing (CFSL), toujours pour du lobbying (États-Unis, Royaume-Uni et Europe). Selon Microsoft, Google en est le principal soutien financier. Contacté par Ars Technica, Ryan Triplette, président de la CFSL, indique au contraire que Google est un soutien public depuis plus de deux ans. Interrogé sur l’accusation de Microsoft sur son statut de lobbyiste chez Google auparavant, Triplette a répondu qu’il s’agissait d’une « étrange critique » : « tout le monde dans le domaine du droit, de la politique, etc. a travaillé pour Google, Microsoft ou Amazon à un moment donné, à un titre ou à un autre ».

Détourner l’attention

Pour Microsoft, il n’y a pas de doute : « Jamais, au cours des deux dernières décennies, les monopoles de Google en matière de recherche, de publicité numérique et de magasins d’applications mobiles n’ont fait l’objet d’une menace aussi concertée et déterminée qu’aujourd’hui. Selon nos estimations, au moins 24 enquêtes antitrust ont été ouvertes à l’encontre de Google sur les principaux marchés numériques du monde ».

La tactique actuelle servirait donc deux objectifs : détourner l’attention et, bien sûr, récupérer les restes en cas d’impact concret. Et, pour cela, Google aurait donc monté son propre CISPE, engageant « une agence de lobbying et de communication en Europe pour créer et gérer l’organisation ».

Le tout se ferait en parallèle de la plainte déposée en septembre devant la Commission européenne contre Microsoft pour pratiques abusives. La communication de Google était à cette occasion devenue ronflante.

Faisant référence à la panne CrowdStrike, la société de Mountain View avait déclaré : « Comme l’a montré la panne de sécurité massive survenue il y a deux mois, les tactiques de verrouillage de Microsoft peuvent aboutir à un point de défaillance unique qui nuit aux entreprises, aux industries et aux gouvernements ». Un incident certes grave, mais dont Microsoft n’était pas à l’origine et qui, surtout, ne concernait pas le cloud ni même les serveurs.

Microsoft accuse également Google de vouloir noyer le poisson en se faisant passer pour un petit acteur, bien loin d’un AWS ou d’un Microsoft. Cette dernière insiste – sans doute avec beaucoup de plaisir : cela est peut-être vrai en matière de parts de marché, mais pas en termes de moyens, puisque Google serait première au classement des centres de données.

Comment Microsoft a-t-elle appris tout ça ? L’entreprise explique que l’un des fournisseurs européens approchés par Google aurait refusé et l’en aurait averti. Aucun nom n’est donné.

Que se passe-t-il ?

Il ne fait aucun doute que Microsoft a voulu couper l’herbe sous le pied de la nouvelle coalition, pour présenter ses actions sous un mauvais jour. Mais le communiqué de Microsoft est également un exercice de communication, même si c’est la première fois que l’entreprise adopte un ton aussi offensif.

Difficile pour l’instant de savoir ce qu’il s’est passé. Microsoft semble avoir été piquée au vif par sa concurrente. Cependant, la société passe elle-même par des coalitions et alliances, comme l’European Cloud Alliance. Microsoft pourrait simplement avoir été fâchée d’apprendre que les activités du CISPE allaient ressurgir sous une autre forme, alors qu’elle pensait en avoir terminé.

« Nous avons fait part publiquement de nos inquiétudes concernant les licences de Microsoft pour le cloud. Nous pensons, comme beaucoup d’autres, que les pratiques anticoncurrentielles de Microsoft verrouillent les clients et créent des effets négatifs en aval qui ont un impact sur la cybersécurité, l’innovation et le choix. Vous pouvez en savoir plus dans nos nombreux billets de blog sur ces questions », a simplement réagi Google auprès d’Ars Technica.

Et en France ? Interrogée, OVHcloud ne cache pas un certain agacement : « Il nous apparaît regrettable que les débats actuels semblent se concentrer sur la forme et les modalités d’action des acteurs plutôt que sur l’amélioration concrète de la situation pour les utilisateurs du cloud. Nous souhaitons que ces acteurs mettent fin aux pratiques préjudiciables qui enferment les utilisateurs du cloud. »

Du côté de Clever Cloud, on sourit : « Ce spectacle est à la fois ironique et révélateur. Ironique, car ces géants américains qui s’affrontent aujourd’hui n’ont jamais brillé par leur attachement à une concurrence libre et non faussée. Révélateur, car ils confirment ce que nous savions déjà : l’Europe est le terreau idéal pour l’émergence d’un cloud équitable pour le consommateur. Mais cette transformation ne viendra pas de ces entreprises. C’est à nous, industriels européens, qu’il revient de faire de cette opportunité une réalité, de faire comprendre à nos dirigeants, dans chaque pays de l’Union, l’importance stratégique qu’elle représente. C’est précisément cette vision qui anime Clever Cloud : construire jour après jour un écosystème souverain, compétitif et ouvert », a ainsi réagi Quentin Adam, CEO de Clever Cloud.

Comment Google pousse les fabricants vers sept ans de mises à jour Android

Treble, la situation est grave
Comment Google pousse les fabricants vers sept ans de mises à jour Android

Google pousse les constructeurs vers un support allongé pour leurs appareils, qui peuvent recevoir jusqu’à sept ans de nouvelles versions majeures d’Android. Cette bascule n’est pas simple, même si elle semble mettre un terme à la complexité actuelle. Ce support allongé va d’abord passer par le haut de gamme, via notamment le Snapdragon 8 Elite récemment présenté.

Android a depuis longtemps un problème de fragmentation. Depuis de nombreuses années, les constructeurs de smartphones prennent peu au sérieux la longévité de leurs produits, n’offrant que peu de mises à jour. L’exception se trouvait dans les modèles haut de gamme, qui pouvaient recevoir des versions majeures d’Android plus longtemps. Au-delà de ces dernières, il était surtout question des mises à jour de sécurité mensuelles, abandonnées trop vite sur de nombreux modèles d’entrée de gamme. Or, un smartphone ou une tablette sans mises à jour de sécurité représente un trop grand danger pour être encore utilisé.

La situation change progressivement. On l’a vu avec les Pixel et le haut de gamme de Samsung, des modèles commencent à être livrés avec sept ans de mises à jour mineures et majeures. Google veut inspirer le marché, d’autant que les lois s’apprêtent à se durcir, notamment en Europe.

Ces dernières années, Google a également beaucoup travaillé à rendre la maintenance des appareils plus simple pour les constructeurs. Une conséquence directe de la stratégie Android pratiquée jusque-là, qui donne de nombreuses libertés aux constructeurs dans le choix des composants et de l’utilisation d’Android. Plus il y a de modèles, plus il faut dépenser de ressources pour entretenir des configurations très différentes.

Une première étape avec le projet Treble

Face à ce constat, Google avait présenté le projet Treble. Il s’agissait alors de simplifier la chaine logistique allant de la disponibilité d’une mise à jour Android à son installation concrète par l’utilisateur. Et pour cause : il fallait que des fabricants de puces testent la compatibilité du nouveau code avec leurs produits, que les constructeurs de smartphones en fassent autant avec leurs appareils, voire que les opérateurs mettent leur grain de sel.

Treble a marqué une importante rupture dans ce modèle. Pour la première fois, Google séparait le système d’exploitation proprement dit de ses Play Services. Cette séparation devait permettre aux constructeurs de ne vérifier la compatibilité de code mis à jour que sur les composants strictement nécessaires du système, sans toucher à l’implémentation d’origine par le constructeur.

Ce fut un premier changement salvateur, car Google a déplacé petit à petit un nombre croissant de composants logiciels cruciaux dans ses Services. Aussi, sur les appareils ne pouvant plus prétendre aux versions annuelles d’Android, les Play Services continuaient à se mettre à jour pendant plusieurs années, limitant un peu le problème de fragmentation.

Un déplacement de la complexité

Si cela a l’air simple en apparence, la réalité est tout autre. Non seulement le projet Treble est complexe dans ses objectifs, mais il l’a aussi été dans sa mise en application. Il a fallu également que Google puisse maintenir une compatibilité ascendante pour toutes ses versions Android. Pas question en effet qu’une nouvelle mouture du système vienne réduire à néant les implémentations réalisées par les constructeurs sur la version précédente.

Toute la complexité du processus de suivi des mises à jour s’est en fait déplacée. Les constructeurs se sont surtout mis à attendre les retours des fournisseurs de composants. Ces derniers doivent en effet fournir une implémentation compatible pour chaque version d’Android en circulation sur chaque appareil. Ce qui inclut à la fois les versions majeures (quand le noyau Linux change par exemple) ou les versions intermédiaires, par exemple quand Google modifie une couche d’abstraction matérielle (HAL) pour introduire une nouveauté.

Si Treble a simplifié le processus pour les constructeurs, il l’a donc rendu plus complexe pour les fournisseurs de composants… dont dépendent les constructeurs. À moins d’être dans le cas de Google et de fournir directement ses propres composants, comme l’entreprise l’a fait en introduisant sa série Tensor. Une maitrise du matériel et du logiciel qui a valu pendant de longues années la palme de la longévité aux iPhone, maintenus pendant au moins cinq ans pour les versions majeures d’iOS, ainsi qu’une année supplémentaire pour les correctifs de sécurité. Apple s’est depuis fait voler la vedette.

Google Requirements Freeze, la deuxième moitié du puzzle

Google s’est rapidement aperçue du problème. L’entreprise a donc introduit fin 2020 un autre projet. Baptisé Google Requirements Freeze (GRF), il a étendu les grands principes de Treble aux SoC des appareils mobiles. GRF a introduit un très gros changement dans Android : les changements opérés dans le noyau Linux et/ou les couches d’abstraction matérielle ne peuvent plus être répercutés sur d’anciennes implémentations. Il n’y a plus de rétroactivité, alors qu’elle était obligatoire avec Treble.

Voici un exemple, pour mieux comprendre. Un fournisseur de composant propose un nouveau SoC prenant en charge Android 12. Avec GRF, l’implémentation réalisée par le fournisseur est garantie jusqu’à N+3, donc Android 15. Dans cet intervalle, toutes les mises à jour Android proposées, même les plus importantes dans les versions majeures, peuvent se faire en réutilisant l’implémentation initiale faite pour Android 12. D’où le nom de « Freeze », Google gelant littéralement ses exigences.

Le programme GRF a permis de simplifier le passage à trois ans de mises à jour d’Android, puis autant de correctifs de sécurité seuls. Il était possible d’étendre le support à sept ans, mais à la condition de payer le fournisseur de SoC pour un travail supplémentaire de prise en charge. C’est ce qu’explique Android Authority, donnant l’exemple de Samsung avec sa ligne Galaxy S24 lancée en début d’année.

Un director’s cut de GRF

Désormais, il faut parler de Longevity GRF. Une version longue du programme initial qui propose directement sept années de mises à jour. Plus spécifiquement, il autorise la réutilisation du logiciel d’un SoC pour sept évolutions majeures d’Android, au lieu des trois actuelles. Un changement majeur, car cela permet à un smartphone lancé sous Android 15 de pouvoir être mis à jour jusqu’à Android 22.

Il ne s’agit donc plus d’exceptions comme les Pixel 8/9 ou encore les Samsung Galaxy S24, mais d’une règle commune, applicable par l’ensemble des constructeurs. Il y a cependant une condition importante : il faut que la société proposant le SoC accompagne ce dernier de cette « garantie ». Or, à l’heure actuelle, seul le Snapdragon 8 Elite, présenté la semaine dernière par Qualcomm, est compatible. En théorie, tout appareil qui en sera équipé pourra recevoir les précieuses nouvelles versions d’Android.

Une condition, une limite et un problème

Si ce gel prolongé est un énorme progrès en matière de longévité des appareils, il y a cependant une grosse condition à respecter : mettre à jour la version du noyau Linux après trois ans, car les versions fournies par Android ne sont supportées que quatre ans. Le décompte commence à partir de la version 6.6 fournie avec Android 15. Si les constructeurs ne le font pas, ils devront s’occuper eux-mêmes de porter les modifications de sécurité sur l’ancienne version utilisée par leurs appareils.

Il y a une autre limitation : Google interdit qu’une implémentation pour un SoC soit utilisée au-delà de sa quatrième année pour équiper un nouvel appareil avec le dernier Android. En 2028, par exemple, il ne sera pas possible d’utiliser l’implémentation actuelle du Snapdragon 8 faite pour Android 15 dans un nouvel appareil conçu autour d’Android 19. Ceci pour éviter que l’ancienne implémentation ne soit pas sans cesse reprise par un constructeur. Sur Android Authority, Mishael Rahman a résumé les informations dans le tableau suivant :

Cette longévité simplifiée, qui demandera tout de même quelques travaux, surtout en milieu de cycle de vie, s’accompagne également d’un problème. Les constructeurs vont en effet pouvoir proposer des mises à jour sur 7 à 8 ans, sans plus devoir payer de support allongé aux fournisseurs de SoC. Cependant, cela se fait au détriment d’un gel des couches d’abstraction matérielle. Si Google introduit des nouveautés ayant besoin d’une telle modification, elles ne seront répercutées qu’au bon vouloir des fournisseurs de composants et des constructeurs. Par exemple, Android 13 a ajouté une API permettant de modifier la luminosité de la fonction lampe de torche.

Rahman ajoute que ces informations ne sont pas publiques, qu’elles lui ont été communiquées par une source anonyme et que certains détails pourraient donc lui avoir échappé. Cependant, elles sont en phase avec les mouvements de l’industrie observés depuis l’automne 2023, jusqu’à la présentation du Snapdragon 8 Elite. La longévité des appareils devrait donc bien devenir un argument de vente, mais il n’est pas certain qu’il le soit pour toutes les gammes. D’autant que seul le dernier fleuron de Qualcomm est pour l’instant compatible. Mais cette permissivité semble bien être l’aboutissement des objectifs fixés par Treble il y a six ans.

Comment Google pousse les fabricants vers sept ans de mises à jour Android

Treble, la situation est grave
Comment Google pousse les fabricants vers sept ans de mises à jour Android

Google pousse les constructeurs vers un support allongé pour leurs appareils, qui peuvent recevoir jusqu’à sept ans de nouvelles versions majeures d’Android. Cette bascule n’est pas simple, même si elle semble mettre un terme à la complexité actuelle. Ce support allongé va d’abord passer par le haut de gamme, via notamment le Snapdragon 8 Elite récemment présenté.

Android a depuis longtemps un problème de fragmentation. Depuis de nombreuses années, les constructeurs de smartphones prennent peu au sérieux la longévité de leurs produits, n’offrant que peu de mises à jour. L’exception se trouvait dans les modèles haut de gamme, qui pouvaient recevoir des versions majeures d’Android plus longtemps. Au-delà de ces dernières, il était surtout question des mises à jour de sécurité mensuelles, abandonnées trop vite sur de nombreux modèles d’entrée de gamme. Or, un smartphone ou une tablette sans mises à jour de sécurité représente un trop grand danger pour être encore utilisé.

La situation change progressivement. On l’a vu avec les Pixel et le haut de gamme de Samsung, des modèles commencent à être livrés avec sept ans de mises à jour mineures et majeures. Google veut inspirer le marché, d’autant que les lois s’apprêtent à se durcir, notamment en Europe.

Ces dernières années, Google a également beaucoup travaillé à rendre la maintenance des appareils plus simple pour les constructeurs. Une conséquence directe de la stratégie Android pratiquée jusque-là, qui donne de nombreuses libertés aux constructeurs dans le choix des composants et de l’utilisation d’Android. Plus il y a de modèles, plus il faut dépenser de ressources pour entretenir des configurations très différentes.

Une première étape avec le projet Treble

Face à ce constat, Google avait présenté le projet Treble. Il s’agissait alors de simplifier la chaine logistique allant de la disponibilité d’une mise à jour Android à son installation concrète par l’utilisateur. Et pour cause : il fallait que des fabricants de puces testent la compatibilité du nouveau code avec leurs produits, que les constructeurs de smartphones en fassent autant avec leurs appareils, voire que les opérateurs mettent leur grain de sel.

Treble a marqué une importante rupture dans ce modèle. Pour la première fois, Google séparait le système d’exploitation proprement dit de ses Play Services. Cette séparation devait permettre aux constructeurs de ne vérifier la compatibilité de code mis à jour que sur les composants strictement nécessaires du système, sans toucher à l’implémentation d’origine par le constructeur.

Ce fut un premier changement salvateur, car Google a déplacé petit à petit un nombre croissant de composants logiciels cruciaux dans ses Services. Aussi, sur les appareils ne pouvant plus prétendre aux versions annuelles d’Android, les Play Services continuaient à se mettre à jour pendant plusieurs années, limitant un peu le problème de fragmentation.

Un déplacement de la complexité

Si cela a l’air simple en apparence, la réalité est tout autre. Non seulement le projet Treble est complexe dans ses objectifs, mais il l’a aussi été dans sa mise en application. Il a fallu également que Google puisse maintenir une compatibilité ascendante pour toutes ses versions Android. Pas question en effet qu’une nouvelle mouture du système vienne réduire à néant les implémentations réalisées par les constructeurs sur la version précédente.

Toute la complexité du processus de suivi des mises à jour s’est en fait déplacée. Les constructeurs se sont surtout mis à attendre les retours des fournisseurs de composants. Ces derniers doivent en effet fournir une implémentation compatible pour chaque version d’Android en circulation sur chaque appareil. Ce qui inclut à la fois les versions majeures (quand le noyau Linux change par exemple) ou les versions intermédiaires, par exemple quand Google modifie une couche d’abstraction matérielle (HAL) pour introduire une nouveauté.

Si Treble a simplifié le processus pour les constructeurs, il l’a donc rendu plus complexe pour les fournisseurs de composants… dont dépendent les constructeurs. À moins d’être dans le cas de Google et de fournir directement ses propres composants, comme l’entreprise l’a fait en introduisant sa série Tensor. Une maitrise du matériel et du logiciel qui a valu pendant de longues années la palme de la longévité aux iPhone, maintenus pendant au moins cinq ans pour les versions majeures d’iOS, ainsi qu’une année supplémentaire pour les correctifs de sécurité. Apple s’est depuis fait voler la vedette.

Google Requirements Freeze, la deuxième moitié du puzzle

Google s’est rapidement aperçue du problème. L’entreprise a donc introduit fin 2020 un autre projet. Baptisé Google Requirements Freeze (GRF), il a étendu les grands principes de Treble aux SoC des appareils mobiles. GRF a introduit un très gros changement dans Android : les changements opérés dans le noyau Linux et/ou les couches d’abstraction matérielle ne peuvent plus être répercutés sur d’anciennes implémentations. Il n’y a plus de rétroactivité, alors qu’elle était obligatoire avec Treble.

Voici un exemple, pour mieux comprendre. Un fournisseur de composant propose un nouveau SoC prenant en charge Android 12. Avec GRF, l’implémentation réalisée par le fournisseur est garantie jusqu’à N+3, donc Android 15. Dans cet intervalle, toutes les mises à jour Android proposées, même les plus importantes dans les versions majeures, peuvent se faire en réutilisant l’implémentation initiale faite pour Android 12. D’où le nom de « Freeze », Google gelant littéralement ses exigences.

Le programme GRF a permis de simplifier le passage à trois ans de mises à jour d’Android, puis autant de correctifs de sécurité seuls. Il était possible d’étendre le support à sept ans, mais à la condition de payer le fournisseur de SoC pour un travail supplémentaire de prise en charge. C’est ce qu’explique Android Authority, donnant l’exemple de Samsung avec sa ligne Galaxy S24 lancée en début d’année.

Un director’s cut de GRF

Désormais, il faut parler de Longevity GRF. Une version longue du programme initial qui propose directement sept années de mises à jour. Plus spécifiquement, il autorise la réutilisation du logiciel d’un SoC pour sept évolutions majeures d’Android, au lieu des trois actuelles. Un changement majeur, car cela permet à un smartphone lancé sous Android 15 de pouvoir être mis à jour jusqu’à Android 22.

Il ne s’agit donc plus d’exceptions comme les Pixel 8/9 ou encore les Samsung Galaxy S24, mais d’une règle commune, applicable par l’ensemble des constructeurs. Il y a cependant une condition importante : il faut que la société proposant le SoC accompagne ce dernier de cette « garantie ». Or, à l’heure actuelle, seul le Snapdragon 8 Elite, présenté la semaine dernière par Qualcomm, est compatible. En théorie, tout appareil qui en sera équipé pourra recevoir les précieuses nouvelles versions d’Android.

Une condition, une limite et un problème

Si ce gel prolongé est un énorme progrès en matière de longévité des appareils, il y a cependant une grosse condition à respecter : mettre à jour la version du noyau Linux après trois ans, car les versions fournies par Android ne sont supportées que quatre ans. Le décompte commence à partir de la version 6.6 fournie avec Android 15. Si les constructeurs ne le font pas, ils devront s’occuper eux-mêmes de porter les modifications de sécurité sur l’ancienne version utilisée par leurs appareils.

Il y a une autre limitation : Google interdit qu’une implémentation pour un SoC soit utilisée au-delà de sa quatrième année pour équiper un nouvel appareil avec le dernier Android. En 2028, par exemple, il ne sera pas possible d’utiliser l’implémentation actuelle du Snapdragon 8 faite pour Android 15 dans un nouvel appareil conçu autour d’Android 19. Ceci pour éviter que l’ancienne implémentation ne soit pas sans cesse reprise par un constructeur. Sur Android Authority, Mishael Rahman a résumé les informations dans le tableau suivant :

Cette longévité simplifiée, qui demandera tout de même quelques travaux, surtout en milieu de cycle de vie, s’accompagne également d’un problème. Les constructeurs vont en effet pouvoir proposer des mises à jour sur 7 à 8 ans, sans plus devoir payer de support allongé aux fournisseurs de SoC. Cependant, cela se fait au détriment d’un gel des couches d’abstraction matérielle. Si Google introduit des nouveautés ayant besoin d’une telle modification, elles ne seront répercutées qu’au bon vouloir des fournisseurs de composants et des constructeurs. Par exemple, Android 13 a ajouté une API permettant de modifier la luminosité de la fonction lampe de torche.

Rahman ajoute que ces informations ne sont pas publiques, qu’elles lui ont été communiquées par une source anonyme et que certains détails pourraient donc lui avoir échappé. Cependant, elles sont en phase avec les mouvements de l’industrie observés depuis l’automne 2023, jusqu’à la présentation du Snapdragon 8 Elite. La longévité des appareils devrait donc bien devenir un argument de vente, mais il n’est pas certain qu’il le soit pour toutes les gammes. D’autant que seul le dernier fleuron de Qualcomm est pour l’instant compatible. Mais cette permissivité semble bien être l’aboutissement des objectifs fixés par Treble il y a six ans.

Apple Intelligence en Europe en avril 2025, iOS 18.1 disponible, nouveaux iMac M4

Where is Brian ?
Apple Intelligence en Europe en avril 2025, iOS 18.1 disponible, nouveaux iMac M4

Apple a procédé hier soir à une série d’annonces, dont ses premiers Mac avec puce M4 et la disponibilité des dernières révisions de ses systèmes. Mais c’est surtout l’arrivée d’Apple Intelligence en France en avril qui a retenu l’attention.

Depuis hier soir, les mises à jour iOS 18.1, iPadOS 18.1 et macOS 15.1 sont diffusées à tous les appareils compatibles. Entre autres nouveautés, ils activent le premier tronçon des fonctions Apple Intelligence.

Peut-on en profiter dès maintenant ? Oui et non, car il faudra surtout attendre avril.

Apple Intelligence : Qui ? Comment ? Quoi ?

Apple Intelligence est officiellement disponible sur l’ensemble des Mac compatibles (puce M1 et 8 Go de RAM au moins), les ordinateurs d’Apple n’étant pas soumis au DMA. Il y a malheureusement une condition : les machines doivent être configurées en anglais, seule langue disponible pour le moment.

Si l’anglais ne vous fait pas peur, rendez-vous dans Réglages > Général. Là, vous verrez une ligne « Langue et région ». Dans le haut de la fenêtre, appuyez sur « + » pour ajouter une langue. Cherchez la ligne English (US), car c’est la seule variante acceptée actuellement pour Apple Intelligence. Validez l’ajout puis confirmez que vous voulez utiliser cette langue pour le système. Un redémarrage sera ensuite requis.

Direction ensuite la section Apple Intelligence & Siri dans Réglages, devenus System Settings. Sur la ligne Language, il faut également changer pour « English (United States) », déclenchant un petit téléchargement pour la langue. À ce moment, un nouveau bouton apparait en haut du panneau, permettant de rejoindre la liste d’attente. Dans notre cas, une notification est apparue moins d’une heure après pour prévenir que les fonctions étaient prêtes.

Cliquer sur la notification a renvoyé vers la section Apple Intelligence de System Settings. Ne resterait plus qu’à cliquer sur « Turn on » pour activer les fonctions. S’ensuit une courte présentation des apports, essentiellement deux pour l’instant : les outils d’écriture (reformulation, résumé…) et le nouveau Siri, avec un phrasé plus naturel. Avec une limitation à l’anglais, les outils d’écriture ne fonctionneront que sur des textes dans cette langue. Même chose pour Siri, tout devra se faire en anglais.

Notez que vous pouvez revenir en français à n’importe quel moment, moyennant un redémarrage. Apple Intelligence cessera alors de fonctionner.

Et le français ? Et les iPhone ?

C’est sans doute la plus grosse annonce d’hier soir : Apple Intelligence arrivera en Europe en avril prochain et avec lui le français.

« Les utilisateurs de Mac dans l’UE peuvent accéder à Apple Intelligence en anglais (États‑Unis) avec macOS Sequoia 15.1. En avril, les fonctionnalités d’Apple Intelligence commenceront à être déployées pour les utilisateurs d’iPhone et d’iPad dans l’UE. Cela inclura de nombreuses fonctionnalités clés d’Apple Intelligence, notamment les Outils d’écriture, Genmoji, un Siri repensé avec une compréhension linguistique plus riche, l’intégration de ChatGPT, et bien plus encore », précise ainsi Apple dans son communiqué de presse. Dans une note, la firme indique le français fera partie des langues supportées.

C’est bien la version complète des services qui sera alors diffusée, sans doute avec iOS 18.4.

iOS/iPadOS 18.1, macOS 15.1 et les autres

Les nouvelles versions « .1 » des derniers systèmes d’Apple intronisent donc Apple Intelligence, ainsi que quelques autres apports.

Sur iOS 18.1, on trouve ainsi la possibilité d’enregistrer en temps réel les appels téléphoniques classiques et FaceTime audio. Apple précise que cet enregistrement est « automatiquement annoncé ». Nous n’avons cependant pas trouvé la fonction dans nos tests. Il y a peut-être des conditions à respecter (un certain type d’appareil, une compatibilité Apple Intelligence…), mais elle n’est pas mentionnée par Apple.

Parmi les autres nouveautés, plusieurs concernent le Centre de contrôle. Plusieurs boutons dédiés font ainsi leur apparition pour le cellulaire, le VPN et le Wi-Fi, permettant d’influer sur ces réglages sans passer par le dossier qui les contient. Deux autres sont également disponibles pour appeler l’application Mesure. Enfin, une option permet de réinitialiser le Centre à ses paramètres par défaut, supprimant toute personnalisation.

Plus visible, une amélioration permet aux notifications d’afficher un petit chiffre sur les piles, indiquant combien la pile en contient. Un ajout tout simple, mais si évident que l’on se demande pourquoi il n’est pas arrivé avant. Le chiffre apparait en haut à droite de l’icône à gauche des notifications. On peut cependant lui reprocher sa taille, l’information est si petite qu’elle pourrait passer inaperçue.

On trouve également un passage rapide à la caméra TrueDepth avant sur la gamme iPhone 16, la possibilité de prendre des photos et vidéos spatiales sur la gamme iPhone 15, la compatibilité avec les fonctions dédiées à l’audition sur les AirPods Pro 2 (qui reçoivent un nouveau firmware), ainsi que diverses corrections de bugs.

Sur macOS 15.1, le programme est nettement moins riche. Sorti d’Apple Intelligence, le seul nouvel apport réellement visible est l’arrivée d’une option permettant d’installer les applications de plus de 1 Go sur un autre volume. La mise à jour corrige également plusieurs dizaines de failles de sécurité. Celles-ci sont également colmatées par les versions de macOS 14.7.1 et 13.7.1, disponibles pour les machines plus anciennes.

Les iMac passent à la puce M4

Comme prévu, les premières machines à passer à la moulinette M4 sont les iMac. Le renouvellement se fait essentiellement par la puce (qui remplace le M3 de l’iMac précédent) et le passage à 16 Go de mémoire par défaut. Soit ce que les rumeurs en annonçaient. Le format reste le même, tout comme les couleurs disponibles, la répartition de la gamme et la dalle, qui reste de 24 pouces en 4,5K.

Le premier modèle propose ainsi un M4 contenant 8 cœurs CPU et 8 cœurs GPU pour 1 499 euros, un tarif légèrement en baisse. En revanche, comme précédemment, il n’y a que deux ports Thunderbolt/USB4 et pas d’Ethernet. À 1 749 euros, la seconde configuration passe à 10 cœurs CPU et 10 cœurs GPU, quatre ports Thunderbolt/USB4 et un port Gigabit Ethernet. Le clavier Magic Keyboard récupère Touch ID. Toutes les configurations sont fournies avec un SSD de 256 Go et mettent en avant la compatibilité Apple Intelligence.

À noter que tous les accessoires désormais fournis avec ces Mac abandonnent le port Lightning pour l’USB-C. Les précommandes sont ouvertes, pour des livraisons qui commenceront le 8 novembre.

Apple Intelligence en Europe en avril 2025, iOS 18.1 disponible, nouveaux iMac M4

Where is Brian ?
Apple Intelligence en Europe en avril 2025, iOS 18.1 disponible, nouveaux iMac M4

Apple a procédé hier soir à une série d’annonces, dont ses premiers Mac avec puce M4 et la disponibilité des dernières révisions de ses systèmes. Mais c’est surtout l’arrivée d’Apple Intelligence en France en avril qui a retenu l’attention.

Depuis hier soir, les mises à jour iOS 18.1, iPadOS 18.1 et macOS 15.1 sont diffusées à tous les appareils compatibles. Entre autres nouveautés, ils activent le premier tronçon des fonctions Apple Intelligence.

Peut-on en profiter dès maintenant ? Oui et non, car il faudra surtout attendre avril.

Apple Intelligence : Qui ? Comment ? Quoi ?

Apple Intelligence est officiellement disponible sur l’ensemble des Mac compatibles (puce M1 et 8 Go de RAM au moins), les ordinateurs d’Apple n’étant pas soumis au DMA. Il y a malheureusement une condition : les machines doivent être configurées en anglais, seule langue disponible pour le moment.

Si l’anglais ne vous fait pas peur, rendez-vous dans Réglages > Général. Là, vous verrez une ligne « Langue et région ». Dans le haut de la fenêtre, appuyez sur « + » pour ajouter une langue. Cherchez la ligne English (US), car c’est la seule variante acceptée actuellement pour Apple Intelligence. Validez l’ajout puis confirmez que vous voulez utiliser cette langue pour le système. Un redémarrage sera ensuite requis.

Direction ensuite la section Apple Intelligence & Siri dans Réglages, devenus System Settings. Sur la ligne Language, il faut également changer pour « English (United States) », déclenchant un petit téléchargement pour la langue. À ce moment, un nouveau bouton apparait en haut du panneau, permettant de rejoindre la liste d’attente. Dans notre cas, une notification est apparue moins d’une heure après pour prévenir que les fonctions étaient prêtes.

Cliquer sur la notification a renvoyé vers la section Apple Intelligence de System Settings. Ne resterait plus qu’à cliquer sur « Turn on » pour activer les fonctions. S’ensuit une courte présentation des apports, essentiellement deux pour l’instant : les outils d’écriture (reformulation, résumé…) et le nouveau Siri, avec un phrasé plus naturel. Avec une limitation à l’anglais, les outils d’écriture ne fonctionneront que sur des textes dans cette langue. Même chose pour Siri, tout devra se faire en anglais.

Notez que vous pouvez revenir en français à n’importe quel moment, moyennant un redémarrage. Apple Intelligence cessera alors de fonctionner.

Et le français ? Et les iPhone ?

C’est sans doute la plus grosse annonce d’hier soir : Apple Intelligence arrivera en Europe en avril prochain et avec lui le français.

« Les utilisateurs de Mac dans l’UE peuvent accéder à Apple Intelligence en anglais (États‑Unis) avec macOS Sequoia 15.1. En avril, les fonctionnalités d’Apple Intelligence commenceront à être déployées pour les utilisateurs d’iPhone et d’iPad dans l’UE. Cela inclura de nombreuses fonctionnalités clés d’Apple Intelligence, notamment les Outils d’écriture, Genmoji, un Siri repensé avec une compréhension linguistique plus riche, l’intégration de ChatGPT, et bien plus encore », précise ainsi Apple dans son communiqué de presse. Dans une note, la firme indique le français fera partie des langues supportées.

C’est bien la version complète des services qui sera alors diffusée, sans doute avec iOS 18.4.

iOS/iPadOS 18.1, macOS 15.1 et les autres

Les nouvelles versions « .1 » des derniers systèmes d’Apple intronisent donc Apple Intelligence, ainsi que quelques autres apports.

Sur iOS 18.1, on trouve ainsi la possibilité d’enregistrer en temps réel les appels téléphoniques classiques et FaceTime audio. Apple précise que cet enregistrement est « automatiquement annoncé ». Nous n’avons cependant pas trouvé la fonction dans nos tests. Il y a peut-être des conditions à respecter (un certain type d’appareil, une compatibilité Apple Intelligence…), mais elle n’est pas mentionnée par Apple.

Parmi les autres nouveautés, plusieurs concernent le Centre de contrôle. Plusieurs boutons dédiés font ainsi leur apparition pour le cellulaire, le VPN et le Wi-Fi, permettant d’influer sur ces réglages sans passer par le dossier qui les contient. Deux autres sont également disponibles pour appeler l’application Mesure. Enfin, une option permet de réinitialiser le Centre à ses paramètres par défaut, supprimant toute personnalisation.

Plus visible, une amélioration permet aux notifications d’afficher un petit chiffre sur les piles, indiquant combien la pile en contient. Un ajout tout simple, mais si évident que l’on se demande pourquoi il n’est pas arrivé avant. Le chiffre apparait en haut à droite de l’icône à gauche des notifications. On peut cependant lui reprocher sa taille, l’information est si petite qu’elle pourrait passer inaperçue.

On trouve également un passage rapide à la caméra TrueDepth avant sur la gamme iPhone 16, la possibilité de prendre des photos et vidéos spatiales sur la gamme iPhone 15, la compatibilité avec les fonctions dédiées à l’audition sur les AirPods Pro 2 (qui reçoivent un nouveau firmware), ainsi que diverses corrections de bugs.

Sur macOS 15.1, le programme est nettement moins riche. Sorti d’Apple Intelligence, le seul nouvel apport réellement visible est l’arrivée d’une option permettant d’installer les applications de plus de 1 Go sur un autre volume. La mise à jour corrige également plusieurs dizaines de failles de sécurité. Celles-ci sont également colmatées par les versions de macOS 14.7.1 et 13.7.1, disponibles pour les machines plus anciennes.

Les iMac passent à la puce M4

Comme prévu, les premières machines à passer à la moulinette M4 sont les iMac. Le renouvellement se fait essentiellement par la puce (qui remplace le M3 de l’iMac précédent) et le passage à 16 Go de mémoire par défaut. Soit ce que les rumeurs en annonçaient. Le format reste le même, tout comme les couleurs disponibles, la répartition de la gamme et la dalle, qui reste de 24 pouces en 4,5K.

Le premier modèle propose ainsi un M4 contenant 8 cœurs CPU et 8 cœurs GPU pour 1 499 euros, un tarif légèrement en baisse. En revanche, comme précédemment, il n’y a que deux ports Thunderbolt/USB4 et pas d’Ethernet. À 1 749 euros, la seconde configuration passe à 10 cœurs CPU et 10 cœurs GPU, quatre ports Thunderbolt/USB4 et un port Gigabit Ethernet. Le clavier Magic Keyboard récupère Touch ID. Toutes les configurations sont fournies avec un SSD de 256 Go et mettent en avant la compatibilité Apple Intelligence.

À noter que tous les accessoires désormais fournis avec ces Mac abandonnent le port Lightning pour l’USB-C. Les précommandes sont ouvertes, pour des livraisons qui commenceront le 8 novembre.

❌