Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 15 mai 2024Actualités numériques

☕️ Arm se lancerait pleinement dans l’intelligence artificielle en 2025

15 mai 2024 à 06:09

Selon Nikkei Asia, la société compterait se lancer dans le développement de puces dédiées pour l’intelligence artificielle l’année prochaine, avec un prototype dès le printemps 2025. Bien évidemment, aucun détail n’est pour le moment donné.

Le développement sera assuré par Arm (avec la participation de son principal actionnaire SoftBank), dans le but ensuite de scinder la branche IA et de la placer sous le contrôle de SoftBank, selon nos confrères. « SoftBank négocie déjà avec Taiwan Semiconductor Manufacturing Corp. [TSMC, ndlr] et d’autres afin de sécuriser la capacité de production ».

Selon Nikkei, Arm disposerait d’une fenêtre intéressante : « NVIDIA est actuellement en tête du domaine mais ne peut pas répondre à la demande croissante. SoftBank y voit une opportunité ». Arm n’est pas le seul en piste, loin de là. De nombreuses sociétés (y compris en France) se sont déjà lancées dans la conception de puces pour l’intelligence artificielle.

☕️ Arm se lancerait pleinement dans l’intelligence artificielle en 2025

15 mai 2024 à 06:09

Selon Nikkei Asia, la société compterait se lancer dans le développement de puces dédiées pour l’intelligence artificielle l’année prochaine, avec un prototype dès le printemps 2025. Bien évidemment, aucun détail n’est pour le moment donné.

Le développement sera assuré par Arm (avec la participation de son principal actionnaire SoftBank), dans le but ensuite de scinder la branche IA et de la placer sous le contrôle de SoftBank, selon nos confrères. « SoftBank négocie déjà avec Taiwan Semiconductor Manufacturing Corp. [TSMC, ndlr] et d’autres afin de sécuriser la capacité de production ».

Selon Nikkei, Arm disposerait d’une fenêtre intéressante : « NVIDIA est actuellement en tête du domaine mais ne peut pas répondre à la demande croissante. SoftBank y voit une opportunité ». Arm n’est pas le seul en piste, loin de là. De nombreuses sociétés (y compris en France) se sont déjà lancées dans la conception de puces pour l’intelligence artificielle.

Hier — 14 mai 2024Actualités numériques

Rhea1 : enfin des détails techniques sur le CPU pour les supercalculateurs européens

14 mai 2024 à 14:04
Un lancement avant Ariane 6 ?
Processeur Rhea1

SiPearl donne enfin des détails sur son processeur Rhea1 pensé pour les supercalculateurs. On apprend notamment qu’il exploitera 80 cœurs Arm Neoverse V1. Il n’arrivera qu’en 2025, en retard sur ce qui était encore prévu il y a quelques mois.

En septembre dernier, nous avions rencontré les équipes de SiPearl, une société française (basée à Maisons-Laffitte) en charge de développer le processeur européen pour le HPC (calcul haute performance). Il sera notamment dans JUPITER, le premier supercalculateur exascale européen (financé en partie par la Commission européenne) qui sera installé en Allemagne.

Il y a un an, SiPearl bouclait un tour de table de 90 millions d’euros auprès d’Arm, Eviden (Atos), le fonds d’investissement European Innovation Council (EIC) et French Tech Souveraineté. Cette manne lui a permis ainsi de régler ses soucis financiers, de recruter et d’aller de l’avant. Marie-Anne Garigue, directrice de la communication de la société, affirmait que les soucis étaient uniquement financiers, pas techniques.

80 cœurs Arm Neoverse V1…

On sait depuis longtemps que le processeur sera articulé autour de cœurs Arm Neoverse v1. On connait désormais leur nombre : 80 cœurs par CPU. Le Neoverse V1 est pour rappel un dérivé du Cortex-X1, mais pensé pour les datacenters. Arm a depuis lancé les Neoverse V2 (dérivés du Cortex-X3) et récemment le Neoverse V3. NVIDIA utilise par exemple 72 cœurs Arm Neoverse V2 pour la partie CPU de sa puce GH200 Grace Hopper Superchip et de sa nouvelle GB200 Grace Blackwell Superchip. Même chose chez Amazon avec son SoC Graviton4 et chez Google avec l’Axion.

…avec des extensions vectorielles évolutives

Revenons à SiPearl et son Rhea1. Chacun des 80 cœurs Neoverse V1 sera accompagné de « deux unités SVE  [Scalable Vector Extension ou extension vectorielle évolutive, ndlr] de 256 bits », comme c‘est le cas par défaut avec les cœurs Neoverse V1. Ces deux unités sont d’ailleurs une différence importante avec les Cortex-X1. Selon SiPearl, elles permettent « des calculs vectoriels rapides tout en optimisant l’espace et l’énergie utilisée ». Arm ajoute qu’elles proposent « de meilleures performances HPC et IA/ML ». L’entreprise est un peu plus loquace et ajoute que « SVE a été inventé en collaboration avec Fujitsu pour le projet Fugaku [un supercalculateur qui a pendant un temps occupé la première place du Top500, ndlr] et permet une programmation agnostique en largeur vectorielle. SVE permet l’exécution de code de vecteurs allant de 128b à 2048b de large sur Neoverse V1 sans nécessiter de recompilation ».

HBM, DDR5,104 lignes PCIe 5.0 et CMN-700

Côté mémoire, Rhea1 dispose de « quatre piles HBM » (dans d’autres documents, il est précisé HBM2e) et de « quatre interfaces DDR5 », prenant en charge deux DIMM par canal. On retrouve aussi 104 lignes PCIe Gen 5 avec une répartition 6x 16 lignes + 2x 4 lignes (soit 104 lignes au total, le compte est bon). SiPearl précise qu’un « réseau maillé cohérent sur puce (NoC) haute performance arm Neoverse CMN-700 [CMN pour Coherent Mesh Network, ndlr] pour interconnecter les éléments de calcul et d'entrée/sortie » est aussi de la partie. Là encore, c’est dans le package proposé par Arm avec sa plateforme Neoverse V1. Le CMN-700 peut gérer jusqu’à 256 cœurs par die, selon Arm.

Multiples langages : C++, GO, Rust, TensorFlow, PyTorch

Côté programmation, le CPU Rhea1 « sera supporté par une large gamme de compilateurs, de bibliothèques et d'outils, allant des langages de programmation traditionnels tels que C/C++, Go et Rust aux structures d'intelligence artificielle modernes comme TensorFlow ou PyTorch ».

Rhea1 n’arrivera finalement qu’en 2025

On apprend par contre que le processeur aura encore du retard puisque « les premiers échantillons de Rhea1 seront disponibles en 2025 ». En effet, en septembre dernier, SiPearl nous expliquait que la commercialisation se ferait dans le « courant de l’année » 2024. En avril 2023, après la levée de fonds, l’entreprise annonçait « une commercialisation début 2024 ». Le supercalculateur européen JUPITER devra donc lui aussi attendre, puisqu’il est prévu qu’il intègre les processeurs Rhea1. La Commission européenne expliquait il y a peu que « le supercalculateur JUPITER devrait être accessible à un large éventail d’utilisateurs européens à partir de la fin de 2024 ».

Rhea2 aussi en 2025 ?

Rhea2 était prévu pour 2025 aux dernières nouvelles, avec une technologie « dual chiplet » permettant d’intégrer plus de cœurs sur une même puce. La société ne précise pas si le calendrier de la seconde génération glisse lui aussi.

Rhea1 : enfin des détails techniques sur le CPU pour les supercalculateurs européens

14 mai 2024 à 14:04
Un lancement avant Ariane 6 ?
Processeur Rhea1

SiPearl donne enfin des détails sur son processeur Rhea1 pensé pour les supercalculateurs. On apprend notamment qu’il exploitera 80 cœurs Arm Neoverse V1. Il n’arrivera qu’en 2025, en retard sur ce qui était encore prévu il y a quelques mois.

En septembre dernier, nous avions rencontré les équipes de SiPearl, une société française (basée à Maisons-Laffitte) en charge de développer le processeur européen pour le HPC (calcul haute performance). Il sera notamment dans JUPITER, le premier supercalculateur exascale européen (financé en partie par la Commission européenne) qui sera installé en Allemagne.

Il y a un an, SiPearl bouclait un tour de table de 90 millions d’euros auprès d’Arm, Eviden (Atos), le fonds d’investissement European Innovation Council (EIC) et French Tech Souveraineté. Cette manne lui a permis ainsi de régler ses soucis financiers, de recruter et d’aller de l’avant. Marie-Anne Garigue, directrice de la communication de la société, affirmait que les soucis étaient uniquement financiers, pas techniques.

80 cœurs Arm Neoverse V1…

On sait depuis longtemps que le processeur sera articulé autour de cœurs Arm Neoverse v1. On connait désormais leur nombre : 80 cœurs par CPU. Le Neoverse V1 est pour rappel un dérivé du Cortex-X1, mais pensé pour les datacenters. Arm a depuis lancé les Neoverse V2 (dérivés du Cortex-X3) et récemment le Neoverse V3. NVIDIA utilise par exemple 72 cœurs Arm Neoverse V2 pour la partie CPU de sa puce GH200 Grace Hopper Superchip et de sa nouvelle GB200 Grace Blackwell Superchip. Même chose chez Amazon avec son SoC Graviton4 et chez Google avec l’Axion.

…avec des extensions vectorielles évolutives

Revenons à SiPearl et son Rhea1. Chacun des 80 cœurs Neoverse V1 sera accompagné de « deux unités SVE  [Scalable Vector Extension ou extension vectorielle évolutive, ndlr] de 256 bits », comme c‘est le cas par défaut avec les cœurs Neoverse V1. Ces deux unités sont d’ailleurs une différence importante avec les Cortex-X1. Selon SiPearl, elles permettent « des calculs vectoriels rapides tout en optimisant l’espace et l’énergie utilisée ». Arm ajoute qu’elles proposent « de meilleures performances HPC et IA/ML ». L’entreprise est un peu plus loquace et ajoute que « SVE a été inventé en collaboration avec Fujitsu pour le projet Fugaku [un supercalculateur qui a pendant un temps occupé la première place du Top500, ndlr] et permet une programmation agnostique en largeur vectorielle. SVE permet l’exécution de code de vecteurs allant de 128b à 2048b de large sur Neoverse V1 sans nécessiter de recompilation ».

HBM, DDR5,104 lignes PCIe 5.0 et CMN-700

Côté mémoire, Rhea1 dispose de « quatre piles HBM » (dans d’autres documents, il est précisé HBM2e) et de « quatre interfaces DDR5 », prenant en charge deux DIMM par canal. On retrouve aussi 104 lignes PCIe Gen 5 avec une répartition 6x 16 lignes + 2x 4 lignes (soit 104 lignes au total, le compte est bon). SiPearl précise qu’un « réseau maillé cohérent sur puce (NoC) haute performance arm Neoverse CMN-700 [CMN pour Coherent Mesh Network, ndlr] pour interconnecter les éléments de calcul et d'entrée/sortie » est aussi de la partie. Là encore, c’est dans le package proposé par Arm avec sa plateforme Neoverse V1. Le CMN-700 peut gérer jusqu’à 256 cœurs par die, selon Arm.

Multiples langages : C++, GO, Rust, TensorFlow, PyTorch

Côté programmation, le CPU Rhea1 « sera supporté par une large gamme de compilateurs, de bibliothèques et d'outils, allant des langages de programmation traditionnels tels que C/C++, Go et Rust aux structures d'intelligence artificielle modernes comme TensorFlow ou PyTorch ».

Rhea1 n’arrivera finalement qu’en 2025

On apprend par contre que le processeur aura encore du retard puisque « les premiers échantillons de Rhea1 seront disponibles en 2025 ». En effet, en septembre dernier, SiPearl nous expliquait que la commercialisation se ferait dans le « courant de l’année » 2024. En avril 2023, après la levée de fonds, l’entreprise annonçait « une commercialisation début 2024 ». Le supercalculateur européen JUPITER devra donc lui aussi attendre, puisqu’il est prévu qu’il intègre les processeurs Rhea1. La Commission européenne expliquait il y a peu que « le supercalculateur JUPITER devrait être accessible à un large éventail d’utilisateurs européens à partir de la fin de 2024 ».

Rhea2 aussi en 2025 ?

Rhea2 était prévu pour 2025 aux dernières nouvelles, avec une technologie « dual chiplet » permettant d’intégrer plus de cœurs sur une même puce. La société ne précise pas si le calendrier de la seconde génération glisse lui aussi.
À partir d’avant-hierActualités numériques

SoC M4 : évolutions (face aux M1 à M3) et promesses floues d’Apple

13 mai 2024 à 13:13
Bientôt M6, la petite puce qui monte ?
Apple M4 SoC

La semaine dernière, Apple a présenté comme prévu sa nouvelle gamme de tablette iPad Pro, avec une nouvelle puce maison : M4. Cette quatrième génération prend donc la relève du SoC M3. Nous avons regroupé les principales caractéristiques techniques des M1 à M4 dans un tableau, avec une mise en perspective des performances annoncées par Apple.

Comme à son habitude, Apple ne tarit pas d’éloges lorsqu’il s’agit de présenter un nouveau produit, quel qu’il soit. Avec la puce M4, on a eu droit à une débauche de chiffres et de promesses – « performances exceptionnelles », « révolutionnaire »… – , mais parfois avec des non-dits très importants.

SoC M4 : 9 ou 10 cœurs CPU

Dans son communiqué, Apple annonce « jusqu’à 10 cœurs » pour la partie CPU, ce qui veut évidemment dire qu’il existe au moins une version plus légère. Et, en effet, la nouvelle puce M4 intègre 9 ou 10 cœurs avec 3 ou 4 cœurs performances (P) et 6 cœurs efficaces (E). Les générations précédentes étaient à 8 cœurs pour le CPU (4P et 4E).

Il faut se rendre sur la page de l’iPad Pro pour trouver le détail des configurations : « Les modèles d’iPad Pro avec 256 Go ou 512 Go de stockage sont équipés de la puce Apple M4 avec CPU 9 cœurs. Les modèles d’iPad Pro avec 1 To ou 2 To de stockage sont équipés de la puce Apple M4 avec CPU 10 cœurs ».

Le stockage détermine les cœurs CPU et la mémoire

Seuls les modèles les plus chers peuvent donc profiter des 10 cœurs du SoC M4. Les iPad Pro de 256 et 512 Go n’ont en effet droit qu’à trois cœurs P, soit un de moins que la puce M3, mais avec deux cœurs E de plus. Apple insiste d’ailleurs beaucoup sur le gain en efficacité énergétique de son SoC.

Ce n’est d’ailleurs pas le seul changement : les iPad Pro de 256 et 512 Go ont 8 Go de mémoire seulement, quand les versions de 1 et 2 To ont 16 Go. Ces différences ne sont pas mises en avant par Apple dans sa boutique en ligne. Il faut cliquer sur « Vous ne savez pas pour quel espace de stockage opter ? Voici quelques conseils pour déterminer l’espace qu’il vous faut » pour avoir le détail.

Le SoC M4 intègre 10 cœurs GPU

Sur la partie GPU, il y a toujours 10 cœurs avec la puce M4 (dans sa version pour les iPad Pro en tout cas), alors que cela varie de 8 à 10 sur les M3 et M2.

Apple explique que « le nouveau GPU 10 cœurs de la puce M4 fait évoluer l’architecture graphique de nouvelle génération de la famille des puces M3. Il intègre la mise en cache dynamique, une innovation Apple qui alloue la mémoire locale de façon dynamique dans le matériel et en temps réel afin d’accroître l’utilisation moyenne du GPU ».

Cette technologie n’est pas une nouveauté du M4, car elle était déjà mise en avant sur le SoC M3. Il semble que les nouveaux cœurs GPU n’aient pas grand-chose de nouveau par rapport à ceux de la génération précédente, mais cela reste à confirmer.

Comparatif des performances à la sauce Apple

Pour les performances, Apple annonce des « rendus pro jusqu’à 4x plus rapides qu’avec la M2 » et des « performances du CPU jusqu’à 1,5x plus rapides qu’avec la M2 ». Problème, il s’agit de comparer une puce avec deux générations d’écart et un nombre de cœurs CPU différent : 10 pour la version M4, 8 pour la M2.

Pour le GPU, c’est encore pire. Le « 4x » est donné pour Octane X 2024.1 (a4) 4-09-2024, version « testée à l’aide d’une scène comprenant 780 000 maillages (meshes) et 27 millions de primitives uniques, en utilisant le ray tracing à accélération matérielle sur les systèmes équipés de la M4 et le ray tracing basé sur le logiciel sur toutes les autres unités ».

Le GPU de la puce M2 ne prend pour rappel pas en charge le ray tracing, qui est une nouveauté du M3. Forcément, la puce M4 fait bien mieux puisqu’elle dispose d’une accélération matérielle. De manière générale, Apple se garde bien de comparer son M4 au M3. Pourtant, lors de l’annonce de la famille M3, les performances des cœurs P et E étaient comparées à celle des générations précédentes.

Si la communication d’Apple s’axe beaucoup sur la comparaison M2 et M4, c’est que le nouvel iPad Pro saute une génération de puce. Le SoC M3 est en effet pour le moment réservé à certains MacBook et iMac.

38 TOPS… qui ne veulent pas dire grand-chose en l’état

Passons à une autre « astuce » d’Apple, sur le Neural Engine cette fois-ci. La société met en avant des performances de 38 TOPS, bien au-delà des 18 TOPS de la puce M3 (qui a aussi 16 cœurs NPU). Mais comme Apple ne donne aucune information sur la précision (entier, virgule flottante, nombre de bits…), impossible de savoir ce qu’il en est.

En tout état de cause, impossible d’affirmer pour le moment que les performances sont plus que doublées (de 18 à 38 TOPS). En effet, si le M3 est mesuré en INT16 à 18 TOPS et que le M4 est en INT8 à 38 TOPS, alors cela donnerait 18 et 19 TOPS (INT16) ou 36 et 38 TOPS (INT8) en base comparable pour les M3 et M4 respectivement, soit un gain de 5 % seulement.

Une « astuce » déjà utilisée par NVIDIA lors de l’annonce de Blackwell. Le constructeur a mis deux GPU sur une seule puce et affiche des performances en FP4, deux fois supérieures à celle en FP8. NVIDIA pouvait ainsi passer de 4 000 à 20 000 TFLOPS, alors que le gain sur le GPU en base comparable n’est « que » de 25 % entre Hopper et Blackwell.

Bande passante, décodage AV1, finesse de gravure…

Seule certitude, la bande passante de la mémoire grimpe de 20 % (certainement via une hausse de la fréquence) et passe ainsi de 100 à 120 Go/s. La finesse de gravure est toujours en 3 nm (comme pour les M3), mais passe à la seconde génération. Un nouveau contrôleur vidéo Tandem OLED est de la partie.

Apple n’a pas précisé la quantité de mémoire unifiée maximum sur la puce M4, mais on peut supposer qu’elle devrait être identique à celle de la M3, avec jusqu’à 24 Go. Autre « nouveauté » de la puce M4 mise en avant par Apple : le décodage vidéo AV1 sur iPad. Les Mac équipés de M3 pouvaient déjà le faire.

Le fabricant n’a pas encore annoncé les versions Pro et Max de sa puce M4. Il faudra également attendre de voir si un SoC M4 Ultra verra le jour. Les précédentes versions Ultra étaient pour rappel deux puces M1 ou M2 Max assemblées pour doubler les performances.

Tableau récapitulatif des puces M1 à M4

Voici pour finir notre tableau comparatif des caractéristiques des différentes variantes de puces Mx d’Apple (sauf les versions Ultra).

☕️ Domotique : Matter 1.3 permet la gestion de l’énergie, de l’eau et des bornes de recharge

13 mai 2024 à 07:11
Matter 1.3

Matter (anciennement CHIP) est un protocole domotique, dont la version finale a été mise en ligne fin 2022. Il est développé par la Connectivity Standards Alliance (CSA), anciennement Zigbee Alliance.

La nouvelle version 1.3 du protocole propose une gestion de l’énergie. « Cela permet à tout type d’appareil d’inclure la possibilité de rapporter des mesures réelles et estimées, y compris la puissance instantanée, la tension, le courant et d’autres données en temps réel, ainsi que sa consommation ou sa production d’énergie au fil du temps ».

Les bornes de recharge sont aussi de la partie. Elles peuvent utiliser le protocole pour proposer un démarrage/arrêt de la charge, modifier la puissance, préciser l’autonomie souhaitée avant de partir, gérer la charge en fonction des tarifs de l’électricité, etc.

Enfin, pour l’eau, Matter prend en charge « les détecteurs de fuite et de gel, les capteurs de pluie et les vannes d’eau contrôlables ».

De nombreux nouveaux types d’appareils sont intégrés dans Matter 1.3 pour simplifier la vie des fabricants qui voudraient sauter le pas : fours, fours à micro-onde, table de cuisson, hottes et sèche-linge. Les frigos, climatisations, lave-vaisselle, lave-linge, aspirateurs, ventilateurs, détecteurs de fumée et de qualité de l’air avaient été ajoutés dans la version 1.2 en octobre dernier. Il faut bien évidemment que le fabricant intègre le protocole Matter pour que l’appareil soit compatible.

Niveau fonctionnalités, on trouve aussi les scènes. De plus, « un contrôleur Matter peut désormais regrouper plusieurs commandes en un seul message lors de la communication avec des périphériques Matter afin de minimiser le délai entre l’exécution de ces commandes ».

Les notes de version détaillées se trouvent par ici.

☕️ Domotique : Matter 1.3 permet la gestion de l’énergie, de l’eau et des bornes de recharge

13 mai 2024 à 07:11
Matter 1.3

Matter (anciennement CHIP) est un protocole domotique, dont la version finale a été mise en ligne fin 2022. Il est développé par la Connectivity Standards Alliance (CSA), anciennement Zigbee Alliance.

La nouvelle version 1.3 du protocole propose une gestion de l’énergie. « Cela permet à tout type d’appareil d’inclure la possibilité de rapporter des mesures réelles et estimées, y compris la puissance instantanée, la tension, le courant et d’autres données en temps réel, ainsi que sa consommation ou sa production d’énergie au fil du temps ».

Les bornes de recharge sont aussi de la partie. Elles peuvent utiliser le protocole pour proposer un démarrage/arrêt de la charge, modifier la puissance, préciser l’autonomie souhaitée avant de partir, gérer la charge en fonction des tarifs de l’électricité, etc.

Enfin, pour l’eau, Matter prend en charge « les détecteurs de fuite et de gel, les capteurs de pluie et les vannes d’eau contrôlables ».

De nombreux nouveaux types d’appareils sont intégrés dans Matter 1.3 pour simplifier la vie des fabricants qui voudraient sauter le pas : fours, fours à micro-onde, table de cuisson, hottes et sèche-linge. Les frigos, climatisations, lave-vaisselle, lave-linge, aspirateurs, ventilateurs, détecteurs de fumée et de qualité de l’air avaient été ajoutés dans la version 1.2 en octobre dernier. Il faut bien évidemment que le fabricant intègre le protocole Matter pour que l’appareil soit compatible.

Niveau fonctionnalités, on trouve aussi les scènes. De plus, « un contrôleur Matter peut désormais regrouper plusieurs commandes en un seul message lors de la communication avec des périphériques Matter afin de minimiser le délai entre l’exécution de ces commandes ».

Les notes de version détaillées se trouvent par ici.

☕️ Vague de faux signalements sur Waze ce week-end

13 mai 2024 à 06:21

La semaine dernière était un peu particulière : les 8 et 9 mai étaient fériés et beaucoup ont fait le pont vendredi. Résultat des courses, un week-end prolongé pour certains dès mardi soir. Combiné avec un temps des plus agréables, cela donne de nombreux déplacements, et donc des centaines de kilomètres de bouchons au départ mercredi et au retour dimanche.

Nombreux étaient les conducteurs avec Waze pour essayer de trouver le trajet le plus rapide, en limitant autant que possible les bouchons. Mais l’application a fait face à une importante vague de faux signalements en tout genre : contrôles de police, voitures arrêtées, alertes météo, mais également routes enneigées et verglacées. Sur l’A6 et l’A10 par exemple, ils se comptaient par dizaines.

Waze permet pour rappel à tout un chacun de « contribuer à l’amélioration de la carte » en signalant la présence de la police, un accident, un danger, du mauvais temps, une route bloquée, etc. L’application demande alors aux autres usagers si le « danger » est toujours présent ou non.

« Les signalements s’affichent sur la carte pendant un certain temps. Cette durée varie en fonction du nombre de Wazers qui réagissent à un signalement. Si un signalement n’est plus exact, appuyez sur Plus là. Cela permet de réduire la durée d’affichage du signalement », explique Google. Hier, c’était un peu le jeu du chat et de la souris avec des faux signalements qui apparaissaient et disparaissaient.

L’application a des protections contre les signalements abusifs et excessifs : « Si vous avez effectué un nombre excessif de signalements dans votre compte, vous ne pourrez plus en effectuer pendant un certain temps. Si votre compte a été signalé plusieurs fois pour ce même motif, ce délai augmentera » : 24h pour le premier avertissement, 7 jours pour le second et 30 jours pour le troisième.

Nous avons demandé à Waze si le service avait plus de précision sur ce qu’il s’est passé ce week-end. Et vous, avez-vous remarqué une recrudescence des faux signalements sur Waze durant ce week-end prolongé ?

☕️ Vague de faux signalements sur Waze ce week-end

13 mai 2024 à 06:21

La semaine dernière était un peu particulière : les 8 et 9 mai étaient fériés et beaucoup ont fait le pont vendredi. Résultat des courses, un week-end prolongé pour certains dès mardi soir. Combiné avec un temps des plus agréables, cela donne de nombreux déplacements, et donc des centaines de kilomètres de bouchons au départ mercredi et au retour dimanche.

Nombreux étaient les conducteurs avec Waze pour essayer de trouver le trajet le plus rapide, en limitant autant que possible les bouchons. Mais l’application a fait face à une importante vague de faux signalements en tout genre : contrôles de police, voitures arrêtées, alertes météo, mais également routes enneigées et verglacées. Sur l’A6 et l’A10 par exemple, ils se comptaient par dizaines.

Waze permet pour rappel à tout un chacun de « contribuer à l’amélioration de la carte » en signalant la présence de la police, un accident, un danger, du mauvais temps, une route bloquée, etc. L’application demande alors aux autres usagers si le « danger » est toujours présent ou non.

« Les signalements s’affichent sur la carte pendant un certain temps. Cette durée varie en fonction du nombre de Wazers qui réagissent à un signalement. Si un signalement n’est plus exact, appuyez sur Plus là. Cela permet de réduire la durée d’affichage du signalement », explique Google. Hier, c’était un peu le jeu du chat et de la souris avec des faux signalements qui apparaissaient et disparaissaient.

L’application a des protections contre les signalements abusifs et excessifs : « Si vous avez effectué un nombre excessif de signalements dans votre compte, vous ne pourrez plus en effectuer pendant un certain temps. Si votre compte a été signalé plusieurs fois pour ce même motif, ce délai augmentera » : 24h pour le premier avertissement, 7 jours pour le second et 30 jours pour le troisième.

Nous avons demandé à Waze si le service avait plus de précision sur ce qu’il s’est passé ce week-end. Et vous, avez-vous remarqué une recrudescence des faux signalements sur Waze durant ce week-end prolongé ?

L’histoire du BASIC, lancé il y a plus de 60 ans

10 mai 2024 à 13:20
Simple, basique

Le BASIC est un langage de programmation que les moins jeunes connaissent certainement, voire qu’ils ont étudié à l’école pour certains (j’en fais partie, cela ne me rajeunit pas…). Ce projet universitaire, qui réunit à la fois un langage de programmation et la notion de temps partagé, vient de fêter ses 60 ans. On remonte donc soixante ans en arrière…

Il y a quelques jours, le BASIC fêtait ses 60 ans : « à 4 heures du matin, le 1er mai 1964, dans le sous-sol du College Hall, le professeur John G. Kemeny et un étudiant programmeur [Thomas E. Kurtz, ndlr] tapaient simultanément RUN sur les terminaux voisins », explique le Dartmouth College, une université privée du nord-est des États-Unis, où s’est déroulé cette première.

Pour vous resituer un peu, c’est aussi dans les années 60 que Douglas Engelbart a inventé la souris. Internet n’existait pas, et ARPANET n’est arrivé que cinq ans plus tard, en octobre 1969, avec le premier paquet de données qui transitait entre une université et une entreprise.

« Premier système de partage de temps à usage général »


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Google lance son Pixel 8a, à 549 euros

10 mai 2024 à 06:23

Alors qu’Apple occupait une bonne partie de l’espace médiatique avec ses nouveaux iPad et sa puce M4 (nous y reviendrons), Google a lancé son nouveau smartphone « d’entrée de gamme » : le Pixel 8a. Comptez 549 euros tout de même.

Google indique que « son nouvel écran [6,1 pouces, OLED, 1080 x 2400, ndlr] Actua est 40 % plus lumineux que celui du Pixel 7a » et profite d’un taux de rafraichissement de 120 Hz. Le smartphone dispose d’un capteur photo de 64 Mpx et d’un objectif ultra grand-angle de 13 Mpx.

Comme les Pixel 8 et 8 Pro, le Pixel 8a est équipé d’une puce Tensor G3 de Google. 8 Go de LPDDR5x et 128 ou 256 Go de stockage sont de la partie. On retrouve du Wi-Fi 6E, du Bluetooth 5.3, de la 5G, du NFC… Toutes les caractéristiques techniques sont disponibles par ici.

Le fabricant met en avant les « outils fondés sur l’IA pour tirer le meilleur parti de vos photos et vidéos ». Il y a notamment la « retouche magique », la « gomme magique audio », la fonction « entourer pour chercher ». Il y a aussi les « audiomoj » pour vos conversations audio.

Le Pixel 8a sera disponible à partir du 14 mai, pour 549 euros. Google annonce « sept ans de support logiciel, y compris les mises à jour de sécurité et les mises à jour Android ».

☕️ Google lance son Pixel 8a, à 549 euros

10 mai 2024 à 06:23

Alors qu’Apple occupait une bonne partie de l’espace médiatique avec ses nouveaux iPad et sa puce M4 (nous y reviendrons), Google a lancé son nouveau smartphone « d’entrée de gamme » : le Pixel 8a. Comptez 549 euros tout de même.

Google indique que « son nouvel écran [6,1 pouces, OLED, 1080 x 2400, ndlr] Actua est 40 % plus lumineux que celui du Pixel 7a » et profite d’un taux de rafraichissement de 120 Hz. Le smartphone dispose d’un capteur photo de 64 Mpx et d’un objectif ultra grand-angle de 13 Mpx.

Comme les Pixel 8 et 8 Pro, le Pixel 8a est équipé d’une puce Tensor G3 de Google. 8 Go de LPDDR5x et 128 ou 256 Go de stockage sont de la partie. On retrouve du Wi-Fi 6E, du Bluetooth 5.3, de la 5G, du NFC… Toutes les caractéristiques techniques sont disponibles par ici.

Le fabricant met en avant les « outils fondés sur l’IA pour tirer le meilleur parti de vos photos et vidéos ». Il y a notamment la « retouche magique », la « gomme magique audio », la fonction « entourer pour chercher ». Il y a aussi les « audiomoj » pour vos conversations audio.

Le Pixel 8a sera disponible à partir du 14 mai, pour 549 euros. Google annonce « sept ans de support logiciel, y compris les mises à jour de sécurité et les mises à jour Android ».

☕️ FurMark débarque en version 2.3, avec la prise en charge des Raspberry Pi

7 mai 2024 à 06:37

En février, JeGX publiait la version 2.0 de son application pour analyser les performances et la stabilité de votre GPU (avec un stress intense). La version 2.3 a été mise en ligne hier.

Les notes de version parlent de petits changements comme l’ajout de la vitesse du ventilateur dans la section GPU monitoring. Il y a bien évidemment aussi les traditionnelles corrections de bugs.

Mais on retrouve surtout la prise en charge d’un nouveau système : Raspberry Pi OS (64-bit, arm64/aarch64). Cette version a été compilée sur Debian 11 avec GLIBC 2.31.

JeGX en profite pour donner deux résultats : « Sur le Raspberry Pi 4, FurMark 2 fonctionne à 1 FPS (résolution : 1024×640). Le nouveau matériel du Raspberry Pi 5 est beaucoup plus rapide : on atteint 4 FPS (toujours à 1024×640) ».

« J’ai essayé de supprimer les dépendances de Raspberry Pi et j’espère que cette version fonctionnera sur d’autres plates-formes arm64/aarch64 », ajoute-t-il.

☕️ FurMark débarque en version 2.3, avec la prise en charge des Raspberry Pi

7 mai 2024 à 06:37

En février, JeGX publiait la version 2.0 de son application pour analyser les performances et la stabilité de votre GPU (avec un stress intense). La version 2.3 a été mise en ligne hier.

Les notes de version parlent de petits changements comme l’ajout de la vitesse du ventilateur dans la section GPU monitoring. Il y a bien évidemment aussi les traditionnelles corrections de bugs.

Mais on retrouve surtout la prise en charge d’un nouveau système : Raspberry Pi OS (64-bit, arm64/aarch64). Cette version a été compilée sur Debian 11 avec GLIBC 2.31.

JeGX en profite pour donner deux résultats : « Sur le Raspberry Pi 4, FurMark 2 fonctionne à 1 FPS (résolution : 1024×640). Le nouveau matériel du Raspberry Pi 5 est beaucoup plus rapide : on atteint 4 FPS (toujours à 1024×640) ».

« J’ai essayé de supprimer les dépendances de Raspberry Pi et j’espère que cette version fonctionnera sur d’autres plates-formes arm64/aarch64 », ajoute-t-il.

☕️ Boeing Starliner n’a finalement toujours pas décollé…

7 mai 2024 à 05:39
Boeing Starliner

On pourrait presque croire à un gag. Cinq ans après le premier vol non habité, Boeing devait envoyer cette nuit ses premiers astronautes dans l’espace, direction la Station spatiale internationale. La tentative a été annulée « en raison d’un problème de soupape sur l’étage supérieur du lanceur », explique le constructeur.

La décision a été prise par le fabricant de la fusée : « United Launch Alliance (ULA), avec l’accord de Boeing et de la NASA, a annulé le lancement un peu plus de deux heures avant l’heure de décollage initialement prévue pour l’essai en vol de l’équipage CST-100 Starliner ». Les astronautes de la NASA Butch Wilmore et Suni Williams sont sortis de la capsule et sont retournés dans leurs quartiers.

Les analyses sont en cours pour « bien comprendre le problème et déterminer les mesures correctives ». TechCrunch rappelle que des dates de secours sont prévues les 7, 10 et 11 mai, mais encore faut-il que le souci soit identifié et corrigé.

Pour la NASA, la date de lancement ne sera pas avant le 10 mai : ” Ce délai permet aux équipes de compléter l’analyse des données sur une vanne de régulation de pression du réservoir d’oxygène liquide de l’étage supérieur Centaur de la fusée Atlas V, et déterminer s’il est nécessaire de la remplacer “

☕️ Boeing Starliner n’a finalement toujours pas décollé…

7 mai 2024 à 05:39
Boeing Starliner

On pourrait presque croire à un gag. Cinq ans après le premier vol non habité, Boeing devait envoyer cette nuit ses premiers astronautes dans l’espace, direction la Station spatiale internationale. La tentative a été annulée « en raison d’un problème de soupape sur l’étage supérieur du lanceur », explique le constructeur.

La décision a été prise par le fabricant de la fusée : « United Launch Alliance (ULA), avec l’accord de Boeing et de la NASA, a annulé le lancement un peu plus de deux heures avant l’heure de décollage initialement prévue pour l’essai en vol de l’équipage CST-100 Starliner ». Les astronautes de la NASA Butch Wilmore et Suni Williams sont sortis de la capsule et sont retournés dans leurs quartiers.

Les analyses sont en cours pour « bien comprendre le problème et déterminer les mesures correctives ». TechCrunch rappelle que des dates de secours sont prévues les 7, 10 et 11 mai, mais encore faut-il que le souci soit identifié et corrigé.

Pour la NASA, la date de lancement ne sera pas avant le 10 mai : ” Ce délai permet aux équipes de compléter l’analyse des données sur une vanne de régulation de pression du réservoir d’oxygène liquide de l’étage supérieur Centaur de la fusée Atlas V, et déterminer s’il est nécessaire de la remplacer “

Chang’e 6 fait route vers la Lune, avec l’instrument français DORN

6 mai 2024 à 14:41
Chang’ez de face

C’est fait. Après des années de préparation, la sonde chinoise Chang’e 6 fait route vers la Lune. Elle se posera sur la face cachée avec deux missions importantes. Analyser le radon et récupérer 2 kg de matériaux pour les rapporter sur Terre.

La Chine multiplie les missions en direction de la Lune depuis plusieurs années. On pense notamment à Chang’e 4 qui s’est posé sur la face cachée de la Lune en 2019. Puis à Chang’e 5 qui a permis à la Chine de récupérer des échantillons lunaires.

Vendredi, c’est la mission Chang’ 6 qui a décollé de la base de Wenchang (île de Hainan) à bord d’une fusée Longue Marche-5. Le voyage « va durer 4 ou 5 jours jusqu’à l’orbite lunaire, avant de se poser près du pôle Sud de la Lune début juin » (2 juin pour être précis, vers 10 heures du matin heure locale lunaire), explique le CNES. C’est plus exactement le bassin Aitken, mesurant 2500 km de diamètre, qui est visé.

Un replay du lancement est disponible par ici.

DORN aura 48h pour étudier le radon

La France est partenaire de la Chine dans cette mission. Elle a fourni l’instrument DORN (Detection of Outgassing RadoN). Ce nom est également en hommage au physicien, Friedrich Dorn, ayant découvert le radon.

Il a été conçu et réalisé (pendant quatre ans) à l’Institut de recherche en astrophysique et planétologie, sous la maîtrise d’ouvrage du CNES et en collaboration notamment avec le CNRS. « Après un demi-siècle, DORN marque le retour de la France à la surface de la Lune », explique Francis Rocard (planétologue, responsable des programmes d’exploration du système solaire au CNES) dans The Conversation.

Sa mission est « d’étudier le radon, un gaz produit de façon continue dans le sol lunaire ». Les mesures vont se faire en orbite, mais aussi sur place. L’instrument aura peu de temps pour le faire. « DORN s’activera alors pour 48h : la quantité d’énergie disponible est limitée et l’atterrisseur doit réaliser plusieurs missions », explique le CNES. Le bassin Aitken a un avantage certain : « Avec ses 10 km de profondeur, il représente la région lunaire où l’altitude est la plus basse et l’épaisseur de la croûte parmi les plus fines ».

Du radon à « la présence de glace d’eau aux pôles »

« En résumé DORN va étudier le dégazage lunaire et le transport des gaz dans le régolithe (et donc contraindre les propriétés thermophysiques du régolithe qui les contrôlent), leur transport dans l’exosphère, le transport de la poussière du régolithe et remonter à la teneur en uranium dans le sol », ajoute Francis Rocard. Il rappelle que le Radon a déjà été détecté autour de la Lune par les missions Apollo 15 et 16 (1971-1972), Lunar Prospector (1998-1999) et la sonde japonaise Kaguya (2007-2009).

Pour le CNES, « comprendre le transport du radon sur la Lune, c’est aussi toucher du doigt le transport des molécules d’eau et appréhender la présence de glace d’eau aux pôles de la Lune ».

L’IRAP (Institut de Recherche en Astrophysique et Planétologie) rappelle que, sur Terre, le radon et ses descendants radioactifs sont utilisés « comme traceurs et géo-chronomètres des échanges entre lithosphère, hydrosphère et atmosphère, et comme traceurs du mouvement des fluides (eau et masses d’air) qui les transportent ».

Ramener 2 kg sur Terre

La mission doit aussi permettre de rapporter près de deux kg d’échantillons lunaires sur Terre. Si la mission est un succès, ce sera une première depuis la face cachée de la Lune : « Une capsule redécollera ensuite de notre satellite naturel avec 2kg d’échantillons lunaires à son bord – les premiers échantillons prélevés sur la face cachée. Ils seront transférés à un orbiteur, jusque-là en attente en orbite autour de la Lune, qui les rapportera dans le nord de la Chine une vingtaine de jours plus tard ».

Francis Rocard explique que les échantillons « pourront aussi être analysés en laboratoire et ces analyses pourront être comparées à ce que DORN aura mesuré directement dans l’environnement lunaire ».

La suite se prépare, avec une station lunaire

La suite du programme est déjà connue, comme le rappelle Le Monde : « Chang’e-7 devra explorer le pôle Sud lunaire à la recherche d’eau [en 2026, ndlr], tandis que Chang’e-8 tentera d’établir la faisabilité technique de la construction d’une base lunaire, Pékin affirmant qu’un “modèle de base” sera achevé d’ici à 2030 ».

Francis Rocard y va aussi de son analyse : « Au-delà, la Chine annonce vouloir développer une station de recherche automatisée au pôle Sud (ILRS) ouverte à la coopération internationale et qui serait à terme visitable par des taïkonautes ».

☕️ Pass Monitor : Proton Pass comble (enfin) certaines lacunes

6 mai 2024 à 14:37

Lors de notre prise en mains en juin dernier, le gestionnaire de mots de passe de Proton manquait franchement de certaines fonctionnalités pourtant basiques. En plus d’une application Windows il y a quelques semaines, Proton vient enfin d’en ajouter, après de longs mois d’attente.

Citons pour commencer le Password Health qui permet de savoir si « vous avez des mots de passe faibles ou réutilisés qui doivent être mis à jour », une fonctionnalité des plus basiques. Autre nouveauté : l’application vous indiquera les applications où vous pourrez activer l’authentification à deux facteurs, si ce n’est pas encore fait.

Les clients de la formule gratuite bénéficient de ces deux nouvelles fonctionnalités. Pour ceux qui payent un abonnement (1,99 dollar par mois), deux autres services sont ajoutés.

Tout d’abord, le Dark Web Monitoring qui va vérifier sur le Net si des données de « vos adresses Proton, vos alias de messagerie et jusqu’à 10 adresses e-mail personnalisées ont été divulguées ». Le cas échéant, une alerte vous sera envoyée. Cette fonctionnalité est déployée progressivement jusqu’au 10 mai.

Enfin, Proton Sentinel, une fonctionnalité lancée l’année dernière, qui « utilise l’IA et des analystes humains pour détecter et bloquer les attaques de piratage de compte » est intégré dans Pass Monitor.

Dirty Stream : quand une application Android peut écraser les fichiers d’une autre

6 mai 2024 à 13:39
Dirty dancing

Dirty Stream agite le Net depuis quelques jours. Il faut dire que cette « faille » fait les gros titres à coups de milliards de smartphones Android touchés. Suivant comment les applications sont programmées, elles peuvent se laisser berner par un pirate qui peut écraser des fichiers pour en prendre le contrôle. Inutile de paniquer pour autant, des correctifs sont déployés.

La semaine dernière, Microsoft a publié un billet de blog pour présenter Dirty Stream, présenté comme un « modèle de vulnérabilité courant dans les applications Android ». Les risques sont réels puisque cela peut aller jusqu’à l’exécution de code arbitraire et au vol de jetons d’identification, deux situations très dangereuses.

Avant de paniquer, un point important : Microsoft a prévenu les développeurs bien en avance afin de pouvoir corriger le tir. C’est notamment le cas des applications de gestionnaire de fichier de Xiaomi et WPS Office. Elles ont été mises à jour dès le mois de février, bien avant la publication de ce bulletin d’alerte. Microsoft s’est également rapproché de Google, qui a mis en ligne une page sur son site dédié aux développeurs Android (et une autre ici) afin de prévenir les développeurs et leur proposer des protections à mettre en place.

Content Provider : gare à l’implémentation

Mais de quoi s’agit-il exactement ? Microsoft commence par un rappel sur le fonctionnement du système d’exploitation : « Android impose l’isolation en attribuant à chaque application son propre espace dédié pour le stockage des données et la mémoire. Pour faciliter le partage des données et des fichiers, Android propose un composant appelé Content Provider, qui agit comme une interface pour gérer et exposer les données aux autres applications, de manière sécurisée ».

Utilisé correctement, le Content Provider est décrit par Microsoft comme « une solution fiable ». Mais, comme souvent, une implémentation « inappropriée peut introduire des vulnérabilités qui pourraient permettre de contourner les restrictions de lecture/écriture dans le répertoire personnel d’une application ».

On est donc face à un cas malheureusement assez classique où il faut distinguer le protocole ou la fonctionnalité de son implémentation (c’est-à-dire sa mise en œuvre de manière pratique) dans les applications. Comme on a pu le voir par le passé (ici et encore ici ou … et ce n’est que la partie visible de l’iceberg), il peut y avoir une grande différence entre les deux.

On vous épargne le fonctionnement précis du Content Provider (détaillé ici par Google), mais il arrive que des applications « ne valident pas le contenu du fichier qu’elle reçoive et, ce qui est le plus inquiétant, utilisent le nom de fichier fourni » par l’application qui envoie les données. Ce fichier est alors stocké dans le répertoire de données interne de l’application ciblée. Voyez-vous venir le risque ?

Remplacer des fichiers par ceux des pirates

Avec des noms de fichier taillés sur mesure, l’application d’un pirate peut donc remplacer les fichiers clés de l’application cible et ainsi en prendre le contrôle. Dans tous les cas, l’impact varie en fonction des applications et de leur mise en œuvre.

« Par exemple, il est très courant que les applications Android lisent les paramètres de leur serveur à partir du répertoire shared_prefs. Dans de tels cas, l’application malveillante peut écraser ces paramètres, ce qui l’oblige à communiquer avec un serveur contrôlé par l’attaquant et à envoyer les jetons d’identification de l’utilisateur ou d’autres informations sensibles », explique Microsoft. Ce serait un peu comme si une application pouvait venir remplacer n’importe quel fichier sur votre ordinateur…

Microsoft en ajoute une couche : « Dans le pire des cas (et ce n’est pas si rare), l’application vulnérable peut charger des bibliothèques natives à partir de son répertoire de données dédié (par opposition au répertoire /data/app-lib, plus sécurisé, où les bibliothèques sont protégées contre toute modification). Dans ce cas, l’application malveillante peut écraser une bibliothèque avec du code malveillant, qui est alors exécuté lors du chargement ».

Dans le cas du gestionnaire de fichier de Xiaomi, cette technique a permis d’exécuter du code « arbitraire avec l’ID utilisateur et les autorisations du gestionnaire de fichiers ». On vous laisse imaginer le boulevard que cela ouvre au pirate, qui peut ainsi contrôler l’application et accéder à l’ensemble des fichiers ou presque.

Google confirme et donne des « astuces »

Google confirme les risques sur cette page : « Si un pirate informatique parvient à écraser les fichiers d’une application, cela peut entraîner l’exécution de code malveillant (en écrasant le code de l’application) ou sinon, permettre la modification du comportement de l’application (par exemple, en écrasant les préférences partagées de l’application ou d’autres fichiers de configuration) ».

Au-delà des applications mises à jour, d’autres peuvent encore être vulnérables. Microsoft et Google proposent donc des méthodes pour éviter de tomber dans ce piège.

« La solution la plus sûre consiste à ignorer complètement le nom renvoyé par l’application lors de la mise en cache du contenu. Certaines des approches les plus robustes que nous avons rencontrées utilisent des noms générés aléatoirement, de sorte que, même dans le cas où le contenu d’un flux entrant est mal formé, il n’altère pas l’application ». Une autre solution serait d’enregistrer les fichiers dans un répertoire dédié.

Mille milliards de mille sabords

Terminons avec un mot sur l’emballement autour de cette affaire. On entend souvent parler de milliards de terminaux affectés, ce n’est pas aussi simple. Microsoft explique avoir « identifié plusieurs applications vulnérables dans le Google Play Store qui représentaient plus de quatre milliards d’installations ». Quatre milliards d’installations (dont plus d’un milliard pour la seule application de Xiaomi) ne signifie pas que quatre milliards de smartphones sont touchés, loin de là.

La question est aussi de savoir si on doit parler d‘une mauvaise gestion des données du côté des développeurs qui laissent des données de leur application se faire écraser par des fichiers externes, ou bien d’une faille d’Android qui laisse ce genre d’action passer, peu importe ce qu’en disent les applications.

❌
❌