Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 16 mai 2024Actualités numériques

☕️ Raspberry Pi confirme son intention d’entrer en bourse, à Londres

16 mai 2024 à 07:22

On en parle depuis des mois maintenant, mais les choses s’accélèrent. La fondation en charge de développer le micro-ordinateur a publié une série de documents sur son site dédié aux investisseurs, confirmant ainsi une information de Reuters.

Raspberry Pi en profite pour faire les comptes : plus de 60 millions de micro-ordinateurs vendus depuis ses débuts en 2012, dont 7,4 millions l’année dernière. Niveau finance, tout va bien : « Pour l’exercice terminé le 31 décembre 2023, les revenus s’élevaient à 265,8 millions de dollars, avec un bénéfice brut de 66,0 millions de dollars et un résultat opérationnel bénéfice de 37,5 millions de dollars ».

« Pour la Fondation Raspberry Pi, actionnaire patient et solidaire, cette introduction en bourse est l’opportunité de redoubler d’efforts pour permettre aux jeunes de réaliser leur potentiel grâce à la puissance de l’informatique », explique Eben Upton (CEO de Raspberry Pi).

La cotation se ferait au London Stock Exchange. Il est prévu de mettre en vente des actions existantes et d’en introduire de nouvelles. Il n’y a pas de précision sur le tarif visé pour le moment, ni sur la date d’introduction en bourse.

« Raspberry Pi a déclaré qu’elle visait une cotation premium sur le marché principal, ce qui signifie qu’elle pourra être incluse dans les indices FTSE. En raison de sa taille, il est probable qu’elle fasse partie de l’indice FTSE 250 », ajoute ZoneBourse.

Google donne les clés de son moteur de recherche à l’IA générative

16 mai 2024 à 07:37
Sundar, un ami qui vous veut du bien
Illustration de Flock sur I/O 2024 axé sur l'IA

Google a annoncé de gros changements dédiés à l’activité qui a fait sa célébrité : la recherche. Alors que des rumeurs insistantes veulent qu’OpenAI lance son propre moteur de recherche cette année, l’entreprise de Montain View intègre aux forceps l’IA générative dans les résultats. Après un an de test, la fonctionnalité se lance dans le grand bain.

Moteur de recherche : un changement radical pour tous, par défaut

Il y avait déjà des éléments alimentés par l’IA dans les résultats, mais il s’agit cette fois de mettre l’accent sur la fonction. Depuis mai 2023, Google « dynamise la recherche avec l’IA générative », mais uniquement sous forme de test via la Search Generative Experience (SGE) du Search Labs.

En mars de cette année, un premier changement important : cette fonctionnalité poussée par l’IA générative était automatiquement proposée à certains utilisateurs, sans qu’ils aient besoin de s’inscrire au SGE. Cela concernait un « sous-ensemble de requêtes, sur un petit pourcentage du trafic de recherche aux États-Unis », affirmait l’entreprise à Search Engine Land. Désormais, Google passe la seconde : « AI Overview commence à être déployé pour tout le monde aux États-Unis, et d’autres pays seront bientôt disponibles ». C’est à n’en point douter un mouvement mondial, pour l’ensemble des utilisateurs.

Comme montré dans la vidéo de Google, les résultats d’une recherche montreront d’abord le résumé de ce qu’en aura compris le moteur. Les sources seront citées, ce qui signifie que des sites seront mis en avant. La liste classique viendra en dessous. L’ensemble est baptisé AI Overview.

Google rassure, les éditeurs s’inquiètent


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Raspberry Pi confirme son intention d’entrer en bourse, à Londres

16 mai 2024 à 07:22

On en parle depuis des mois maintenant, mais les choses s’accélèrent. La fondation en charge de développer le micro-ordinateur a publié une série de documents sur son site dédié aux investisseurs, confirmant ainsi une information de Reuters.

Raspberry Pi en profite pour faire les comptes : plus de 60 millions de micro-ordinateurs vendus depuis ses débuts en 2012, dont 7,4 millions l’année dernière. Niveau finance, tout va bien : « Pour l’exercice terminé le 31 décembre 2023, les revenus s’élevaient à 265,8 millions de dollars, avec un bénéfice brut de 66,0 millions de dollars et un résultat opérationnel bénéfice de 37,5 millions de dollars ».

« Pour la Fondation Raspberry Pi, actionnaire patient et solidaire, cette introduction en bourse est l’opportunité de redoubler d’efforts pour permettre aux jeunes de réaliser leur potentiel grâce à la puissance de l’informatique », explique Eben Upton (CEO de Raspberry Pi).

La cotation se ferait au London Stock Exchange. Il est prévu de mettre en vente des actions existantes et d’en introduire de nouvelles. Il n’y a pas de précision sur le tarif visé pour le moment, ni sur la date d’introduction en bourse.

« Raspberry Pi a déclaré qu’elle visait une cotation premium sur le marché principal, ce qui signifie qu’elle pourra être incluse dans les indices FTSE. En raison de sa taille, il est probable qu’elle fasse partie de l’indice FTSE 250 », ajoute ZoneBourse.

Blocage de TikTok en Nouvelle-Calédonie : quels sont les enjeux ?

16 mai 2024 à 06:24
Tik tok tic tac
TikTok

Le blocage du réseau social TikTok est une première pour la France. Mais la situation en Nouvelle-Calédonie est différente de celle en métropole, où mettre en place un tel blocage aurait été plus compliqué. Explications.

Depuis hier 20h, « l’état d’urgence est déclaré sur l’ensemble du territoire de la Nouvelle-Calédonie », comme en atteste le décret n° 2024-436 du 15 mai 2024. Cette décision est une réponse aux violentes émeutes (qui ont fait plusieurs morts, dont un gendarme) déclenchées suite à l’adoption, par l’Assemblée nationale et le Sénat, d’une « révision constitutionnelle réformant le corps électoral calédonien, dont les indépendantistes ne veulent pas », explique France Bleu.

Interdiction de TikTok : une mesure « sans précédent »

Le premier ministre, Gabriel Attal, explique que Louis Le Franc, haut-commissaire de la République en Nouvelle-Calédonie (qui est donc dépositaire de l’autorité de l’État dans l’archipel), a « interdit TikTok ». Le réseau social est ciblé, car il est très utilisé par les émeutiers, explique l’AFP.

« Cette mesure d’interdiction intervient également sur fond de craintes d’ingérences et de désinformation sur les réseaux sociaux venant de pays étrangers qui chercheraient à attiser les tensions », détaille le Monde en se basant sur des sources gouvernementales et de sécurité.

Ces dernières évoquent « des pays comme la Chine [ByteDance, le propriétaire de TikTok est chinois, ndlr] ou l’Azerbaïdjan ». Viginum (le service de détection des ingérences numériques étrangères) était déjà monté au créneau pour dénoncer une campagne de déstabilisation des JO de Paris liée à l’Azerbaïdjan Sur le blocage de Twitter, Emmanuel Poinas, vice-président du tribunal de Nouméa, expliquait ce matin à BFM que le réseau social offre « des possibilités de diffuser de l’information qui n’est pas forcément fiable. En l’état, la diffusion d’informations non fiables ne peut que développer des risques de trouble et d’émeutes ». TikTok n’est pas le seul dans ce cas, mais sa forte notoriété auprès des jeunes pourrait en faire une cible de choix. Pour rappel, la question du blocage des réseaux sociaux avait déjà été soulevée par Emmanuel Macron pendant les émeutes en métropole après la mort de Nahel.

Une mesure proportionnée ?

Nicolas Hervieu (spécialiste du droit public et européen), explique que « cette mesure (sans précédent…) est liée au régime de l'état d'urgence ». Il ajoute néanmoins que « la légalité de cette décision du ministère de l’Intérieur annoncée par Gabriel Attal est discutable. Car le lien avec le terrorisme est plus que douteux… ». En effet, le décret du 15 mai s’appuie sur la loi du 3 avril 1955 relative à l’état d’urgence, qui stipule : « Le ministre de l'Intérieur peut prendre toute mesure pour assurer l'interruption de tout service de communication au public en ligne provoquant à la commission d'actes de terrorisme ou en faisant l'apologie ». De son côté, Maitre « Eolas » (un pseudo, mais un vrai avocat) explique que « c’est une interdiction provisoire, dans le cadre de l’état d’urgence. S’il s’avérait que les émeutiers utilisent TikTok pour provoquer à la rébellion armée et se coordonner, c’est une mesure qui peut être proportionnée à la nécessité de rétablir l’ordre et la sécurité publique ». Cela laisse donc une ouverture aux citoyens de Nouvelle-Calédonie pour contester cette décision, en se basant « sur l’illégalité manifeste de cette décision compte tenu du fait que le blocage n’est possible qu’en cas de provocation ou apologie du terrorisme au sens stricte », explique Nicolas Hervieu au Figaro.

Le droit de l’Union européenne reste à distance

Alexandre Archambault, également avocat et spécialiste du numérique, ajoute que cette interdiction est « envisageable (en théorie) sur toute portion du territoire non soumise au droit de l'Union », mais qu’elle est « inopérante sur toute autre partie soumise au droit de l'Union ». Il explique en effet que les services de la Commission européenne estiment « que des troubles à l'ordre public dans un seul État ne peuvent fonder blocage VLOP ». Ce terme désigne les Très grandes plateformes en ligne, dont fait partie TikTok, qui sont soumises au DSA. La Nouvelle-Calédonie, la Polynésie française, Saint-Pierre-et-Miquelon, les Terres australes et antarctiques françaises, Wallis-et-Futuna et Saint-Barthélemy sont en effet des pays et des territoires d’outre-mer (PTOM). Ils « ne sont pas intégrés à l’Union européenne, mais ils bénéficient d’un régime d’association », explique Vie-publique.fr. Une différence qui a donc toute son importance. De leur côté, Saint-Martin, la Martinique, La Réunion, Mayotte, la Guadeloupe, et la Guyane sont des régions ultrapériphériques (RUP). Elles « font partie intégrante de l’UE et sont assujetties au droit communautaire, au même titre que les autres régions européennes », explique la représentation permanente de la France auprès de l’Union européenne. La situation serait donc différente si les émeutes se déroulaient à la Réunion ou en métropole, par exemple, et que le gouvernement souhaitait bloquer TikTok.

Un blocage « opérationnel » sur les mobiles

Toujours est-il que « c’est en vigueur et ça fonctionne opérationnellement (uniquement sur les téléphones). C’est l’office des postes et des télécommunications de Nouvelle-Calédonie qui intervient depuis hier pour bloquer les accès à l’application TikTok », confirme le cabinet du premier ministre à BFM. La méthode utilisée (blocage DNS, par IP, autres…) n’est pas précisée. Le blocage est d’autant plus simple à mettre en place, qu’en Nouvelle-Calédonie il y a un « unique régulateur et opérateur local, l'Office des Postes et Télécommunications de Nouvelle-Calédonie, l'OPT-NC », ajoute Alexandre Archambault à nos confrères. En métropole, la multiplication des opérateurs (fixes et mobiles) et la réglementation européenne auraient compliqué les choses. Reste maintenant la question de l’efficacité de cette mesure. Le blocage mis en place peut-il facilement être contourné ? Les émeutiers vont-ils rapidement changer de réseaux sociaux ? Combien de temps cette mesure va-t-elle rester en place ? Aucune réponse à ces questions n'a été formulée pour le moment. Concernant la Nouvelle-Calédonie, Gabriel Attal va présider une nouvelle cellule de crise ce matin à 8h30. Emmanuel Macron a de son côté proposé aux élus calédoniens un « échange par visioconférence », après une réunion de crise prévue à 11h. Rappelons enfin que le décalage horaire est important avec Paris, puisqu’il y a neuf heures de plus à Nouméa.

Blocage de TikTok en Nouvelle-Calédonie : quels sont les enjeux ?

16 mai 2024 à 06:24
Tik tok tic tac
TikTok

Le blocage du réseau social TikTok est une première pour la France. Mais la situation en Nouvelle-Calédonie est différente de celle en métropole, où mettre en place un tel blocage aurait été plus compliqué. Explications.

Depuis hier 20h, « l’état d’urgence est déclaré sur l’ensemble du territoire de la Nouvelle-Calédonie », comme en atteste le décret n° 2024-436 du 15 mai 2024. Cette décision est une réponse aux violentes émeutes (qui ont fait plusieurs morts, dont un gendarme) déclenchées suite à l’adoption, par l’Assemblée nationale et le Sénat, d’une « révision constitutionnelle réformant le corps électoral calédonien, dont les indépendantistes ne veulent pas », explique France Bleu.

Interdiction de TikTok : une mesure « sans précédent »

Le premier ministre, Gabriel Attal, explique que Louis Le Franc, haut-commissaire de la République en Nouvelle-Calédonie (qui est donc dépositaire de l’autorité de l’État dans l’archipel), a « interdit TikTok ». Le réseau social est ciblé, car il est très utilisé par les émeutiers, explique l’AFP.

« Cette mesure d’interdiction intervient également sur fond de craintes d’ingérences et de désinformation sur les réseaux sociaux venant de pays étrangers qui chercheraient à attiser les tensions », détaille le Monde en se basant sur des sources gouvernementales et de sécurité.

Ces dernières évoquent « des pays comme la Chine [ByteDance, le propriétaire de TikTok est chinois, ndlr] ou l’Azerbaïdjan ». Viginum (le service de détection des ingérences numériques étrangères) était déjà monté au créneau pour dénoncer une campagne de déstabilisation des JO de Paris liée à l’Azerbaïdjan Sur le blocage de Twitter, Emmanuel Poinas, vice-président du tribunal de Nouméa, expliquait ce matin à BFM que le réseau social offre « des possibilités de diffuser de l’information qui n’est pas forcément fiable. En l’état, la diffusion d’informations non fiables ne peut que développer des risques de trouble et d’émeutes ». TikTok n’est pas le seul dans ce cas, mais sa forte notoriété auprès des jeunes pourrait en faire une cible de choix. Pour rappel, la question du blocage des réseaux sociaux avait déjà été soulevée par Emmanuel Macron pendant les émeutes en métropole après la mort de Nahel.

Une mesure proportionnée ?

Nicolas Hervieu (spécialiste du droit public et européen), explique que « cette mesure (sans précédent…) est liée au régime de l'état d'urgence ». Il ajoute néanmoins que « la légalité de cette décision du ministère de l’Intérieur annoncée par Gabriel Attal est discutable. Car le lien avec le terrorisme est plus que douteux… ». En effet, le décret du 15 mai s’appuie sur la loi du 3 avril 1955 relative à l’état d’urgence, qui stipule : « Le ministre de l'Intérieur peut prendre toute mesure pour assurer l'interruption de tout service de communication au public en ligne provoquant à la commission d'actes de terrorisme ou en faisant l'apologie ». De son côté, Maitre « Eolas » (un pseudo, mais un vrai avocat) explique que « c’est une interdiction provisoire, dans le cadre de l’état d’urgence. S’il s’avérait que les émeutiers utilisent TikTok pour provoquer à la rébellion armée et se coordonner, c’est une mesure qui peut être proportionnée à la nécessité de rétablir l’ordre et la sécurité publique ». Cela laisse donc une ouverture aux citoyens de Nouvelle-Calédonie pour contester cette décision, en se basant « sur l’illégalité manifeste de cette décision compte tenu du fait que le blocage n’est possible qu’en cas de provocation ou apologie du terrorisme au sens stricte », explique Nicolas Hervieu au Figaro.

Le droit de l’Union européenne reste à distance

Alexandre Archambault, également avocat et spécialiste du numérique, ajoute que cette interdiction est « envisageable (en théorie) sur toute portion du territoire non soumise au droit de l'Union », mais qu’elle est « inopérante sur toute autre partie soumise au droit de l'Union ». Il explique en effet que les services de la Commission européenne estiment « que des troubles à l'ordre public dans un seul État ne peuvent fonder blocage VLOP ». Ce terme désigne les Très grandes plateformes en ligne, dont fait partie TikTok, qui sont soumises au DSA. La Nouvelle-Calédonie, la Polynésie française, Saint-Pierre-et-Miquelon, les Terres australes et antarctiques françaises, Wallis-et-Futuna et Saint-Barthélemy sont en effet des pays et des territoires d’outre-mer (PTOM). Ils « ne sont pas intégrés à l’Union européenne, mais ils bénéficient d’un régime d’association », explique Vie-publique.fr. Une différence qui a donc toute son importance. De leur côté, Saint-Martin, la Martinique, La Réunion, Mayotte, la Guadeloupe, et la Guyane sont des régions ultrapériphériques (RUP). Elles « font partie intégrante de l’UE et sont assujetties au droit communautaire, au même titre que les autres régions européennes », explique la représentation permanente de la France auprès de l’Union européenne. La situation serait donc différente si les émeutes se déroulaient à la Réunion ou en métropole, par exemple, et que le gouvernement souhaitait bloquer TikTok.

Un blocage « opérationnel » sur les mobiles

Toujours est-il que « c’est en vigueur et ça fonctionne opérationnellement (uniquement sur les téléphones). C’est l’office des postes et des télécommunications de Nouvelle-Calédonie qui intervient depuis hier pour bloquer les accès à l’application TikTok », confirme le cabinet du premier ministre à BFM. La méthode utilisée (blocage DNS, par IP, autres…) n’est pas précisée. Le blocage est d’autant plus simple à mettre en place, qu’en Nouvelle-Calédonie il y a un « unique régulateur et opérateur local, l'Office des Postes et Télécommunications de Nouvelle-Calédonie, l'OPT-NC », ajoute Alexandre Archambault à nos confrères. En métropole, la multiplication des opérateurs (fixes et mobiles) et la réglementation européenne auraient compliqué les choses. Reste maintenant la question de l’efficacité de cette mesure. Le blocage mis en place peut-il facilement être contourné ? Les émeutiers vont-ils rapidement changer de réseaux sociaux ? Combien de temps cette mesure va-t-elle rester en place ? Aucune réponse à ces questions n'a été formulée pour le moment. Concernant la Nouvelle-Calédonie, Gabriel Attal va présider une nouvelle cellule de crise ce matin à 8h30. Emmanuel Macron a de son côté proposé aux élus calédoniens un « échange par visioconférence », après une réunion de crise prévue à 11h. Rappelons enfin que le décalage horaire est important avec Paris, puisqu’il y a neuf heures de plus à Nouméa.
Hier — 15 mai 2024Actualités numériques

☕️ Starliner encore repoussée, une fuite d’hélium détectée

15 mai 2024 à 14:23

Après plusieurs années de retard, on pourrait se dire qu’on n’est plus à quelques jours près. La capsule habitable Starliner de Boeing qui doit concurrencer Crew Dragon de SpaceX n’a toujours pas décollé. Le lancement est entaché de plusieurs problèmes depuis des années.

C’était au début une vanne sur l’étage supérieur du lanceur (Atlas V), qui a été réparée et testée. Mais dans la foulée, une petite fuite d’hélium a été détectée dans le module de service de la capsule. « L’hélium est utilisé dans les systèmes de propulseurs des engins spatiaux pour permettre aux propulseurs de s’allumer et n’est ni combustible ni toxique », précise Boeing.

« Les équipes visent maintenant une date de lancement au plus tôt à 22h43 le mardi 21 mai, pour effectuer des tests supplémentaires ». Atlas V et Starliner restent pour l’instant en place (à la verticale) dans le lancement spatial-41. Les astronautes sont pour le moment retournés avec leur famille à Houston, ajoute la NASA.

Boeing est actuellement confronté à une série noire avec ses avions, avec une multiplication des incidents. Les retards et les problèmes à répétition de Starliner viennent s’ajouter, sans oublier Elon Musk qui en profite pour tacler allègrement le retard de son concurrent.

☕️ Ryzen 5 8400F et 7 8700F : deux CPU AM5, USB4 et PCIe 4.0

15 mai 2024 à 14:14

Au début de l’année, AMD lançait ses APU Ryzen de la série 8000G, des CPU avec une partie graphique intégrée, contrairement à la série 7000. Voilà qu’AMD a décidé de lancer deux nouvelles références se terminant par un F. Vous l’aurez certainement compris, il s’agit de processeurs sans partie graphique.

Le Ryzen 5 8400F dispose de 6 cœurs (4,2 GHz, 4,7 GHz en boost) et 12 threads, contre 8 cœurs (4,1 GHz, 5 GHz en boost) et 16 threads pour le Ryzen 7 8700F. Cette fois, AMD ne mélange pas les architectures Zen 4 et 4C puisque tous les cœurs sont des Zen 4. Pour le reste, ils reprennent les caractéristiques techniques de la série 8000, notamment l’impasse sur le PCIe 5.0 pour n’avoir que 16 lignes PCIe 4.0 utilisables.

Seul le Ryzen 7 8700F dispose du moteur Ryzen AI pour les calculs liés à l’intelligence artificielle. Celui-ci n’est disponible que s’il « est associé à une carte graphique Radeon compatible avec accélération AI », précise AMD.

Le Ryzen 5 8400F est vendu aux alentours de 210 euros chez les revendeurs mis en avant par AMD, contre 330 euros pour le Ryzen 7 8700F.

Le Ryzen 5 8400F se place donc en face du Ryzen 5 7600X (fréquence plus rapide, cache L3 plus important et PCIe 5.0) et même au-dessus du Ryzen 5 7600 que l’on trouve à un peu plus de 200 euros.

Nous avons actualisé notre tableau comparatif des processeurs Ryzen avec une architecture Zen 4 pour le grand public (socket AM5) :

☕️ Starliner encore repoussée, une fuite d’hélium détectée

15 mai 2024 à 14:23

Après plusieurs années de retard, on pourrait se dire qu’on n’est plus à quelques jours près. La capsule habitable Starliner de Boeing qui doit concurrencer Crew Dragon de SpaceX n’a toujours pas décollé. Le lancement est entaché de plusieurs problèmes depuis des années.

C’était au début une vanne sur l’étage supérieur du lanceur (Atlas V), qui a été réparée et testée. Mais dans la foulée, une petite fuite d’hélium a été détectée dans le module de service de la capsule. « L’hélium est utilisé dans les systèmes de propulseurs des engins spatiaux pour permettre aux propulseurs de s’allumer et n’est ni combustible ni toxique », précise Boeing.

« Les équipes visent maintenant une date de lancement au plus tôt à 22h43 le mardi 21 mai, pour effectuer des tests supplémentaires ». Atlas V et Starliner restent pour l’instant en place (à la verticale) dans le lancement spatial-41. Les astronautes sont pour le moment retournés avec leur famille à Houston, ajoute la NASA.

Boeing est actuellement confronté à une série noire avec ses avions, avec une multiplication des incidents. Les retards et les problèmes à répétition de Starliner viennent s’ajouter, sans oublier Elon Musk qui en profite pour tacler allègrement le retard de son concurrent.

☕️ Ryzen 5 8400F et 7 8700F : deux CPU AM5, USB4 et PCIe 4.0

15 mai 2024 à 14:14

Au début de l’année, AMD lançait ses APU Ryzen de la série 8000G, des CPU avec une partie graphique intégrée, contrairement à la série 7000. Voilà qu’AMD a décidé de lancer deux nouvelles références se terminant par un F. Vous l’aurez certainement compris, il s’agit de processeurs sans partie graphique.

Le Ryzen 5 8400F dispose de 6 cœurs (4,2 GHz, 4,7 GHz en boost) et 12 threads, contre 8 cœurs (4,1 GHz, 5 GHz en boost) et 16 threads pour le Ryzen 7 8700F. Cette fois, AMD ne mélange pas les architectures Zen 4 et 4C puisque tous les cœurs sont des Zen 4. Pour le reste, ils reprennent les caractéristiques techniques de la série 8000, notamment l’impasse sur le PCIe 5.0 pour n’avoir que 16 lignes PCIe 4.0 utilisables.

Seul le Ryzen 7 8700F dispose du moteur Ryzen AI pour les calculs liés à l’intelligence artificielle. Celui-ci n’est disponible que s’il « est associé à une carte graphique Radeon compatible avec accélération AI », précise AMD.

Le Ryzen 5 8400F est vendu aux alentours de 210 euros chez les revendeurs mis en avant par AMD, contre 330 euros pour le Ryzen 7 8700F.

Le Ryzen 5 8400F se place donc en face du Ryzen 5 7600X (fréquence plus rapide, cache L3 plus important et PCIe 5.0) et même au-dessus du Ryzen 5 7600 que l’on trouve à un peu plus de 200 euros.

Nous avons actualisé notre tableau comparatif des processeurs Ryzen avec une architecture Zen 4 pour le grand public (socket AM5) :

IA : Google présente Trillium, ses TPU de 6e génération

15 mai 2024 à 10:50
T là ou TPU là ?

Les Tensor Processing Unit sont des puces développées par Google pour l’intelligence artificielle, de l’entraînement à l’inférence. La société vient d’annoncer sa sixième génération, qu’elle présente comme 4,7x plus performante que la génération précédente.

Hier, lors de la keynote d‘ouverture de la conférence I/O, Google a tiré tous azimuts sur l’intelligence artificielle (nous y reviendrons). La société s’en amuse elle-même avec un décompte officiel : durant son discours, Sundar Pichai y a fait référence pas moins de 121 fois, c’est du moins le décompte fait par… une IA.

Mais pour utiliser des intelligences artificielles, il faut des machines capables de les entrainer et de les faire tourner. Si NVIDIA et ses GPU règnent en maitres sur le haut du panier dans le monde des datacenters, de nombreuses autres sociétés développent leurs propres puces. C’est le cas de Google avec ses Tensor Processing Unit (TPU). Il s’agit d’ASIC (circuits intégrés spécifiques aux applications) conçus « pour accélérer les charges de travail de machine learning ».

TPU v6 : 4,7x plus performantes que les v5e

La sixième génération a été annoncée hier. Elle devrait logiquement s’appeler TPU v6, mais Google n’utilise pas cette appellation dans son communiqué. L’entreprise se contente d’un nom de code : Trillium. Comme nous l’avions déjà détaillé, la précédente génération comportait deux versions : v5e et v5p. Les premières visent le meilleur rapport performances/prix, tandis que les secondes (lancées plus tard) misent tout sur les performances.

Bien évidemment, Google compare sa sixième génération de TPU aux v5e, pas aux V5p. Il est ainsi question d’un maximum de « 4,7 fois plus » de performances par puce, sans savoir à quoi cela correspond exactement.

Si on se base sur les 197 TFLOP du v5e en blfoat16, on arriverait à un maximum théorique de 926 TFLOP, soit deux fois plus que les performances du v5p. Mais le 4.7x pourrait aussi renvoyer à un cas particulier, impossible donc en l’état d’en savoir plus.

Quoi qu’il en soit, pour arriver à cette hausse des performances, Google explique avoir augmenté la taille de ses unités de multiplication matricielle (MXU) et la fréquence d’horloge de sa puce, sans préciser dans quelles mesures.

Bande passante HBM et ICI doublée

Google annonce aussi avoir « doublé la capacité et la bande passante de la mémoire HBM, ainsi que la bande passante Interchip Interconnect (ICI) par rapport au TPU v5e ». On passerait ainsi à 1 638 Go/s sur la mémoire (en prenant 819 Go/s pour le v5e) , ce qui reste en dessous des 2 765 Go/s du v5p.

La bande passante de l’ICI est de 1 600 Gb/s sur v5e, on doit donc arriver à 3 200 Gb/s sur Trillium (TPU v6), contre 4 800 Gb/s sur v5p.

Pour en terminer avec les chiffres, Google affirme que son TPU Trillium est « plus de 67 % plus économe en énergie que le v5e ». Mais comme l’entreprise ne donne pas de chiffre sur la consommation, impossible d’en savoir plus.

« Trillium est équipé de la troisième génération de SparseCore », un accélérateur permettant « d’accélérer l’intégration de charges de travail lourdes ». Google affirme que ses TPU Trillium « permettent de former plus rapidement la prochaine vague de modèles et de servir les modèles avec une latence réduite et un coût moindre ». Une phrase que l’on peut ressortir à chaque nouvelle génération.

Jusqu’à 256 TPU Trillium par pod

Ces TPU de la génération Trillium peuvent être assemblés par paquet de 256 pour former un pod, exactement comme les v5e. Les v5p peuvent s’agglutiner par paquet de 8 960 pour rappel, contre 4 096 pour les v4 et 1 024 pour les v3. Des centaines de pods peuvent s’interconnecter pour former un système capable de délivrer plusieurs péta-opérations par seconde.

Sundar Pichai a indiqué durant la conférence que Trillium sera disponible pour les clients d’ici à la fin de l’année, tout comme le CPU maison Axion d’ailleurs. Il faudra attendre début 2025 pour les GPU Blackwell de NVIDIA.

IA : Google présente Trillium, ses TPU de 6e génération

15 mai 2024 à 10:50
T là ou TPU là ?

Les Tensor Processing Unit sont des puces développées par Google pour l’intelligence artificielle, de l’entraînement à l’inférence. La société vient d’annoncer sa sixième génération, qu’elle présente comme 4,7x plus performante que la génération précédente.

Hier, lors de la keynote d‘ouverture de la conférence I/O, Google a tiré tous azimuts sur l’intelligence artificielle (nous y reviendrons). La société s’en amuse elle-même avec un décompte officiel : durant son discours, Sundar Pichai y a fait référence pas moins de 121 fois, c’est du moins le décompte fait par… une IA.

Mais pour utiliser des intelligences artificielles, il faut des machines capables de les entrainer et de les faire tourner. Si NVIDIA et ses GPU règnent en maitres sur le haut du panier dans le monde des datacenters, de nombreuses autres sociétés développent leurs propres puces. C’est le cas de Google avec ses Tensor Processing Unit (TPU). Il s’agit d’ASIC (circuits intégrés spécifiques aux applications) conçus « pour accélérer les charges de travail de machine learning ».

TPU v6 : 4,7x plus performantes que les v5e

La sixième génération a été annoncée hier. Elle devrait logiquement s’appeler TPU v6, mais Google n’utilise pas cette appellation dans son communiqué. L’entreprise se contente d’un nom de code : Trillium. Comme nous l’avions déjà détaillé, la précédente génération comportait deux versions : v5e et v5p. Les premières visent le meilleur rapport performances/prix, tandis que les secondes (lancées plus tard) misent tout sur les performances.

Bien évidemment, Google compare sa sixième génération de TPU aux v5e, pas aux V5p. Il est ainsi question d’un maximum de « 4,7 fois plus » de performances par puce, sans savoir à quoi cela correspond exactement.

Si on se base sur les 197 TFLOP du v5e en blfoat16, on arriverait à un maximum théorique de 926 TFLOP, soit deux fois plus que les performances du v5p. Mais le 4.7x pourrait aussi renvoyer à un cas particulier, impossible donc en l’état d’en savoir plus.

Quoi qu’il en soit, pour arriver à cette hausse des performances, Google explique avoir augmenté la taille de ses unités de multiplication matricielle (MXU) et la fréquence d’horloge de sa puce, sans préciser dans quelles mesures.

Bande passante HBM et ICI doublée

Google annonce aussi avoir « doublé la capacité et la bande passante de la mémoire HBM, ainsi que la bande passante Interchip Interconnect (ICI) par rapport au TPU v5e ». On passerait ainsi à 1 638 Go/s sur la mémoire (en prenant 819 Go/s pour le v5e) , ce qui reste en dessous des 2 765 Go/s du v5p.

La bande passante de l’ICI est de 1 600 Gb/s sur v5e, on doit donc arriver à 3 200 Gb/s sur Trillium (TPU v6), contre 4 800 Gb/s sur v5p.

Pour en terminer avec les chiffres, Google affirme que son TPU Trillium est « plus de 67 % plus économe en énergie que le v5e ». Mais comme l’entreprise ne donne pas de chiffre sur la consommation, impossible d’en savoir plus.

« Trillium est équipé de la troisième génération de SparseCore », un accélérateur permettant « d’accélérer l’intégration de charges de travail lourdes ». Google affirme que ses TPU Trillium « permettent de former plus rapidement la prochaine vague de modèles et de servir les modèles avec une latence réduite et un coût moindre ». Une phrase que l’on peut ressortir à chaque nouvelle génération.

Jusqu’à 256 TPU Trillium par pod

Ces TPU de la génération Trillium peuvent être assemblés par paquet de 256 pour former un pod, exactement comme les v5e. Les v5p peuvent s’agglutiner par paquet de 8 960 pour rappel, contre 4 096 pour les v4 et 1 024 pour les v3. Des centaines de pods peuvent s’interconnecter pour former un système capable de délivrer plusieurs péta-opérations par seconde.

Sundar Pichai a indiqué durant la conférence que Trillium sera disponible pour les clients d’ici à la fin de l’année, tout comme le CPU maison Axion d’ailleurs. Il faudra attendre début 2025 pour les GPU Blackwell de NVIDIA.

☕️ Arm se lancerait pleinement dans l’intelligence artificielle en 2025

15 mai 2024 à 06:09

Selon Nikkei Asia, la société compterait se lancer dans le développement de puces dédiées pour l’intelligence artificielle l’année prochaine, avec un prototype dès le printemps 2025. Bien évidemment, aucun détail n’est pour le moment donné.

Le développement sera assuré par Arm (avec la participation de son principal actionnaire SoftBank), dans le but ensuite de scinder la branche IA et de la placer sous le contrôle de SoftBank, selon nos confrères. « SoftBank négocie déjà avec Taiwan Semiconductor Manufacturing Corp. [TSMC, ndlr] et d’autres afin de sécuriser la capacité de production ».

Selon Nikkei, Arm disposerait d’une fenêtre intéressante : « NVIDIA est actuellement en tête du domaine mais ne peut pas répondre à la demande croissante. SoftBank y voit une opportunité ». Arm n’est pas le seul en piste, loin de là. De nombreuses sociétés (y compris en France) se sont déjà lancées dans la conception de puces pour l’intelligence artificielle.

☕️ Arm se lancerait pleinement dans l’intelligence artificielle en 2025

15 mai 2024 à 06:09

Selon Nikkei Asia, la société compterait se lancer dans le développement de puces dédiées pour l’intelligence artificielle l’année prochaine, avec un prototype dès le printemps 2025. Bien évidemment, aucun détail n’est pour le moment donné.

Le développement sera assuré par Arm (avec la participation de son principal actionnaire SoftBank), dans le but ensuite de scinder la branche IA et de la placer sous le contrôle de SoftBank, selon nos confrères. « SoftBank négocie déjà avec Taiwan Semiconductor Manufacturing Corp. [TSMC, ndlr] et d’autres afin de sécuriser la capacité de production ».

Selon Nikkei, Arm disposerait d’une fenêtre intéressante : « NVIDIA est actuellement en tête du domaine mais ne peut pas répondre à la demande croissante. SoftBank y voit une opportunité ». Arm n’est pas le seul en piste, loin de là. De nombreuses sociétés (y compris en France) se sont déjà lancées dans la conception de puces pour l’intelligence artificielle.

À partir d’avant-hierActualités numériques

Rhea1 : enfin des détails techniques sur le CPU pour les supercalculateurs européens

14 mai 2024 à 14:04
Un lancement avant Ariane 6 ?
Processeur Rhea1

SiPearl donne enfin des détails sur son processeur Rhea1 pensé pour les supercalculateurs. On apprend notamment qu’il exploitera 80 cœurs Arm Neoverse V1. Il n’arrivera qu’en 2025, en retard sur ce qui était encore prévu il y a quelques mois.

En septembre dernier, nous avions rencontré les équipes de SiPearl, une société française (basée à Maisons-Laffitte) en charge de développer le processeur européen pour le HPC (calcul haute performance). Il sera notamment dans JUPITER, le premier supercalculateur exascale européen (financé en partie par la Commission européenne) qui sera installé en Allemagne.

Il y a un an, SiPearl bouclait un tour de table de 90 millions d’euros auprès d’Arm, Eviden (Atos), le fonds d’investissement European Innovation Council (EIC) et French Tech Souveraineté. Cette manne lui a permis ainsi de régler ses soucis financiers, de recruter et d’aller de l’avant. Marie-Anne Garigue, directrice de la communication de la société, affirmait que les soucis étaient uniquement financiers, pas techniques.

80 cœurs Arm Neoverse V1…

On sait depuis longtemps que le processeur sera articulé autour de cœurs Arm Neoverse v1. On connait désormais leur nombre : 80 cœurs par CPU. Le Neoverse V1 est pour rappel un dérivé du Cortex-X1, mais pensé pour les datacenters. Arm a depuis lancé les Neoverse V2 (dérivés du Cortex-X3) et récemment le Neoverse V3. NVIDIA utilise par exemple 72 cœurs Arm Neoverse V2 pour la partie CPU de sa puce GH200 Grace Hopper Superchip et de sa nouvelle GB200 Grace Blackwell Superchip. Même chose chez Amazon avec son SoC Graviton4 et chez Google avec l’Axion.

…avec des extensions vectorielles évolutives

Revenons à SiPearl et son Rhea1. Chacun des 80 cœurs Neoverse V1 sera accompagné de « deux unités SVE  [Scalable Vector Extension ou extension vectorielle évolutive, ndlr] de 256 bits », comme c‘est le cas par défaut avec les cœurs Neoverse V1. Ces deux unités sont d’ailleurs une différence importante avec les Cortex-X1. Selon SiPearl, elles permettent « des calculs vectoriels rapides tout en optimisant l’espace et l’énergie utilisée ». Arm ajoute qu’elles proposent « de meilleures performances HPC et IA/ML ». L’entreprise est un peu plus loquace et ajoute que « SVE a été inventé en collaboration avec Fujitsu pour le projet Fugaku [un supercalculateur qui a pendant un temps occupé la première place du Top500, ndlr] et permet une programmation agnostique en largeur vectorielle. SVE permet l’exécution de code de vecteurs allant de 128b à 2048b de large sur Neoverse V1 sans nécessiter de recompilation ».

HBM, DDR5,104 lignes PCIe 5.0 et CMN-700

Côté mémoire, Rhea1 dispose de « quatre piles HBM » (dans d’autres documents, il est précisé HBM2e) et de « quatre interfaces DDR5 », prenant en charge deux DIMM par canal. On retrouve aussi 104 lignes PCIe Gen 5 avec une répartition 6x 16 lignes + 2x 4 lignes (soit 104 lignes au total, le compte est bon). SiPearl précise qu’un « réseau maillé cohérent sur puce (NoC) haute performance arm Neoverse CMN-700 [CMN pour Coherent Mesh Network, ndlr] pour interconnecter les éléments de calcul et d'entrée/sortie » est aussi de la partie. Là encore, c’est dans le package proposé par Arm avec sa plateforme Neoverse V1. Le CMN-700 peut gérer jusqu’à 256 cœurs par die, selon Arm.

Multiples langages : C++, GO, Rust, TensorFlow, PyTorch

Côté programmation, le CPU Rhea1 « sera supporté par une large gamme de compilateurs, de bibliothèques et d'outils, allant des langages de programmation traditionnels tels que C/C++, Go et Rust aux structures d'intelligence artificielle modernes comme TensorFlow ou PyTorch ».

Rhea1 n’arrivera finalement qu’en 2025

On apprend par contre que le processeur aura encore du retard puisque « les premiers échantillons de Rhea1 seront disponibles en 2025 ». En effet, en septembre dernier, SiPearl nous expliquait que la commercialisation se ferait dans le « courant de l’année » 2024. En avril 2023, après la levée de fonds, l’entreprise annonçait « une commercialisation début 2024 ». Le supercalculateur européen JUPITER devra donc lui aussi attendre, puisqu’il est prévu qu’il intègre les processeurs Rhea1. La Commission européenne expliquait il y a peu que « le supercalculateur JUPITER devrait être accessible à un large éventail d’utilisateurs européens à partir de la fin de 2024 ».

Rhea2 aussi en 2025 ?

Rhea2 était prévu pour 2025 aux dernières nouvelles, avec une technologie « dual chiplet » permettant d’intégrer plus de cœurs sur une même puce. La société ne précise pas si le calendrier de la seconde génération glisse lui aussi.

Rhea1 : enfin des détails techniques sur le CPU pour les supercalculateurs européens

14 mai 2024 à 14:04
Un lancement avant Ariane 6 ?
Processeur Rhea1

SiPearl donne enfin des détails sur son processeur Rhea1 pensé pour les supercalculateurs. On apprend notamment qu’il exploitera 80 cœurs Arm Neoverse V1. Il n’arrivera qu’en 2025, en retard sur ce qui était encore prévu il y a quelques mois.

En septembre dernier, nous avions rencontré les équipes de SiPearl, une société française (basée à Maisons-Laffitte) en charge de développer le processeur européen pour le HPC (calcul haute performance). Il sera notamment dans JUPITER, le premier supercalculateur exascale européen (financé en partie par la Commission européenne) qui sera installé en Allemagne.

Il y a un an, SiPearl bouclait un tour de table de 90 millions d’euros auprès d’Arm, Eviden (Atos), le fonds d’investissement European Innovation Council (EIC) et French Tech Souveraineté. Cette manne lui a permis ainsi de régler ses soucis financiers, de recruter et d’aller de l’avant. Marie-Anne Garigue, directrice de la communication de la société, affirmait que les soucis étaient uniquement financiers, pas techniques.

80 cœurs Arm Neoverse V1…

On sait depuis longtemps que le processeur sera articulé autour de cœurs Arm Neoverse v1. On connait désormais leur nombre : 80 cœurs par CPU. Le Neoverse V1 est pour rappel un dérivé du Cortex-X1, mais pensé pour les datacenters. Arm a depuis lancé les Neoverse V2 (dérivés du Cortex-X3) et récemment le Neoverse V3. NVIDIA utilise par exemple 72 cœurs Arm Neoverse V2 pour la partie CPU de sa puce GH200 Grace Hopper Superchip et de sa nouvelle GB200 Grace Blackwell Superchip. Même chose chez Amazon avec son SoC Graviton4 et chez Google avec l’Axion.

…avec des extensions vectorielles évolutives

Revenons à SiPearl et son Rhea1. Chacun des 80 cœurs Neoverse V1 sera accompagné de « deux unités SVE  [Scalable Vector Extension ou extension vectorielle évolutive, ndlr] de 256 bits », comme c‘est le cas par défaut avec les cœurs Neoverse V1. Ces deux unités sont d’ailleurs une différence importante avec les Cortex-X1. Selon SiPearl, elles permettent « des calculs vectoriels rapides tout en optimisant l’espace et l’énergie utilisée ». Arm ajoute qu’elles proposent « de meilleures performances HPC et IA/ML ». L’entreprise est un peu plus loquace et ajoute que « SVE a été inventé en collaboration avec Fujitsu pour le projet Fugaku [un supercalculateur qui a pendant un temps occupé la première place du Top500, ndlr] et permet une programmation agnostique en largeur vectorielle. SVE permet l’exécution de code de vecteurs allant de 128b à 2048b de large sur Neoverse V1 sans nécessiter de recompilation ».

HBM, DDR5,104 lignes PCIe 5.0 et CMN-700

Côté mémoire, Rhea1 dispose de « quatre piles HBM » (dans d’autres documents, il est précisé HBM2e) et de « quatre interfaces DDR5 », prenant en charge deux DIMM par canal. On retrouve aussi 104 lignes PCIe Gen 5 avec une répartition 6x 16 lignes + 2x 4 lignes (soit 104 lignes au total, le compte est bon). SiPearl précise qu’un « réseau maillé cohérent sur puce (NoC) haute performance arm Neoverse CMN-700 [CMN pour Coherent Mesh Network, ndlr] pour interconnecter les éléments de calcul et d'entrée/sortie » est aussi de la partie. Là encore, c’est dans le package proposé par Arm avec sa plateforme Neoverse V1. Le CMN-700 peut gérer jusqu’à 256 cœurs par die, selon Arm.

Multiples langages : C++, GO, Rust, TensorFlow, PyTorch

Côté programmation, le CPU Rhea1 « sera supporté par une large gamme de compilateurs, de bibliothèques et d'outils, allant des langages de programmation traditionnels tels que C/C++, Go et Rust aux structures d'intelligence artificielle modernes comme TensorFlow ou PyTorch ».

Rhea1 n’arrivera finalement qu’en 2025

On apprend par contre que le processeur aura encore du retard puisque « les premiers échantillons de Rhea1 seront disponibles en 2025 ». En effet, en septembre dernier, SiPearl nous expliquait que la commercialisation se ferait dans le « courant de l’année » 2024. En avril 2023, après la levée de fonds, l’entreprise annonçait « une commercialisation début 2024 ». Le supercalculateur européen JUPITER devra donc lui aussi attendre, puisqu’il est prévu qu’il intègre les processeurs Rhea1. La Commission européenne expliquait il y a peu que « le supercalculateur JUPITER devrait être accessible à un large éventail d’utilisateurs européens à partir de la fin de 2024 ».

Rhea2 aussi en 2025 ?

Rhea2 était prévu pour 2025 aux dernières nouvelles, avec une technologie « dual chiplet » permettant d’intégrer plus de cœurs sur une même puce. La société ne précise pas si le calendrier de la seconde génération glisse lui aussi.

SoC M4 : évolutions (face aux M1 à M3) et promesses floues d’Apple

13 mai 2024 à 13:13
Bientôt M6, la petite puce qui monte ?
Apple M4 SoC

La semaine dernière, Apple a présenté comme prévu sa nouvelle gamme de tablette iPad Pro, avec une nouvelle puce maison : M4. Cette quatrième génération prend donc la relève du SoC M3. Nous avons regroupé les principales caractéristiques techniques des M1 à M4 dans un tableau, avec une mise en perspective des performances annoncées par Apple.

Comme à son habitude, Apple ne tarit pas d’éloges lorsqu’il s’agit de présenter un nouveau produit, quel qu’il soit. Avec la puce M4, on a eu droit à une débauche de chiffres et de promesses – « performances exceptionnelles », « révolutionnaire »… – , mais parfois avec des non-dits très importants.

SoC M4 : 9 ou 10 cœurs CPU

Dans son communiqué, Apple annonce « jusqu’à 10 cœurs » pour la partie CPU, ce qui veut évidemment dire qu’il existe au moins une version plus légère. Et, en effet, la nouvelle puce M4 intègre 9 ou 10 cœurs avec 3 ou 4 cœurs performances (P) et 6 cœurs efficaces (E). Les générations précédentes étaient à 8 cœurs pour le CPU (4P et 4E).

Il faut se rendre sur la page de l’iPad Pro pour trouver le détail des configurations : « Les modèles d’iPad Pro avec 256 Go ou 512 Go de stockage sont équipés de la puce Apple M4 avec CPU 9 cœurs. Les modèles d’iPad Pro avec 1 To ou 2 To de stockage sont équipés de la puce Apple M4 avec CPU 10 cœurs ».

Le stockage détermine les cœurs CPU et la mémoire

Seuls les modèles les plus chers peuvent donc profiter des 10 cœurs du SoC M4. Les iPad Pro de 256 et 512 Go n’ont en effet droit qu’à trois cœurs P, soit un de moins que la puce M3, mais avec deux cœurs E de plus. Apple insiste d’ailleurs beaucoup sur le gain en efficacité énergétique de son SoC.

Ce n’est d’ailleurs pas le seul changement : les iPad Pro de 256 et 512 Go ont 8 Go de mémoire seulement, quand les versions de 1 et 2 To ont 16 Go. Ces différences ne sont pas mises en avant par Apple dans sa boutique en ligne. Il faut cliquer sur « Vous ne savez pas pour quel espace de stockage opter ? Voici quelques conseils pour déterminer l’espace qu’il vous faut » pour avoir le détail.

Le SoC M4 intègre 10 cœurs GPU

Sur la partie GPU, il y a toujours 10 cœurs avec la puce M4 (dans sa version pour les iPad Pro en tout cas), alors que cela varie de 8 à 10 sur les M3 et M2.

Apple explique que « le nouveau GPU 10 cœurs de la puce M4 fait évoluer l’architecture graphique de nouvelle génération de la famille des puces M3. Il intègre la mise en cache dynamique, une innovation Apple qui alloue la mémoire locale de façon dynamique dans le matériel et en temps réel afin d’accroître l’utilisation moyenne du GPU ».

Cette technologie n’est pas une nouveauté du M4, car elle était déjà mise en avant sur le SoC M3. Il semble que les nouveaux cœurs GPU n’aient pas grand-chose de nouveau par rapport à ceux de la génération précédente, mais cela reste à confirmer.

Comparatif des performances à la sauce Apple

Pour les performances, Apple annonce des « rendus pro jusqu’à 4x plus rapides qu’avec la M2 » et des « performances du CPU jusqu’à 1,5x plus rapides qu’avec la M2 ». Problème, il s’agit de comparer une puce avec deux générations d’écart et un nombre de cœurs CPU différent : 10 pour la version M4, 8 pour la M2.

Pour le GPU, c’est encore pire. Le « 4x » est donné pour Octane X 2024.1 (a4) 4-09-2024, version « testée à l’aide d’une scène comprenant 780 000 maillages (meshes) et 27 millions de primitives uniques, en utilisant le ray tracing à accélération matérielle sur les systèmes équipés de la M4 et le ray tracing basé sur le logiciel sur toutes les autres unités ».

Le GPU de la puce M2 ne prend pour rappel pas en charge le ray tracing, qui est une nouveauté du M3. Forcément, la puce M4 fait bien mieux puisqu’elle dispose d’une accélération matérielle. De manière générale, Apple se garde bien de comparer son M4 au M3. Pourtant, lors de l’annonce de la famille M3, les performances des cœurs P et E étaient comparées à celle des générations précédentes.

Si la communication d’Apple s’axe beaucoup sur la comparaison M2 et M4, c’est que le nouvel iPad Pro saute une génération de puce. Le SoC M3 est en effet pour le moment réservé à certains MacBook et iMac.

38 TOPS… qui ne veulent pas dire grand-chose en l’état

Passons à une autre « astuce » d’Apple, sur le Neural Engine cette fois-ci. La société met en avant des performances de 38 TOPS, bien au-delà des 18 TOPS de la puce M3 (qui a aussi 16 cœurs NPU). Mais comme Apple ne donne aucune information sur la précision (entier, virgule flottante, nombre de bits…), impossible de savoir ce qu’il en est.

En tout état de cause, impossible d’affirmer pour le moment que les performances sont plus que doublées (de 18 à 38 TOPS). En effet, si le M3 est mesuré en INT16 à 18 TOPS et que le M4 est en INT8 à 38 TOPS, alors cela donnerait 18 et 19 TOPS (INT16) ou 36 et 38 TOPS (INT8) en base comparable pour les M3 et M4 respectivement, soit un gain de 5 % seulement.

Une « astuce » déjà utilisée par NVIDIA lors de l’annonce de Blackwell. Le constructeur a mis deux GPU sur une seule puce et affiche des performances en FP4, deux fois supérieures à celle en FP8. NVIDIA pouvait ainsi passer de 4 000 à 20 000 TFLOPS, alors que le gain sur le GPU en base comparable n’est « que » de 25 % entre Hopper et Blackwell.

Bande passante, décodage AV1, finesse de gravure…

Seule certitude, la bande passante de la mémoire grimpe de 20 % (certainement via une hausse de la fréquence) et passe ainsi de 100 à 120 Go/s. La finesse de gravure est toujours en 3 nm (comme pour les M3), mais passe à la seconde génération. Un nouveau contrôleur vidéo Tandem OLED est de la partie.

Apple n’a pas précisé la quantité de mémoire unifiée maximum sur la puce M4, mais on peut supposer qu’elle devrait être identique à celle de la M3, avec jusqu’à 24 Go. Autre « nouveauté » de la puce M4 mise en avant par Apple : le décodage vidéo AV1 sur iPad. Les Mac équipés de M3 pouvaient déjà le faire.

Le fabricant n’a pas encore annoncé les versions Pro et Max de sa puce M4. Il faudra également attendre de voir si un SoC M4 Ultra verra le jour. Les précédentes versions Ultra étaient pour rappel deux puces M1 ou M2 Max assemblées pour doubler les performances.

Tableau récapitulatif des puces M1 à M4

Voici pour finir notre tableau comparatif des caractéristiques des différentes variantes de puces Mx d’Apple (sauf les versions Ultra).

☕️ Domotique : Matter 1.3 permet la gestion de l’énergie, de l’eau et des bornes de recharge

13 mai 2024 à 07:11
Matter 1.3

Matter (anciennement CHIP) est un protocole domotique, dont la version finale a été mise en ligne fin 2022. Il est développé par la Connectivity Standards Alliance (CSA), anciennement Zigbee Alliance.

La nouvelle version 1.3 du protocole propose une gestion de l’énergie. « Cela permet à tout type d’appareil d’inclure la possibilité de rapporter des mesures réelles et estimées, y compris la puissance instantanée, la tension, le courant et d’autres données en temps réel, ainsi que sa consommation ou sa production d’énergie au fil du temps ».

Les bornes de recharge sont aussi de la partie. Elles peuvent utiliser le protocole pour proposer un démarrage/arrêt de la charge, modifier la puissance, préciser l’autonomie souhaitée avant de partir, gérer la charge en fonction des tarifs de l’électricité, etc.

Enfin, pour l’eau, Matter prend en charge « les détecteurs de fuite et de gel, les capteurs de pluie et les vannes d’eau contrôlables ».

De nombreux nouveaux types d’appareils sont intégrés dans Matter 1.3 pour simplifier la vie des fabricants qui voudraient sauter le pas : fours, fours à micro-onde, table de cuisson, hottes et sèche-linge. Les frigos, climatisations, lave-vaisselle, lave-linge, aspirateurs, ventilateurs, détecteurs de fumée et de qualité de l’air avaient été ajoutés dans la version 1.2 en octobre dernier. Il faut bien évidemment que le fabricant intègre le protocole Matter pour que l’appareil soit compatible.

Niveau fonctionnalités, on trouve aussi les scènes. De plus, « un contrôleur Matter peut désormais regrouper plusieurs commandes en un seul message lors de la communication avec des périphériques Matter afin de minimiser le délai entre l’exécution de ces commandes ».

Les notes de version détaillées se trouvent par ici.

☕️ Domotique : Matter 1.3 permet la gestion de l’énergie, de l’eau et des bornes de recharge

13 mai 2024 à 07:11
Matter 1.3

Matter (anciennement CHIP) est un protocole domotique, dont la version finale a été mise en ligne fin 2022. Il est développé par la Connectivity Standards Alliance (CSA), anciennement Zigbee Alliance.

La nouvelle version 1.3 du protocole propose une gestion de l’énergie. « Cela permet à tout type d’appareil d’inclure la possibilité de rapporter des mesures réelles et estimées, y compris la puissance instantanée, la tension, le courant et d’autres données en temps réel, ainsi que sa consommation ou sa production d’énergie au fil du temps ».

Les bornes de recharge sont aussi de la partie. Elles peuvent utiliser le protocole pour proposer un démarrage/arrêt de la charge, modifier la puissance, préciser l’autonomie souhaitée avant de partir, gérer la charge en fonction des tarifs de l’électricité, etc.

Enfin, pour l’eau, Matter prend en charge « les détecteurs de fuite et de gel, les capteurs de pluie et les vannes d’eau contrôlables ».

De nombreux nouveaux types d’appareils sont intégrés dans Matter 1.3 pour simplifier la vie des fabricants qui voudraient sauter le pas : fours, fours à micro-onde, table de cuisson, hottes et sèche-linge. Les frigos, climatisations, lave-vaisselle, lave-linge, aspirateurs, ventilateurs, détecteurs de fumée et de qualité de l’air avaient été ajoutés dans la version 1.2 en octobre dernier. Il faut bien évidemment que le fabricant intègre le protocole Matter pour que l’appareil soit compatible.

Niveau fonctionnalités, on trouve aussi les scènes. De plus, « un contrôleur Matter peut désormais regrouper plusieurs commandes en un seul message lors de la communication avec des périphériques Matter afin de minimiser le délai entre l’exécution de ces commandes ».

Les notes de version détaillées se trouvent par ici.

☕️ Vague de faux signalements sur Waze ce week-end

13 mai 2024 à 06:21

La semaine dernière était un peu particulière : les 8 et 9 mai étaient fériés et beaucoup ont fait le pont vendredi. Résultat des courses, un week-end prolongé pour certains dès mardi soir. Combiné avec un temps des plus agréables, cela donne de nombreux déplacements, et donc des centaines de kilomètres de bouchons au départ mercredi et au retour dimanche.

Nombreux étaient les conducteurs avec Waze pour essayer de trouver le trajet le plus rapide, en limitant autant que possible les bouchons. Mais l’application a fait face à une importante vague de faux signalements en tout genre : contrôles de police, voitures arrêtées, alertes météo, mais également routes enneigées et verglacées. Sur l’A6 et l’A10 par exemple, ils se comptaient par dizaines.

Waze permet pour rappel à tout un chacun de « contribuer à l’amélioration de la carte » en signalant la présence de la police, un accident, un danger, du mauvais temps, une route bloquée, etc. L’application demande alors aux autres usagers si le « danger » est toujours présent ou non.

« Les signalements s’affichent sur la carte pendant un certain temps. Cette durée varie en fonction du nombre de Wazers qui réagissent à un signalement. Si un signalement n’est plus exact, appuyez sur Plus là. Cela permet de réduire la durée d’affichage du signalement », explique Google. Hier, c’était un peu le jeu du chat et de la souris avec des faux signalements qui apparaissaient et disparaissaient.

L’application a des protections contre les signalements abusifs et excessifs : « Si vous avez effectué un nombre excessif de signalements dans votre compte, vous ne pourrez plus en effectuer pendant un certain temps. Si votre compte a été signalé plusieurs fois pour ce même motif, ce délai augmentera » : 24h pour le premier avertissement, 7 jours pour le second et 30 jours pour le troisième.

Nous avons demandé à Waze si le service avait plus de précision sur ce qu’il s’est passé ce week-end. Et vous, avez-vous remarqué une recrudescence des faux signalements sur Waze durant ce week-end prolongé ?

❌
❌