Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

☕️ Starship : le 4ᵉ vol d’essai était le bon, avec deux « splashdowns »

Le premier vol de Starship a déjà plus d’un an et s’était soldé par une explosion après trois minutes de vol. Lors du second vol en novembre dernier, la séparation a bien eu lieu, mais le test a ensuite été brutalement interrompu par une explosion. Lors du troisième essai, Starship a réussi à se mettre en orbite, mais ce n’était pas encore ça sur le retour de la fusée.

Avec son quatrième vol, SpaceX réalise un carton plein, ou presque. En tout cas, les deux principaux objectifs sont remplis : le retour du premier étage après un peu plus de sept minutes, puis du second étage au bout d’une heure, sans exploser et avec la bonne position dans les deux cas.

On peut voir sur la vidéo de lancement qu’un des 33 moteurs Raptor n’a pas fonctionné, ce qui n’a pas empêché la fusée de décoller.

La séparation entre les deux étages s’est correctement faite. Super Heavy (premier étage) est ensuite venu se « poser » à la surface de l’eau, avec l’aide de trois moteurs pour ralentir la chute. Pas de barge cette fois-ci, mais c’était prévu ainsi.

SpaceX explique avoir profité de ce lancement pour réaliser quelques tests de résistance sur l’étage supérieur Starship. Deux tuiles du bouclier ont par exemple été enlevées pour mesurer la température à ces endroits.

« Malgré la perte de nombreuses tuiles et un volet endommagé, Starship a réussi à atterrir en douceur dans l’océan ! », se réjouit Elon Musk. Il ajoute qu’une tentative de récupération du booster aura lieu lors du prochain lancement. Bill Nelson, administrateur de la NASA, félicite aussi SpaceX pour cet essai.

Watch Starship's fourth flight test https://t.co/SjpjscHoUB

— SpaceX (@SpaceX) June 4, 2024

Stockage ADN : comment Biomemory veut accélérer et s’intégrer dans les datacenters

C’est le vase qui va faire déborder la goutte d’eau
Le stockage sur ADN

Biomemory compte proposer, d’ici 2030, des baies de stockage 42U d’une capacité d’un Eo (1 000 Po ou 1 000 000 To). La société mise sur l’ADN, peu onéreux, avec une densité et une longévité record. On n’en est pas encore là : il va falloir passer de 1 ko d’écriture par jour à 1 Po d’ici à quelques années.

Utiliser de l’ADN pour stocker des informations, l’idée n’est pas nouvelle. Le physicien américain Richard Feynman (prix Nobel en 1965) l’avait déjà suggérée dès 1959, rappelle le CNRS. Il a par contre fallu attendre 2012 pour que la première démonstration significative soit réalisée, à Harvard.

En France, l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST) a publié une « note » détaillée sur cette forme de stockage. On y retrouve les attentes, les embuches et le principe de fonctionnement.

Biomemory à la « croisée de la biotech et de l’informatique »

Des entreprises se sont depuis lancées dans l’aventure, dont Biomemory. Elle était présente à Vivatech et nous avons pu discuter avec deux représentants de la société : Olivier Lauvray (membre du conseil consultatif et directeur technique à temps partiel) et Hela Ammar (chef d’équipe).

La société a été fondée par deux chercheurs et un informaticien : Erfane Arwani, Stéphane Lemaire et Pierre Crozet. Elle se présente comme étant à la « croisée de la biotech et de l’informatique ». C’est une spin-off du CNRS et la Sorbonne université, qui se trouve dans le 14ᵉ arrondissement de Paris. Elle s’est lancée en 2021 et emploie 18 personnes actuellement.

Stéphane Lemaire et Pierre Crozet se sont déjà illustrés il y a quelques années avec DNA Drive, deux capsules contenants des textes symboliques sur de l’ADN : la Déclaration des droits de l’homme et du citoyen de 1789 et la Déclaration des droits de la femme et de la citoyenne de 1791.

Stocker toujours plus de données, une quête sans fin

Le stockage ADN répond à un besoin : stocker toujours plus d’informations dans un volume restreint. En termes de densité, les possibilités de l’ADN sont sans commune mesure avec les autres solutions actuelles. Il y a quelques années, le CNRS expliquait qu’un « seul gramme peut théoriquement contenir jusqu’à 455 exabits d’informations, soit 455 milliards de milliards de bits. Toutes les données du monde tiendraient alors dans une boîte à chaussures ».

« Aujourd’hui, on arrive à stocker 30 % des données de l’humanité et d’ici 2030 on ne pourra stocker que 3 % », nous affirme Biomemory. Avec l’ADN, il sera possible d’enregistrer toujours plus de données, et à l’heure des IA (génératives) qui en sont extrêmement consommatrices, cette solution a le vent en poupe.

1 Go par jour dès l’année prochaine

C’est d’ailleurs un cas d’usage mis en avant : permettre aux entreprises de garder leurs données brutes, alors « qu’aujourd’hui, elles sont obligées de les agréger, et ça perd de la valeur ». Le stockage ADN pourrait aussi permettre à des sociétés de garder leurs données sans les mettre entre les mains d’hébergeurs (étrangers ou non).

Il reste néanmoins du travail. « Aujourd’hui, on arrive à stocker un kilo octet par jour », reconnait Biomemory. Mais les perspectives d’évolution sont là : « L’idée, c’est d’arriver en 2025 à stocker un Go par jour. De continuer à progresser pour arriver à l’ordre d’un Po par jour en 2030 ». Cela donnerait 11,6 Go/s.

Réutiliser tout ce qui est standard


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Starship : le 4ᵉ vol d’essai était le bon, avec deux « splashdowns »

Le premier vol de Starship a déjà plus d’un an et s’était soldé par une explosion après trois minutes de vol. Lors du second vol en novembre dernier, la séparation a bien eu lieu, mais le test a ensuite été brutalement interrompu par une explosion. Lors du troisième essai, Starship a réussi à se mettre en orbite, mais ce n’était pas encore ça sur le retour de la fusée.

Avec son quatrième vol, SpaceX réalise un carton plein, ou presque. En tout cas, les deux principaux objectifs sont remplis : le retour du premier étage après un peu plus de sept minutes, puis du second étage au bout d’une heure, sans exploser et avec la bonne position dans les deux cas.

On peut voir sur la vidéo de lancement qu’un des 33 moteurs Raptor n’a pas fonctionné, ce qui n’a pas empêché la fusée de décoller.

La séparation entre les deux étages s’est correctement faite. Super Heavy (premier étage) est ensuite venu se « poser » à la surface de l’eau, avec l’aide de trois moteurs pour ralentir la chute. Pas de barge cette fois-ci, mais c’était prévu ainsi.

SpaceX explique avoir profité de ce lancement pour réaliser quelques tests de résistance sur l’étage supérieur Starship. Deux tuiles du bouclier ont par exemple été enlevées pour mesurer la température à ces endroits.

« Malgré la perte de nombreuses tuiles et un volet endommagé, Starship a réussi à atterrir en douceur dans l’océan ! », se réjouit Elon Musk. Il ajoute qu’une tentative de récupération du booster aura lieu lors du prochain lancement. Bill Nelson, administrateur de la NASA, félicite aussi SpaceX pour cet essai.

Watch Starship's fourth flight test https://t.co/SjpjscHoUB

— SpaceX (@SpaceX) June 4, 2024

☕️ Starliner a (enfin) décollé… mais déjà trois fuites détectées sur la capsule

Aprés un mois avec plusieurs reports du décollage de la capsule Starliner de Boeing avec deux astronautes américains à bord : Butch Wilmore et Sunita Williams. Elle a finalement pris son envol hier et fait route vers la Station spatiale internationale. Mais, ce n’est pas un long fleuve tranquille, loin de là.

L’allumage et la séparation des boosters se sont réalisés avec succès, comme la libération de la capsule et l’insertion sur une orbite stable. Les deux astronautes ont ensuite pu retirer leur combinaison. Ils ont également procédé à quelques tests de navigation manuels pour vérifier que la capsule se comporte normalement. Là encore, rien à signaler.

Trois fuites, dont une déjà connue

Cette nuit, à 2h54, Boeing annonce « que Butch Wilmore et Sunita Williams sont entrés dans la période de sommeil de l’équipage », et que cela devrait durer jusqu’à 10h30 heure française.

Hélas, à 5h10, la NASA indique que ses équipes « ont identifié trois fuites d’hélium sur le vaisseau spatial », dont l’une avait déjà été identifiée avant le décollage. Elle n’a pas été réparée, un plan d’action avait simplement été mis en place : « Nous pouvons gérer cette fuite, même si le taux devait être 100 fois plus important », avait expliqué Steve Stich, haut responsable de la NASA.

« Les deux autres sont nouvelles depuis le passage en orbite. Deux des valves à hélium concernées ont été fermées et le vaisseau spatial reste stable », ajoute l’Agence spatiale américaine. Elle ne précise cependant pas les conséquences. Boeing ne dit rien de son côté, si ce n’est que l’équipage vient de sortir de sa période de sommeil et se prépare à l’arrimage.

Arrivée toujours prévue cet après-midi à l’ISS

Quoi qu’il en soit, la NASA ajoute que Starliner « reste en bonne voie pour un amarrage à 18h15 », heure française à la Station spatiale internationale. L’Agence rencontrera néanmoins les équipes de Boeing avant cela pour « examiner les données ». Boeing aussi vise toujours un arrimage à l’heure prévue.

On espère que les astronautes vont pouvoir rejoindre l’ISS sans encombre. Il faudra ensuite voir comment ils vont en repartir : à bord de la capsule Starliner ou bien d’un autre engin ? Après des années de retard, c’est dans tous les cas un coup dur pour l’image de Boeing.

Starliner doit pour rappel être une alternative au Crew Dragon de SpaceX, qui enchaine les allers-retours sans problème depuis maintenant plusieurs années.

☕️ Starliner a (enfin) décollé… mais déjà trois fuites détectées sur la capsule

Aprés un mois avec plusieurs reports du décollage de la capsule Starliner de Boeing avec deux astronautes américains à bord : Butch Wilmore et Sunita Williams. Elle a finalement pris son envol hier et fait route vers la Station spatiale internationale. Mais, ce n’est pas un long fleuve tranquille, loin de là.

L’allumage et la séparation des boosters se sont réalisés avec succès, comme la libération de la capsule et l’insertion sur une orbite stable. Les deux astronautes ont ensuite pu retirer leur combinaison. Ils ont également procédé à quelques tests de navigation manuels pour vérifier que la capsule se comporte normalement. Là encore, rien à signaler.

Trois fuites, dont une déjà connue

Cette nuit, à 2h54, Boeing annonce « que Butch Wilmore et Sunita Williams sont entrés dans la période de sommeil de l’équipage », et que cela devrait durer jusqu’à 10h30 heure française.

Hélas, à 5h10, la NASA indique que ses équipes « ont identifié trois fuites d’hélium sur le vaisseau spatial », dont l’une avait déjà été identifiée avant le décollage. Elle n’a pas été réparée, un plan d’action avait simplement été mis en place : « Nous pouvons gérer cette fuite, même si le taux devait être 100 fois plus important », avait expliqué Steve Stich, haut responsable de la NASA.

« Les deux autres sont nouvelles depuis le passage en orbite. Deux des valves à hélium concernées ont été fermées et le vaisseau spatial reste stable », ajoute l’Agence spatiale américaine. Elle ne précise cependant pas les conséquences. Boeing ne dit rien de son côté, si ce n’est que l’équipage vient de sortir de sa période de sommeil et se prépare à l’arrimage.

Arrivée toujours prévue cet après-midi à l’ISS

Quoi qu’il en soit, la NASA ajoute que Starliner « reste en bonne voie pour un amarrage à 18h15 », heure française à la Station spatiale internationale. L’Agence rencontrera néanmoins les équipes de Boeing avant cela pour « examiner les données ». Boeing aussi vise toujours un arrimage à l’heure prévue.

On espère que les astronautes vont pouvoir rejoindre l’ISS sans encombre. Il faudra ensuite voir comment ils vont en repartir : à bord de la capsule Starliner ou bien d’un autre engin ? Après des années de retard, c’est dans tous les cas un coup dur pour l’image de Boeing.

Starliner doit pour rappel être une alternative au Crew Dragon de SpaceX, qui enchaine les allers-retours sans problème depuis maintenant plusieurs années.

☕️ GDDR7 : les premiers échantillons de Micron sont disponibles

Micron GDDR7

En mars, le JEDEC officialisait la nouvelle génération de mémoire pour les cartes graphiques : la GDDR7. Les changements sont nombreux : PAM-3, quatre canaux, ODECC, etc. Nous avons déjà détaillé les nouveautés dans une précédente actualité.

Les fabricants n’avaient pas attendu bien sûr la finalisation de la norme par le JEDEC pour parler de GDDR7. Dès juillet 2023, Samsung annonçait par exemple avoir « terminé le développement de la première DRAM GDDR7 de l’industrie », avec une puce de 16 Gb.

Micron profite du Computex pour annoncer que les premiers échantillons de sa GDDR7, là encore avec des puces de 16 Gb (2 Go) sont disponibles pour ses partenaires. Le fabricant ajoute que cette nouvelle génération sera disponible « lors du second semestre de l’année civile 2024 ».

Cette GDDR7 propose un débit de 32 Gb/s par broche. C’est moins que la limite haute de la norme (48 Gb/s), mais davantage que la GDDR6(X) à 24 Gb/s. La bande passante totale est ainsi de plus de 1,5 To/s sur un bus de 384 bits. La fiche technique est disponible par ici.

Micron annonce aussi que sa « GDDR7 propose une amélioration de l’efficacité énergétique de plus de 50 % par rapport à la GDDR6 ». En outre, « le nouveau mode veille réduit la consommation en veille jusqu’à 70 % », toujours comparé à la GDDR6.

Pour rappel, Micron prévoit d’augmenter la densité cette année et en 2025 avec des puces de 24 Gb. En 2026, il est question de passer à 36 Gb/s par broche et de rehausser encore la capacité.

La GDDR7 pourrait être la mémoire utilisée par la prochaine génération de cartes graphiques, mais il faudra attendre les annonces des constructeurs pour en avoir le cœur net.

☕️ GDDR7 : les premiers échantillons de Micron sont disponibles

Micron GDDR7

En mars, le JEDEC officialisait la nouvelle génération de mémoire pour les cartes graphiques : la GDDR7. Les changements sont nombreux : PAM-3, quatre canaux, ODECC, etc. Nous avons déjà détaillé les nouveautés dans une précédente actualité.

Les fabricants n’avaient pas attendu bien sûr la finalisation de la norme par le JEDEC pour parler de GDDR7. Dès juillet 2023, Samsung annonçait par exemple avoir « terminé le développement de la première DRAM GDDR7 de l’industrie », avec une puce de 16 Gb.

Micron profite du Computex pour annoncer que les premiers échantillons de sa GDDR7, là encore avec des puces de 16 Gb (2 Go) sont disponibles pour ses partenaires. Le fabricant ajoute que cette nouvelle génération sera disponible « lors du second semestre de l’année civile 2024 ».

Cette GDDR7 propose un débit de 32 Gb/s par broche. C’est moins que la limite haute de la norme (48 Gb/s), mais davantage que la GDDR6(X) à 24 Gb/s. La bande passante totale est ainsi de plus de 1,5 To/s sur un bus de 384 bits. La fiche technique est disponible par ici.

Micron annonce aussi que sa « GDDR7 propose une amélioration de l’efficacité énergétique de plus de 50 % par rapport à la GDDR6 ». En outre, « le nouveau mode veille réduit la consommation en veille jusqu’à 70 % », toujours comparé à la GDDR6.

Pour rappel, Micron prévoit d’augmenter la densité cette année et en 2025 avec des puces de 24 Gb. En 2026, il est question de passer à 36 Gb/s par broche et de rehausser encore la capacité.

La GDDR7 pourrait être la mémoire utilisée par la prochaine génération de cartes graphiques, mais il faudra attendre les annonces des constructeurs pour en avoir le cœur net.

Sanctuary : 24 disques pour sauvegarder l’humanité sur la Lune

J'ai demandé à la lune si tu voulais encore de moi
Sanctuary

Au fil des années, l’humanité a envoyé plusieurs bouteilles dans l’océan cosmique, sans réponse pour le moment (bonne ou mauvaise chose, la question est ouverte). Une nouvelle sera lancée sur la Lune en 2027 : Sanctuary. Une partie du message est prête, l’autre reste à écrire.

Il s’agit à la fois d’envoyer un message vers d’autres potentielles civilisations, de faire une rétrospective sur l’humanité et, de manière plus terre à terre, d’empocher l’empathie du public sur la conquête spatiale.

24 disques de saphir à poser sur la Lune… pourquoi faire ?

Ce projet Sanctuary n’est pas nouveau, loin de là. Il a en effet déjà une dizaine d’années. Il n’est pas non plus prévu pour tout de suite, car il ne devrait décoller qu’en 2027 à bord d’une mission lunaire de la NASA. Dans les colonnes du CNRS, Benoît Faiveley (coordinateur du projet) revient sur cette mission, dont le « lancement officiel » a été acté le 21 mars 2024.

Son but est de déposer sur la surface de la Lune « 24 disques de saphir entreposés dans un conteneur en aluminium à la fois léger et résistant ». À l’intérieur, « un corpus de connaissances et de témoignages matériels de notre civilisation ». Les enjeux sont multiples : identifier les points à mettre en avant, comment les enregistrer et surtout leur donner une espérance de vie de plusieurs millions d’années.

C’est une suite du « Golden Record » sur les sondes Voyager 1 et 2 qui sont actuellement aux confins de notre Système solaire. Avant elle, il y a eu la plaque posée sur les sondes Pioneer 10 et 11. Mais il ne s’agit pas seulement de jeter une bouteille à la mer, mais de l’accrocher à notre rivage pour les millions d’années à venir.

Survivre « à un éventuel délitement de nos sociétés modernes »

Dès son introduction, l’article du Journal du CNRS adopte un ton pessimiste sur notre avenir : « Face à l’accélération du réchauffement climatique et aux autres menaces que ne cesse de se créer l’humanité, l’effondrement de notre civilisation constitue une hypothèse de plus en plus crédible ». Le projet Sanctuary est donc là pour « faire en sorte qu’une partie du patrimoine culturel et scientifique de l’humanité survive à un éventuel délitement de nos sociétés modernes ».


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Ariane 6 : vol inaugural le 9 juillet

C’est donc dans un tout petit peu plus d’un mois que la nouvelle fusée européenne prendra son envol : le 9 juillet, sauf report de dernière minute.

C’est peu dire que ce lancement est attendu et que le lanceur n’a pas réellement le droit à l’erreur, au risque de priver pendant encore un bon moment le vieux continent de souveraineté sur l’accès à l’espace.

L’Agence spatiale européenne rappelle qu’Ariane 6 « est le nouveau lanceur lourd européen, qui prend la relève de son prédécesseur, Ariane 5. Modulaire et polyvalent, Ariane 6 dispose d’un étage supérieur réallumable lui permettant de lancer plusieurs missions sur différentes orbites en un seul vol ».

Stéphane Israël, président exécutif d’Arianespace, rappelle qu’Ariane 6 à déjà un carnet de commande bien rempli avec pas moins de 30 missions.

C’est donc presque un an après le dernier vol d’Ariane 5 que la 6e version de la fusée prendra son envol du port spatial de l’Europe, en Guyane française.

☕️ Ariane 6 : vol inaugural le 9 juillet

C’est donc dans un tout petit peu plus d’un mois que la nouvelle fusée européenne prendra son envol : le 9 juillet, sauf report de dernière minute.

C’est peu dire que ce lancement est attendu et que le lanceur n’a pas réellement le droit à l’erreur, au risque de priver pendant encore un bon moment le vieux continent de souveraineté sur l’accès à l’espace.

L’Agence spatiale européenne rappelle qu’Ariane 6 « est le nouveau lanceur lourd européen, qui prend la relève de son prédécesseur, Ariane 5. Modulaire et polyvalent, Ariane 6 dispose d’un étage supérieur réallumable lui permettant de lancer plusieurs missions sur différentes orbites en un seul vol ».

Stéphane Israël, président exécutif d’Arianespace, rappelle qu’Ariane 6 à déjà un carnet de commande bien rempli avec pas moins de 30 missions.

C’est donc presque un an après le dernier vol d’Ariane 5 que la 6e version de la fusée prendra son envol du port spatial de l’Europe, en Guyane française.

☕️ Réseau Radio du Futur : ACMOSS et ANFR collaborent

Hier, l’ANFR et l’ACMOSS (Agence des communications mobiles opérationnelles de sécurité et de secours) ont signé « une convention de partenariat relative à l’exploitation de données techniques collectées par l’application mobile OpenBarres ».

Via cette dernière, l’ACMOSS va pouvoir accéder aux données anonymisées des smartphones connectés au Réseau Radio du Futur (RRF). Cela comprend les coordonnées géographiques des points de mesures, les niveaux de réception des champs mesurés, l’opérateur du réseau, etc.

But de l’opération : « optimiser sa connaissance des réseaux de téléphonie mobile déployés dans les départements français pour le bénéfice des différents services de sécurité et de secours […] L’analyse de ces informations participera à un renforcement du service haut débit du RFF avec la carte SIM ACMOSS qui va couvrir les quatre réseaux mobiles ouverts au public ».

Le Réseau Radio du Futur (RRF) est un « réseau très haut-débit [4G puis 5G, ndlr] souverain des services de sécurité et de secours », rappelait le ministère de l’Intérieur en 2022. Il permet en effet à l’ensemble des acteurs de la sécurité et du secours « de communiquer instantanément les uns avec les autres en bénéficiant de nouvelles fonctionnalités : appels vidéo, partage de position en direct, envoi d’électrocardiogrammes, etc ».

Il s’agit de moderniser les équipements « radio conçus au début des années 1990, propres à chaque force, et qui ne permettent pas la transmission d’importantes quantités de données ou d’images en temps réel depuis le terrain ».

Cette année, le RRF devient « l’épine dorsale des communications opérationnelles des services de sécurité, de secours et des acteurs de la gestion de crise », selon le ministère.

☕️ Réseau Radio du Futur : ACMOSS et ANFR collaborent

Hier, l’ANFR et l’ACMOSS (Agence des communications mobiles opérationnelles de sécurité et de secours) ont signé « une convention de partenariat relative à l’exploitation de données techniques collectées par l’application mobile OpenBarres ».

Via cette dernière, l’ACMOSS va pouvoir accéder aux données anonymisées des smartphones connectés au Réseau Radio du Futur (RRF). Cela comprend les coordonnées géographiques des points de mesures, les niveaux de réception des champs mesurés, l’opérateur du réseau, etc.

But de l’opération : « optimiser sa connaissance des réseaux de téléphonie mobile déployés dans les départements français pour le bénéfice des différents services de sécurité et de secours […] L’analyse de ces informations participera à un renforcement du service haut débit du RFF avec la carte SIM ACMOSS qui va couvrir les quatre réseaux mobiles ouverts au public ».

Le Réseau Radio du Futur (RRF) est un « réseau très haut-débit [4G puis 5G, ndlr] souverain des services de sécurité et de secours », rappelait le ministère de l’Intérieur en 2022. Il permet en effet à l’ensemble des acteurs de la sécurité et du secours « de communiquer instantanément les uns avec les autres en bénéficiant de nouvelles fonctionnalités : appels vidéo, partage de position en direct, envoi d’électrocardiogrammes, etc ».

Il s’agit de moderniser les équipements « radio conçus au début des années 1990, propres à chaque force, et qui ne permettent pas la transmission d’importantes quantités de données ou d’images en temps réel depuis le terrain ».

Cette année, le RRF devient « l’épine dorsale des communications opérationnelles des services de sécurité, de secours et des acteurs de la gestion de crise », selon le ministère.

Même le Raspberry Pi 5 succombe à l’IA…

Magie, le PCIe 2.0 devient du PCIe 3.0

Le Computex est le théâtre d’une multitude d’annonces autour de l’IA, aussi bien chez AMD, Intel, Microsoft que NVIDIA. Mais ce ne sont pas les seuls et la Fondation Raspberry Pi ne compte pas rester sur le bord de la route. Elle présente un NPU externe à ajouter à son Raspberry Pi 5 pour 70 dollars.

13 TOPS pour le Raspberry Pi 5

C’est via un communiqué sur son site que la fondation annonce l’arrivée d’un module AI pour le Raspberry Pi 5. Ce « NPU externe » propose, selon le fabricant, des performances jusqu’à 13 TOPS pour de l’intelligence artificielle. Il est construit à partir de la puce Hailo-8L, dont la fiche technique se trouve par ici.

On est loin des 48 et 50 TOPS des derniers processeurs Intel et AMD. Mais la puce est au niveau des 11,5 TOPS du NPU de Meteor Lake d’Intel, des 16 TOPS des Ryzen 8040 et des 11 TOPS de la puce M1 d’Apple (15,8 TOPS pour M2).

78,60 euros pour le M.2 HAT+ avec la puce Hailo-8L

Le kit comprend donc une carte M.2 HAT+ (avec un connecteur M.2 key M) à installer sur le Raspberry Pi 5, ainsi que la carte M.2 (format 2242) équipée de la puce Hailo-8L.

Le prix annoncé est de 70 dollars et on trouve le kit à 78,60 euros chez Kubii. Chez le même revendeur, le M.2 HAT+ seul est vendu 13,5 euros. Cela donne environ 65 euros pour la carte M.2 avec le NPU si l’on tente de séparer les deux.

Passer son Raspberry Pi 5 en PCIe 3.0… à vos risques et périls ?

Le Raspberry Pi 5 propose pour rappel une ligne PCIe 2.0, tandis que la puce de Hailo utilise jusqu’à deux lignes PCIe 3.0. Soit un rapport de 1 à 4 ? En théorie, oui. En pratique, c’est plus compliqué…

Dans son communiqué, Raspberry Pi indique que son kit AI fonctionne avec une « connexion PCIe 3.0 x1 à 8 Gb/s ». Mais comment donc, alors que les caractéristiques techniques du mini-PC indiquent une seule ligne PCIe 2.0 ?

Comme l’explique Jeff Geerling sur son blog, on peut passer du PCIe 2.0 au 3.0 sur le Raspberry Pi 5 avec une petite modification dans un fichier de configuration. D’ailleurs, cette étape est décrite dans le guide de démarrage du kit AI : « Suivez les instructions pour activer le PCIe Gen 3.0. Cette étape est facultative, mais fortement recommandée pour obtenir les meilleures performances ».

Mais alors pourquoi ne pas livrer directement le Raspberry Pi 5 en PCIe 3.0 ? Sur cette autre page, il est indiqué que « le Raspberry Pi 5 n’est pas certifié » pour les débits du PCIe 3.0 et que les connexions « peuvent être instables ».

Dans tous les cas, le puce Hailo exploitant deux lignes, elle peut se retrouver bridée par l’interface avec le Raspberry Pi, limitée à une seule ligne. De plus, le kit AI utilisant la seule ligne PCIe externe disponible, il ne sera plus possible d’utiliser un SSD M.2 par exemple.

Une intégration logicielle déjà prête

Quoi qu’il en soit, ce kit « vous permet de créer rapidement des applications complexes de vision par IA, fonctionnant en temps réel, avec de faibles latences et besoins en énergie », explique le fabricant. Un atout de taille est d’ailleurs « l’intégration complète avec le sous-système de gestion des images du Raspberry Pi ».

« Les étapes d’installation du logiciel sont très simples : installez quelques paquets via apt, redémarrez », et c’est tout. Vous pouvez alors « essayer certaines démos d’IA en quelques minutes ». Hailo propose aussi de la documentation et des exemples d’applications sur GitHub.

La fondation ajoute que ce kit est compatible avec les caméras officielles, mais aussi avec celles de ces partenaires. Il est également possible d’utiliser le NPU sur des vidéos déjà enregistrées.

Plusieurs vidéos de présentation ont été mises en ligne :

Même le Raspberry Pi 5 succombe à l’IA…

Magie, le PCIe 2.0 devient du PCIe 3.0

Le Computex est le théâtre d’une multitude d’annonces autour de l’IA, aussi bien chez AMD, Intel, Microsoft que NVIDIA. Mais ce ne sont pas les seuls et la Fondation Raspberry Pi ne compte pas rester sur le bord de la route. Elle présente un NPU externe à ajouter à son Raspberry Pi 5 pour 70 dollars.

13 TOPS pour le Raspberry Pi 5

C’est via un communiqué sur son site que la fondation annonce l’arrivée d’un module AI pour le Raspberry Pi 5. Ce « NPU externe » propose, selon le fabricant, des performances jusqu’à 13 TOPS pour de l’intelligence artificielle. Il est construit à partir de la puce Hailo-8L, dont la fiche technique se trouve par ici.

On est loin des 48 et 50 TOPS des derniers processeurs Intel et AMD. Mais la puce est au niveau des 11,5 TOPS du NPU de Meteor Lake d’Intel, des 16 TOPS des Ryzen 8040 et des 11 TOPS de la puce M1 d’Apple (15,8 TOPS pour M2).

78,60 euros pour le M.2 HAT+ avec la puce Hailo-8L

Le kit comprend donc une carte M.2 HAT+ (avec un connecteur M.2 key M) à installer sur le Raspberry Pi 5, ainsi que la carte M.2 (format 2242) équipée de la puce Hailo-8L.

Le prix annoncé est de 70 dollars et on trouve le kit à 78,60 euros chez Kubii. Chez le même revendeur, le M.2 HAT+ seul est vendu 13,5 euros. Cela donne environ 65 euros pour la carte M.2 avec le NPU si l’on tente de séparer les deux.

Passer son Raspberry Pi 5 en PCIe 3.0… à vos risques et périls ?

Le Raspberry Pi 5 propose pour rappel une ligne PCIe 2.0, tandis que la puce de Hailo utilise jusqu’à deux lignes PCIe 3.0. Soit un rapport de 1 à 4 ? En théorie, oui. En pratique, c’est plus compliqué…

Dans son communiqué, Raspberry Pi indique que son kit AI fonctionne avec une « connexion PCIe 3.0 x1 à 8 Gb/s ». Mais comment donc, alors que les caractéristiques techniques du mini-PC indiquent une seule ligne PCIe 2.0 ?

Comme l’explique Jeff Geerling sur son blog, on peut passer du PCIe 2.0 au 3.0 sur le Raspberry Pi 5 avec une petite modification dans un fichier de configuration. D’ailleurs, cette étape est décrite dans le guide de démarrage du kit AI : « Suivez les instructions pour activer le PCIe Gen 3.0. Cette étape est facultative, mais fortement recommandée pour obtenir les meilleures performances ».

Mais alors pourquoi ne pas livrer directement le Raspberry Pi 5 en PCIe 3.0 ? Sur cette autre page, il est indiqué que « le Raspberry Pi 5 n’est pas certifié » pour les débits du PCIe 3.0 et que les connexions « peuvent être instables ».

Dans tous les cas, le puce Hailo exploitant deux lignes, elle peut se retrouver bridée par l’interface avec le Raspberry Pi, limitée à une seule ligne. De plus, le kit AI utilisant la seule ligne PCIe externe disponible, il ne sera plus possible d’utiliser un SSD M.2 par exemple.

Une intégration logicielle déjà prête

Quoi qu’il en soit, ce kit « vous permet de créer rapidement des applications complexes de vision par IA, fonctionnant en temps réel, avec de faibles latences et besoins en énergie », explique le fabricant. Un atout de taille est d’ailleurs « l’intégration complète avec le sous-système de gestion des images du Raspberry Pi ».

« Les étapes d’installation du logiciel sont très simples : installez quelques paquets via apt, redémarrez », et c’est tout. Vous pouvez alors « essayer certaines démos d’IA en quelques minutes ». Hailo propose aussi de la documentation et des exemples d’applications sur GitHub.

La fondation ajoute que ce kit est compatible avec les caméras officielles, mais aussi avec celles de ces partenaires. Il est également possible d’utiliser le NPU sur des vidéos déjà enregistrées.

Plusieurs vidéos de présentation ont été mises en ligne :

Intel présente Lunar Lake (CPU, GPU, NPU), lance ses Xeon 6 E-core et Gaudi 3 pour l’IA

J’ai demandé à la Lune…
Un processeur lunaire par Flock

Après NVIDIA et AMD, c’était au tour d’Intel de présenter ses nouveautés lors du Computex. Il y était question de la nouvelle génération de CPU Lunar Lake, des processeurs Xeon 6 (E et P) pour les serveurs et de l’accélérateur Gaudi 3.

Attaquons avec Lunar Lake, la prochaine gamme de processeurs pour les ordinateurs portables. Intel annonce de nouveaux cœurs P-core (pour les performances) et E-core (pour l’efficacité énergétique) : les Lion Cove et Skymont respectivement, gravés par… TSMC.

Avant d’entrer dans le détail, quelques grandes lignes. Le fabricant affirme que la consommation peut baisser « jusqu’à 40 % » par rapport à la génération précédente. D’autres fonctionnalités sont de la partie, notamment la décompression H.266 (VVC), un NPU pour l’IA à 48 TOPS et un iGPU plus performant. Adieu toutefois la possibilité d’augmenter la mémoire vive de sa machine.

Lion Cove (P-core) et Skymont en (E-core)


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Microsoft va investir 3 milliards d’euros dans le cloud et l’IA en Suède

Dans le cadre de cet investissement, la société va déployer pas moins de 20 000 GPU dans trois datacenters où elle est déjà présente : Sandviken, Gävle et Staffanstorp, comme le rapporte Reuters. Des puces NVIDIA sont évidemment au programme, mais également d’AMD et des modèles maison, ajoutent nos confrères.

Ils rappellent que Microsoft a récemment annoncé des investissements au Royaume-Uni, en Allemagne, en Espagne et en France. Dans l’Hexagone, il est question de 4 milliards d’euros d’investissement « au service de l’intelligence artificielle ».

« L’entreprise prévoit de former 250 000 Suédois dans l’IA » dans tous les secteurs (privés, écoles…). Elle prévoit aussi d’investir « dans les énergies renouvelables et a acheté près de 1 000 MW d’énergie renouvelable en Suède ».

« Vous verrez d’autres annonces, probablement plus à l’automne », a ajouté le président de Microsoft, Brad Smith.

☕️ Microsoft va investir 3 milliards d’euros dans le cloud et l’IA en Suède

Dans le cadre de cet investissement, la société va déployer pas moins de 20 000 GPU dans trois datacenters où elle est déjà présente : Sandviken, Gävle et Staffanstorp, comme le rapporte Reuters. Des puces NVIDIA sont évidemment au programme, mais également d’AMD et des modèles maison, ajoutent nos confrères.

Ils rappellent que Microsoft a récemment annoncé des investissements au Royaume-Uni, en Allemagne, en Espagne et en France. Dans l’Hexagone, il est question de 4 milliards d’euros d’investissement « au service de l’intelligence artificielle ».

« L’entreprise prévoit de former 250 000 Suédois dans l’IA » dans tous les secteurs (privés, écoles…). Elle prévoit aussi d’investir « dans les énergies renouvelables et a acheté près de 1 000 MW d’énergie renouvelable en Suède ».

« Vous verrez d’autres annonces, probablement plus à l’automne », a ajouté le président de Microsoft, Brad Smith.

☕️ Stockage, IA : le Français Kalray et l’Israélien Pliops veulent fusionner

Via un communiqué commun, les deux entreprises annoncent « être entrées en négociation exclusive en vue d’un rapprochement […] par voie d’apport des actions de Pliops à Kalray ».

Le partage donnerait aux actionnaires de Kalray 65 % du capital du nouvel ensemble et 35 % pour ceux de Pliops. Le contrat prévoit « une possibilité de monter à 40 % pour Pliops, contre 60 % pour Kalray, en cas de réalisation d’objectifs stratégiques prédéfinis ».

Pliops se définit comme une société « spécialisée dans le développement de technologies avancées et de solutions d’accélération pour les serveurs de stockage et l’IA dans les data centers ». Chez Kalray, il est question de « technologies matérielles et logicielles dédiées à la gestion et au traitement intensif des données du Cloud au Edge ».

But de l’opération : « devenir le leader mondial des solutions d’accélération de données pour le stockage et les GPU d’IA », selon Eric Baissus, président du directoire de Kalray. Ido Bukspan, CEO de Pliops, parle aussi de devenir « un leader mondial » et ajoute que cette fusion permettrait d’accélérer la mise sur le marché de sa solution, « avec un nouveau paradigme de stockage pour les solutions d’accélération de données d’IA ».

Cette fusion apporterait de nouvelles opportunités commerciales, avec une présence renforcée en Europe et en Chine, mais aussi aux États-Unis avec l’intégration des « hyperscalers » pour renforcer « la portée et l’influence du groupe ».

Rien n’est encore fait pour autant, il faut attendre les approbations des autorités compétentes, la consultation du comité social et économique de Kalray et l’approbation des assemblées générales des actionnaires des deux entreprises.

Les discussions sont dans une phase « avancée avec une période d’exclusivité conclue jusqu’à mi-juillet 2024 ».

Kalray a pour rappel récemment lancé sa carte Turbocard4 avec quatre DPU (Data Processing Unit) maison Coolidge 2. Elle est « conçue pour assurer aux clients la possibilité de fusionner des technologies de traitement classiques et de traitement basés sur l’IA, un enjeu majeur pour bâtir les applications IA les plus exigeantes ». La société mettait en avant son côté « made in France ».

☕️ Stockage, IA : le Français Kalray et l’Israélien Pliops veulent fusionner

Via un communiqué commun, les deux entreprises annoncent « être entrées en négociation exclusive en vue d’un rapprochement […] par voie d’apport des actions de Pliops à Kalray ».

Le partage donnerait aux actionnaires de Kalray 65 % du capital du nouvel ensemble et 35 % pour ceux de Pliops. Le contrat prévoit « une possibilité de monter à 40 % pour Pliops, contre 60 % pour Kalray, en cas de réalisation d’objectifs stratégiques prédéfinis ».

Pliops se définit comme une société « spécialisée dans le développement de technologies avancées et de solutions d’accélération pour les serveurs de stockage et l’IA dans les data centers ». Chez Kalray, il est question de « technologies matérielles et logicielles dédiées à la gestion et au traitement intensif des données du Cloud au Edge ».

But de l’opération : « devenir le leader mondial des solutions d’accélération de données pour le stockage et les GPU d’IA », selon Eric Baissus, président du directoire de Kalray. Ido Bukspan, CEO de Pliops, parle aussi de devenir « un leader mondial » et ajoute que cette fusion permettrait d’accélérer la mise sur le marché de sa solution, « avec un nouveau paradigme de stockage pour les solutions d’accélération de données d’IA ».

Cette fusion apporterait de nouvelles opportunités commerciales, avec une présence renforcée en Europe et en Chine, mais aussi aux États-Unis avec l’intégration des « hyperscalers » pour renforcer « la portée et l’influence du groupe ».

Rien n’est encore fait pour autant, il faut attendre les approbations des autorités compétentes, la consultation du comité social et économique de Kalray et l’approbation des assemblées générales des actionnaires des deux entreprises.

Les discussions sont dans une phase « avancée avec une période d’exclusivité conclue jusqu’à mi-juillet 2024 ».

Kalray a pour rappel récemment lancé sa carte Turbocard4 avec quatre DPU (Data Processing Unit) maison Coolidge 2. Elle est « conçue pour assurer aux clients la possibilité de fusionner des technologies de traitement classiques et de traitement basés sur l’IA, un enjeu majeur pour bâtir les applications IA les plus exigeantes ». La société mettait en avant son côté « made in France ».

❌