Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 14 mai 2024Next.ink

☕️ Suivez la conférence d’ouverture de la Google I/O à 19h

14 mai 2024 à 15:40
Logo de la Google I/O 2024

Google donnera le coup d’envoi de sa conférence I/O à 19h, heure française.

La société est attendue au tournant, dans un monde désormais régi par les annonces sur l’intelligence artificielle. Cette dernière devrait une nouvelle fois occuper une majorité de l’espace consacré aux nouveautés.

La Google I/O est consacrée aux développeurs. L’entreprise y dévoile en général des apports pour Android, Chrome, ChromeOS, Google Play, etc. Android 15 devrait y faire une première apparition et les rumeurs évoquent également un nouveau dongle Chromecast.

Rhea1 : enfin des détails techniques sur le CPU pour les supercalculateurs européens

14 mai 2024 à 14:04
Un lancement avant Ariane 6 ?
Processeur Rhea1

SiPearl donne enfin des détails sur son processeur Rhea1 pensé pour les supercalculateurs. On apprend notamment qu’il exploitera 80 cœurs Arm Neoverse V1. Il n’arrivera qu’en 2025, en retard sur ce qui était encore prévu il y a quelques mois.

En septembre dernier, nous avions rencontré les équipes de SiPearl, une société française (basée à Maisons-Laffitte) en charge de développer le processeur européen pour le HPC (calcul haute performance). Il sera notamment dans JUPITER, le premier supercalculateur exascale européen (financé en partie par la Commission européenne) qui sera installé en Allemagne.

Il y a un an, SiPearl bouclait un tour de table de 90 millions d’euros auprès d’Arm, Eviden (Atos), le fonds d’investissement European Innovation Council (EIC) et French Tech Souveraineté. Cette manne lui a permis ainsi de régler ses soucis financiers, de recruter et d’aller de l’avant. Marie-Anne Garigue, directrice de la communication de la société, affirmait que les soucis étaient uniquement financiers, pas techniques.

80 cœurs Arm Neoverse V1…

On sait depuis longtemps que le processeur sera articulé autour de cœurs Arm Neoverse v1. On connait désormais leur nombre : 80 cœurs par CPU. Le Neoverse V1 est pour rappel un dérivé du Cortex-X1, mais pensé pour les datacenters. Arm a depuis lancé les Neoverse V2 (dérivés du Cortex-X3) et récemment le Neoverse V3. NVIDIA utilise par exemple 72 cœurs Arm Neoverse V2 pour la partie CPU de sa puce GH200 Grace Hopper Superchip et de sa nouvelle GB200 Grace Blackwell Superchip. Même chose chez Amazon avec son SoC Graviton4 et chez Google avec l’Axion.

…avec des extensions vectorielles évolutives

Revenons à SiPearl et son Rhea1. Chacun des 80 cœurs Neoverse V1 sera accompagné de « deux unités SVE  [Scalable Vector Extension ou extension vectorielle évolutive, ndlr] de 256 bits », comme c‘est le cas par défaut avec les cœurs Neoverse V1. Ces deux unités sont d’ailleurs une différence importante avec les Cortex-X1. Selon SiPearl, elles permettent « des calculs vectoriels rapides tout en optimisant l’espace et l’énergie utilisée ». Arm ajoute qu’elles proposent « de meilleures performances HPC et IA/ML ». L’entreprise est un peu plus loquace et ajoute que « SVE a été inventé en collaboration avec Fujitsu pour le projet Fugaku [un supercalculateur qui a pendant un temps occupé la première place du Top500, ndlr] et permet une programmation agnostique en largeur vectorielle. SVE permet l’exécution de code de vecteurs allant de 128b à 2048b de large sur Neoverse V1 sans nécessiter de recompilation ».

HBM, DDR5,104 lignes PCIe 5.0 et CMN-700

Côté mémoire, Rhea1 dispose de « quatre piles HBM » (dans d’autres documents, il est précisé HBM2e) et de « quatre interfaces DDR5 », prenant en charge deux DIMM par canal. On retrouve aussi 104 lignes PCIe Gen 5 avec une répartition 6x 16 lignes + 2x 4 lignes (soit 104 lignes au total, le compte est bon). SiPearl précise qu’un « réseau maillé cohérent sur puce (NoC) haute performance arm Neoverse CMN-700 [CMN pour Coherent Mesh Network, ndlr] pour interconnecter les éléments de calcul et d'entrée/sortie » est aussi de la partie. Là encore, c’est dans le package proposé par Arm avec sa plateforme Neoverse V1. Le CMN-700 peut gérer jusqu’à 256 cœurs par die, selon Arm.

Multiples langages : C++, GO, Rust, TensorFlow, PyTorch

Côté programmation, le CPU Rhea1 « sera supporté par une large gamme de compilateurs, de bibliothèques et d'outils, allant des langages de programmation traditionnels tels que C/C++, Go et Rust aux structures d'intelligence artificielle modernes comme TensorFlow ou PyTorch ».

Rhea1 n’arrivera finalement qu’en 2025

On apprend par contre que le processeur aura encore du retard puisque « les premiers échantillons de Rhea1 seront disponibles en 2025 ». En effet, en septembre dernier, SiPearl nous expliquait que la commercialisation se ferait dans le « courant de l’année » 2024. En avril dernier, après la levée de fonds, l’entreprise annonçait « une commercialisation début 2024 ». Le supercalculateur européen JUPITER devra donc lui aussi attendre, puisqu’il est prévu qu’il intègre les processeurs Rhea1. La Commission européenne expliquait il y a peu que « le supercalculateur JUPITER devrait être accessible à un large éventail d’utilisateurs européens à partir de la fin de 2024 ».

Rhea2 aussi en 2025 ?

Rhea2 était prévu pour 2025 aux dernières nouvelles, avec une technologie « dual chiplet » permettant d’intégrer plus de cœurs sur une même puce. La société ne précise pas si le calendrier de la seconde génération glisse lui aussi.

☕️ Epic condamnée à 1,1 million d’euros pour avoir poussé les enfants à acheter dans Fortnite

14 mai 2024 à 12:57

L’autorité des marchés néerlandaise ACM explique dans un communiqué de presse avoir donné deux amendes d’un total de 1 125 000 euros à Epic Games pour pratiques commerciales déloyales visant des enfants dans le jeu Fortnite.

L’ACM a épinglé les pratiques de pression qui encourageaient les enfants à acheter des éléments dans le jeu avec des phrases comme « Obtenez-le maintenant » ou « Achetez maintenant ».

L’autorité considère que « Fortnite est destiné aux enfants et le jeu les attire. En raison de leur âge, les enfants sont plus vulnérables à certaines pratiques commerciales que les consommateurs moyens ». Elle rappelle que « les publicités qui incitent directement les enfants à faire des achats constituent une pratique commerciale agressive illégale, quelles que soient les circonstances ». L’ACM a décidé d’une amende de 562 500 euros pour ces pratiques.

Mais durant son enquête, l’ACM a aussi pu constater que le jeu affichait des comptes à rebours « trompeurs » de 24h qui poussaient les enfants à acheter rapidement un objet, alors que celui-ci était toujours disponible à la vente à la fin du décompte. « Les minuteries créent un sentiment de rareté. Les enfants ont donc été poussés à prendre des décisions d’achat rapidement, car ils avaient l’impression de ne pas pouvoir profiter des articles proposés », explique l’autorité néerlandaise. Une autre amende de 562 500 euros a donc été infligée à Epic Games.

L’ACM explique que les comptes à rebours n’étaient pas toujours « trompeurs », ce qui ajoutait à la confusion. Elle considère que la complexité inutile ajoutée ici est un « dark pattern ».

Epic Games doit abandonner ces pratiques d’ici le 10 juin, selon l’injonction faite par l’autorité néerlandaise.

L’entreprise a expliqué avoir déjà supprimé les comptes à rebours de la boutique de Fortnite. Elle affiche maintenant la date et l’heure locale à laquelle chaque objet sera supprimé, ceci pour tous les utilisateurs de Fortnite dans le monde.

Elle a informé l’autorité qu’elle n’allait afficher aux joueurs néerlandais de moins de 18 ans que les objets disponibles pendant 48 heures ou plus.

Dans un communiqué qu’a obtenu l’AFP, Epic Games conteste la décision en affirmant que « les résultats [de l’enquête de l’ACM] contiennent des erreurs factuelles importantes sur le fonctionnement de Fortnite et de la boutique d’objets ». Elle ajoute que les changements vont entrainer une « mauvaise expérience pour les joueurs ».

Windows 11 24H2 activera par défaut BitLocker sur les nouvelles installations

14 mai 2024 à 10:01
Quelques belles colères en perspective

La prochaine évolution majeure de Windows 11 présentera un changement important sur les nouvelles installations : l’activation par défaut du chiffrement BitLocker. Cette décision ne sera pas sans conséquences dans certains cas.

BitLocker est une technologie de chiffrement logiciel pour les partitions. Elle existe depuis Vista et est traditionnellement fournie avec les éditions Pro et Enterprise de Windows. Depuis Windows 10 Pro, il n’est ainsi pas rare de trouver dans le commerce des ordinateurs portables dont le disque est déjà chiffré.

En théorie, ce chiffrement intégral, basé sur XTS-AES 128 ou 256 bits, permet la protection des données. En effet, en cas de vol de l’appareil, les données ne seront pas accessibles sans la clé. C’est du moins l’effet recherché, car cette protection n’est pas absolue.

Microsoft a dans l’idée de généraliser BitLocker à l’ensemble des versions de Windows 11, y compris l’édition Famille, sur toutes les nouvelles installations. À moins que l’éditeur ne communique abondamment sur ce changement, il y aura cependant des problèmes.

BitLocker par défaut sur les installations Windows 11 24H2


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

OpenAI présente GPT-4o, Claude devient disponible en Europe

14 mai 2024 à 09:40
IA pas de fin ?
Ces cartes illustrées sont les dos d'un jeu de cartes original assemblant 56 mots A et I et des diagrammes d'échecs, faisant partie d'une expérimentation plus large de jeux analogiques sur l'I.A. Il explore une redéfinition alternative de l'I.A. en tant qu'unités d'un langage social avant une construction mathématique. Son but est d'examiner certains des principes de l'apprentissage automatique comme l'interprétation, la classification, la priorisation, en tant que composants de l'interaction humaine, avant son encodage. Les mains, les bouches et les caractères manuscrits sont choisis comme imagerie pour visualiser les sources et les choix humains exprimés à travers nos architectures techniques. La modularité associative et générative d'un jeu de cartes ouvre une représentation plus intemporelle de l'I.A., pour envisager différemment notre relation à la technologie.

Loin de s’arrêter, la course aux nouvelles versions de grands modèles de langage continue avec la présentation de GPT-4o par OpenAI, qui veut rester le leader. Pendant ce temps-là, Anthropic, l’un des challengers, annonce que son modèle Claude 3, qui rivalise avec GPT-4 est désormais disponible en Europe. Sans oublier la Google I/O de ce soir, qui fera à nouveau la part belle à l’IA.

OpenAI a annoncé lundi 13 mai sur son blog une nouvelle version de son modèle GPT-4, GPT-4o. O comme omni. OpenAI veut pousser l’accent sur le fait que son nouveau modèle peut traiter des données venant de textes écrits, de son mais aussi d’images et cela, en temps réel. Ce qui était déjà le cas des autres modèles de la famille GPT-4.

L’entreprise explique dans ce billet que cette nouvelle version est « plus rapide » tout en étant 50 % moins chère que GPT-4 Turbo, jusqu’ici le modèle le plus puissant de l’entreprise.

Siri et les autres dépassés techniquement

Pour la présentation de GPT-4o, OpenAI a publié des vidéos de démonstration où des employés de l’entreprise utilisent leur téléphone comme un compagnon numérique (à voix féminine) qui peut interagir avec eux et simuler une conversation humaine, ainsi qu’analyser en temps réel l’image prise par la caméra du téléphone.

Dans toutes ces démos, qui pour l’instant doivent être prises comme telles, la voix simule de façon très fidèle les intonations et les traits d’humour que pourrait avoir un être humain dans ce genre de conversation, allant jusqu’à rappeler le film Her.

Sur son site, OpenAI propose dès maintenant l’accès à GPT-4o via son API pour 5 dollars par million de jetons en entrée et 15 dollars par million de jetons en sortie. GPT-4 Turbo reste pour l’instant accessible avec un prix deux fois plus élevé. La version 3.5 utilisée par le premier ChatGPT est disponible à un prix 10 fois moins important que GPT-4o.

Ces démonstrations montrent qu’OpenAI a les moyens techniques de surpasser les assistants vocaux comme Siri, Alexa et autre Google Assistant.

Mais, si GPT-4o est bien multimodal et peut théoriquement prendre en entrée des sons et de la parole, OpenAI a bridé son API qui refuse donc ce type d’entrée. « Nous reconnaissons que les modalités audio du GPT-4o présentent une variété de nouveaux risques », explique l’entreprise.

« Au cours des semaines et des mois à venir, nous travaillerons sur l’infrastructure technique, la facilité d’utilisation par le biais du post-entrainement et la sécurité nécessaire pour lancer les autres modalités. Par exemple, lors du lancement, les sorties audio seront limitées à une sélection de voix prédéfinies et respecteront nos politiques de sécurité existantes », ajoute OpenAI.

Ce n’est pas la première fois que l’entreprise tourne sa communication sur des capacités impressionnantes de ses modèles tout en expliquant brider l’outil ou même ne pas le rendre public. C’était déjà le cas dès la sortie du premier ChatGPT. Et on se souvient aussi de la présentation de Sora, toujours inaccessible au grand public.

Ce bridage concerne aussi la version de GPT-4o utilisée dès maintenant par ChatGPT.

Niveau performances de chat, GPT-4o semble dépasser ses concurrents. En effet, nos confrères d’Ars Technica expliquent qu’OpenAI a testé, avant sa présentation officielle, cette version déguisée derrière le nom im-also-a-good-gpt2-chatbot dans la Chatbot Arena de Lmsys, un site qui permet aux visiteurs de comparer deux à deux les réponses des chatbots. « Il est devenu le modèle le plus fort de l’arène », a twitté Lmsys.

Claude disponible en Europe

De son côté, Anthropic, la startup créée par d’ancien d’OpenAI justement, vient d’annoncer que son assistant Claude était dès à présent disponible en Europe.

L’assistant est disponible en version Web, en application iOS et dans la batterie d’outils du « team plan » vendu aux entreprises.

Les utilisateurs européens avaient jusque-là accès à l’API permettant d’utiliser les modèles de langage de la famille Claude. Mais la startup n’avait pas ouvert l’accès à son chatbot aux utilisateurs de la zone UE, sans doute pour des raisons de compatibilité avec le RGPD.

En mars dernier, Anthropic a sorti la version 3 de sa famille de modèles de langage Claude. Celle-ci rivalise avec la famille GPT-4 d’OpenAI, même si, comme on l’a vu ci-dessus, GPT-4o semble les dépasser tous en ce qui concerne la fonction de chat.

Google en embuscade ?

L’annonce d’OpenAI intervient dans un moment opportun puisque l’entreprise a révélé son nouveau modèle la veille de la conférence Google I/O. L’entreprise, avec ses modèles Gemini, promet de concentrer ses annonces sur l’IA générative.

☕️ 7 000 artistes français demandent une meilleure rémunération aux acteurs du streaming

14 mai 2024 à 08:42
Une personne zappe sur un écran

À la veille du Festival de Cannes 2024, qui s’ouvre ce 14 mai, 7 000 artistes français du monde du cinéma et de la musique ont signé une lettre ouverte pour demander une « juste rémunération » aux plateformes de streaming.

Initiée par l’Adami, l’organisme de gestion collective des droits des artistes-interprètes, la tribune rassemble les signatures d’acteurs comme Reda Kateb, Jean-Pierre Darroussin ou Agnès Jaoui, et de musiciens comme Pomme ou Miossec.

Faisant clairement référence au bras de fer engagé par les actrices et acteurs américains lors du mouvement de grève qui a agité Hollywood pendant 118 jours en 2023, le texte souligne que la directive européenne d’avril 2019 relative aux droits d’auteur et à la rémunération des artistes-interprètes a été transposée au droit français en 2021. 


Trois ans plus tard, elle regrette qu’aucun accord n’ait encore été trouvé entre les plateformes de streaming et les représentants des artistes, « laissant les acteurs et actrices dans l’expectative la plus totale ».

☕️ Réseaux sociaux : une semaine de pause améliore l’estime de soi des jeunes filles

14 mai 2024 à 08:37
Une jeune fille assise sur un canapé se prend en selfie

Les réseaux sociaux peuvent avoir des effets négatifs sur la santé mentale, en particulier celle des jeunes filles, mais comment lutter contre le phénomène ?

Selon une nouvelle étude de l’université de York publiée dans le journal Body Image, une simple pause d’une semaine loin des réseaux sociaux permet d’améliorer significativement l’estime de soi.

Menée auprès de 66 étudiantes de 17 à 24 ans, l’étude a consisté à interroger les participantes sur leur estime de soi globale, et plus spécifiquement en matière de performance, de liens sociaux et d’apparence avant et après le test.

Les chercheuses s’intéressaient en particulier aux rapports des enquêtées à leur propre corps, et formulaient l’hypothèse que les plus attachées à un idéal de minceur promu sur les réseaux sociaux bénéficieraient le plus d’une pause dans leur usage de ces plateformes.

Résultat : l’étude montre une amélioration nette de l’estime de soi globale des participantes qui ont suspendu pendant sept jours leur usage des réseaux sociaux. L’amélioration était visible dans tous les sous-domaines, et en particulier dans l’image perçue par les participantes de leur propre corps.

Une autre étude, ayant elle aussi relevé des niveaux de satisfaction de vie et d’affect positif « significativement plus élevés » chez les jeunes femmes ayant abandonné Instagram pendant 7 jours que chez celles ayant continué à l’utiliser, n’avait pas contre identifié « aucun effet significatif » chez les jeunes hommes.

☕️ iOS 17.5 et macOS 14.5 disponibles en versions finales

14 mai 2024 à 05:53
iPhone 15

Nouvelles mises à jour importantes pour les plateformes Apple. Comme d’habitude, c’est iOS qui présente le plus d’apports.

iOS 17.5 introduit ainsi la possibilité d’installer des applications depuis des sites web, toujours dans l’idée de plaire à la Commission européenne, mais avec le même genre de limitations que les boutiques tierces.

Le système officialise également la nouvelle détection de suivi des balises développée conjointement avec Google. On y trouve aussi un mode réparation, qui permet de confier son appareil à une boutique sans devoir attendre trop longtemps, à cause de la protection contre le vol. iOS 17.5 corrige également 15 failles de sécurité.

Le programme de macOS 14.5 est beaucoup plus court : la mise à jour ne présente que des corrections de bugs. Du moins en France, puisque l’application News+ reçoit quelques apports, mais n’y est pas disponible.

Même chose pour tvOS 17.5, dont la liste des nouveautés n’est pas connue, mais qui devrait essentiellement contenir des corrections. Quant à watchOS 10.5, il n’y a rien à se mettre sous la dent, en dehors d’un nouveau fond d’écran Pride (certes réussi) et quelques corrections de bugs.

Hier — 13 mai 2024Next.ink

Les États-Unis auraient étendu l’obligation de surveillance (FISA) aux data centers

13 mai 2024 à 14:13
La NSA sur un petit nuage
La Section 702 de la loi sur la surveillance du renseignement étranger (Foreign Intelligence Surveillance Act – FISA)

Jusqu’alors réservée aux seules compagnies de téléphonie et aux fournisseurs de services Internet états-uniens, l’obligation de surveiller certaines « communications de non-Américains à l’étranger » à la demande du renseignement US, y compris s’ils communiquent avec des Américains, aurait été étendue aux data centers.

Pour rappel, la Section 702 du Foreign Intelligence Surveillance Act (FISA) autorise la NSA, voire le FBI, à accéder aux « communications de non-Américains à l’étranger », y compris s’ils communiquent avec des Américains.

Jusqu’alors, seuls les compagnies de téléphonie et fournisseurs de services Internet étaient contraints de répondre aux demandes FISA, en tant qu’« electronic communication service provider » (ECSP).

Or, le périmètre des ECSP a récemment été élargi et concerne désormais « tout autre fournisseur de services ayant accès à des équipements qui sont ou peuvent être utilisés pour transmettre ou stocker des communications filaires ou électroniques », ainsi que leurs « custodians » (que l’on pourrait traduire par « gardiens », ou « dépositaires »), et non plus seulement leurs « employés ».

Le nombre d’entreprises concernées serait « extrêmement faible »


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ « Choose France » : Microsoft et Amazon promettent plus de 5 milliards d’euros d’investissements à eux deux

13 mai 2024 à 13:18
Des billets de cinquante euros.

Le sommet Choose France, qui a eu lieu ce lundi à Versailles, met l’intelligence artificielle et l’informatique quantique à l’honneur.

Microsoft a annoncé 4 milliards d’euros d’investissement « au service de l’intelligence artificielle », selon son président. Amazon prévoit 1,23 milliard d’euros pour la création d’un nouveau data center, et IBM 45 millions d’euros et 50 emplois dans l’informatique quantique.

Alors qu’une autre industrie mise en valeur pendant ce sommet est celle de la décarbonation, la France fait valoir ses avantages énergétiques pour attirer les acteurs de l’IA, quand bien même cette dernière s’avère coûteuse d’un point de vue environnemental (en énergie, en eau, en matières premières, etc).

SoC M4 : évolutions (face aux M1 à M3) et promesses floues d’Apple

13 mai 2024 à 13:13
Bientôt M6, la petite puce qui monte ?
Apple M4 SoC

La semaine dernière, Apple a présenté comme prévu sa nouvelle gamme de tablette iPad Pro, avec une nouvelle puce maison : M4. Cette quatrième génération prend donc la relève du SoC M3. Nous avons regroupé les principales caractéristiques techniques des M1 à M4 dans un tableau, avec une mise en perspective des performances annoncées par Apple.

Comme à son habitude, Apple ne tarit pas d’éloges lorsqu’il s’agit de présenter un nouveau produit, quel qu’il soit. Avec la puce M4, on a eu droit à une débauche de chiffres et de promesses – « performances exceptionnelles », « révolutionnaire »… – , mais parfois avec des non-dits très importants.

SoC M4 : 9 ou 10 cœurs CPU

Dans son communiqué, Apple annonce « jusqu’à 10 cœurs » pour la partie CPU, ce qui veut évidemment dire qu’il existe au moins une version plus légère. Et, en effet, la nouvelle puce M4 intègre 9 ou 10 cœurs avec 3 ou 4 cœurs performances (P) et 6 cœurs efficaces (E). Les générations précédentes étaient à 8 cœurs pour le CPU (4P et 4E).

Il faut se rendre sur la page de l’iPad Pro pour trouver le détail des configurations : « Les modèles d’iPad Pro avec 256 Go ou 512 Go de stockage sont équipés de la puce Apple M4 avec CPU 9 cœurs. Les modèles d’iPad Pro avec 1 To ou 2 To de stockage sont équipés de la puce Apple M4 avec CPU 10 cœurs ».

Le stockage détermine les cœurs CPU et la mémoire

Seuls les modèles les plus chers peuvent donc profiter des 10 cœurs du SoC M4. Les iPad Pro de 256 et 512 Go n’ont en effet droit qu’à trois cœurs P, soit un de moins que la puce M3, mais avec deux cœurs E de plus. Apple insiste d’ailleurs beaucoup sur le gain en efficacité énergétique de son SoC.

Ce n’est d’ailleurs pas le seul changement : les iPad Pro de 256 et 512 Go ont 8 Go de mémoire seulement, quand les versions de 1 et 2 To ont 16 Go. Ces différences ne sont pas mises en avant par Apple dans sa boutique en ligne. Il faut cliquer sur « Vous ne savez pas pour quel espace de stockage opter ? Voici quelques conseils pour déterminer l’espace qu’il vous faut » pour avoir le détail.

Le SoC M4 intègre 10 cœurs GPU

Sur la partie GPU, il y a toujours 10 cœurs avec la puce M4 (dans sa version pour les iPad Pro en tout cas), alors que cela varie de 8 à 10 sur les M3 et M2.

Apple explique que « le nouveau GPU 10 cœurs de la puce M4 fait évoluer l’architecture graphique de nouvelle génération de la famille des puces M3. Il intègre la mise en cache dynamique, une innovation Apple qui alloue la mémoire locale de façon dynamique dans le matériel et en temps réel afin d’accroître l’utilisation moyenne du GPU ».

Cette technologie n’est pas une nouveauté du M4, car elle était déjà mise en avant sur le SoC M3. Il semble que les nouveaux cœurs GPU n’aient pas grand-chose de nouveau par rapport à ceux de la génération précédente, mais cela reste à confirmer.

Comparatif des performances à la sauce Apple

Pour les performances, Apple annonce des « rendus pro jusqu’à 4x plus rapides qu’avec la M2 » et des « performances du CPU jusqu’à 1,5x plus rapides qu’avec la M2 ». Problème, il s’agit de comparer une puce avec deux générations d’écart et un nombre de cœurs CPU différent : 10 pour la version M4, 8 pour la M2.

Pour le GPU, c’est encore pire. Le « 4x » est donné pour Octane X 2024.1 (a4) 4-09-2024, version « testée à l’aide d’une scène comprenant 780 000 maillages (meshes) et 27 millions de primitives uniques, en utilisant le ray tracing à accélération matérielle sur les systèmes équipés de la M4 et le ray tracing basé sur le logiciel sur toutes les autres unités ».

Le GPU de la puce M2 ne prend pour rappel pas en charge le ray tracing, qui est une nouveauté du M3. Forcément, la puce M4 fait bien mieux puisqu’elle dispose d’une accélération matérielle. De manière générale, Apple se garde bien de comparer son M4 au M3. Pourtant, lors de l’annonce de la famille M3, les performances des cœurs P et E étaient comparées à celle des générations précédentes.

Si la communication d’Apple s’axe beaucoup sur la comparaison M2 et M4, c’est que le nouvel iPad Pro saute une génération de puce. Le SoC M3 est en effet pour le moment réservé à certains MacBook et iMac.

38 TOPS… qui ne veulent pas dire grand-chose en l’état

Passons à une autre « astuce » d’Apple, sur le Neural Engine cette fois-ci. La société met en avant des performances de 38 TOPS, bien au-delà des 18 TOPS de la puce M3 (qui a aussi 16 cœurs NPU). Mais comme Apple ne donne aucune information sur la précision (entier, virgule flottante, nombre de bits…), impossible de savoir ce qu’il en est.

En tout état de cause, impossible d’affirmer pour le moment que les performances sont plus que doublées (de 18 à 38 TOPS). En effet, si le M3 est mesuré en INT16 à 18 TOPS et que le M4 est en INT8 à 38 TOPS, alors cela donnerait 18 et 19 TOPS (INT16) ou 36 et 38 TOPS (INT8) en base comparable pour les M3 et M4 respectivement, soit un gain de 5 % seulement.

Une « astuce » déjà utilisée par NVIDIA lors de l’annonce de Blackwell. Le constructeur a mis deux GPU sur une seule puce et affiche des performances en FP4, deux fois supérieures à celle en FP8. NVIDIA pouvait ainsi passer de 4 000 à 20 000 TFLOPS, alors que le gain sur le GPU en base comparable n’est « que » de 25 % entre Hopper et Blackwell.

Bande passante, décodage AV1, finesse de gravure…

Seule certitude, la bande passante de la mémoire grimpe de 20 % (certainement via une hausse de la fréquence) et passe ainsi de 100 à 120 Go/s. La finesse de gravure est toujours en 3 nm (comme pour les M3), mais passe à la seconde génération. Un nouveau contrôleur vidéo Tandem OLED est de la partie.

Apple n’a pas précisé la quantité de mémoire unifiée maximum sur la puce M4, mais on peut supposer qu’elle devrait être identique à celle de la M3, avec jusqu’à 24 Go. Autre « nouveauté » de la puce M4 mise en avant par Apple : le décodage vidéo AV1 sur iPad. Les Mac équipés de M3 pouvaient déjà le faire.

Le fabricant n’a pas encore annoncé les versions Pro et Max de sa puce M4. Il faudra également attendre de voir si un SoC M4 Ultra verra le jour. Les précédentes versions Ultra étaient pour rappel deux puces M1 ou M2 Max assemblées pour doubler les performances.

Tableau récapitulatif des puces M1 à M4

Voici pour finir notre tableau comparatif des caractéristiques des différentes variantes de puces Mx d’Apple (sauf les versions Ultra).

Avec 01.ai, Kai-Fu Lee tente de créer un « moment ChatGPT » en Chine

13 mai 2024 à 09:28
哈囉世界

Fondée il y a un peu plus d’un an par Kai-Fu Lee, la start-up chinoise 01.ai dévoile Yi-Large, son nouveau grand modèle de langage, et Whanzi, sa première application d’IA générative à destination du grand public.

En Chine, la start-up 01.AI lance un nouvel outil de productivité nommé Wanzhi. Similaire au Copilot de Microsoft, il s’agit du dernier d’une série de produits d’intelligence artificielle (IA) créé par l’entreprise, et du premier à destination du grand public.

Construit avant tout pour le marché chinois, Wanzhi fonctionne néanmoins en chinois et en anglais, et permet à ses utilisateurs de créer des tableurs et des présentations plus rapidement. Il permet aussi d’interpréter des rapports financiers et de résumer des textes longs, jusqu’à la taille de livres conséquents.

01.AI dévoile par ailleurs un nouveau modèle de langage, Yi-large, accessible aux professionnels par API.

La quête d’un « moment ChatGPT » en Chine


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ « Dans les algorithmes », nouvelle newsletter sur l’impact social de la tech

13 mai 2024 à 08:23

Une nouvelle newsletter parlant du numérique en français vient d’être lancée sous le nom de « Dans les algorithmes ».

Aux manettes, le journaliste et essayiste Hubert Guillaud. Celui-ci a notamment animé pendant des années le site Internet Actu du think tank La Fing, association pour la Fondation internet nouvelle génération, qui traitait déjà des conséquences sociales du numérique sur la société.

L’ambition de « Dans les algorithmes », newsletter portée cette fois par une association nommée Vecteur créée pour l’occasion, est de « poser les enjeux de la société numérique, comprendre l’impact social des technologies et de l’automatisation sur nos vies ». Dans son manifeste, le média explique s’inspirer des initiatives existantes à l’étranger comme AlgorithmWatch, l’AI Now Institute ou Data & Society.

Les membres fondateurs de l’association Vecteur sont l’association Matrice, le cabinet de conseil Octo Technology et l’agence d’innovation RH Tomorrow Theory.

☕️ Un militant identifié par son adresse e-mail de récupération Proton

13 mai 2024 à 08:11
Proton Mail

Des documents judiciaires obtenus par TechCrunch indiquent que la police espagnole a réussi à identifier un activiste sous pseudonyme grâce à des informations transmises par les messageries chiffrées Wire et Proton.

Enquêtant sur les personnes impliquées dans le mouvement indépendantiste en Catalogne, la Guardia Civil a en effet demandé, par l’intermédiaire de la police suisse, « toutes les informations d’identification » liées à certains comptes Wire et Proton.

Ses demandes, qui mentionnaient le « crime organisé » et le « terrorisme » comme motifs de l’enquête, visaient à « découvrir qui sont les auteurs des faits qui se sont déroulés lors des émeutes de rue en Catalogne en 2019 ».

En réponse, Wire lui a transmis l’adresse email Proton utilisée par l’un des utilisateurs de sa messagerie, et Proton son adresse email de récupération, liée à un compte iCloud. Les documents obtenus par TechCrunch montrent qu’Apple, sollicitée à son tour, lui a alors « fourni un nom complet, deux adresses personnelles et un compte Gmail lié », précise TechCrunch.

« Proton n’exige pas d’adresse de récupération, mais dans ce cas, le terroriste présumé en a ajouté une de son propre chef », a déclaré le porte-parole de Proton dans le courriel. « Nous ne pouvons pas chiffrer ces données car nous devons être en mesure d’envoyer un courriel à cette adresse si le suspect terroriste souhaite lancer le processus de récupération », a ajouté la société.

« Ces informations peuvent en théorie être demandées par les autorités suisses dans les cas de terrorisme, et cette décision est généralement prise par l’Office fédéral de la justice suisse. Proton fournit la confidentialité par défaut et non l’anonymat par défaut, parce que l’anonymat nécessite certaines actions de l’utilisateur pour assurer une [sécurité opérationnelle] appropriée, comme ne pas ajouter votre compte Apple comme méthode de récupération optionnelle, ce qui semble avoir été fait par le suspect terroriste présumé. »

Proton précise en effet, dans sa section Support, que « Proton n’a pas accès à votre mot de passe, nous ne pouvons donc pas le réinitialiser si vous l’oubliez ou le perdez » :

« Si vous ne définissez aucun moyen de récupérer votre compte Proton et que vous oubliez votre mot de passe, vous perdrez l’accès à votre compte et à tous vos courriels, contacts et autres fichiers chiffrés. »

☕️ Domotique : Matter 1.3 permet la gestion de l’énergie, de l’eau et des bornes de recharge

13 mai 2024 à 07:11
Matter 1.3

Matter (anciennement CHIP) est un protocole domotique, dont la version finale a été mise en ligne fin 2022. Il est développé par la Connectivity Standards Alliance (CSA), anciennement Zigbee Alliance.

La nouvelle version 1.3 du protocole propose une gestion de l’énergie. « Cela permet à tout type d’appareil d’inclure la possibilité de rapporter des mesures réelles et estimées, y compris la puissance instantanée, la tension, le courant et d’autres données en temps réel, ainsi que sa consommation ou sa production d’énergie au fil du temps ».

Les bornes de recharge sont aussi de la partie. Elles peuvent utiliser le protocole pour proposer un démarrage/arrêt de la charge, modifier la puissance, préciser l’autonomie souhaitée avant de partir, gérer la charge en fonction des tarifs de l’électricité, etc.

Enfin, pour l’eau, Matter prend en charge « les détecteurs de fuite et de gel, les capteurs de pluie et les vannes d’eau contrôlables ».

De nombreux nouveaux types d’appareils sont intégrés dans Matter 1.3 pour simplifier la vie des fabricants qui voudraient sauter le pas : fours, fours à micro-onde, table de cuisson, hottes et sèche-linge. Les frigos, climatisations, lave-vaisselle, lave-linge, aspirateurs, ventilateurs, détecteurs de fumée et de qualité de l’air avaient été ajoutés dans la version 1.2 en octobre dernier. Il faut bien évidemment que le fabricant intègre le protocole Matter pour que l’appareil soit compatible.

Niveau fonctionnalités, on trouve aussi les scènes. De plus, « un contrôleur Matter peut désormais regrouper plusieurs commandes en un seul message lors de la communication avec des périphériques Matter afin de minimiser le délai entre l’exécution de ces commandes ».

Les notes de version détaillées se trouvent par ici.

☕️ Vague de faux signalements sur Waze ce week-end

13 mai 2024 à 06:21

La semaine dernière était un peu particulière : les 8 et 9 mai étaient fériés et beaucoup ont fait le pont vendredi. Résultat des courses, un week-end prolongé pour certains dès mardi soir. Combiné avec un temps des plus agréables, cela donne de nombreux déplacements, et donc des centaines de kilomètres de bouchons au départ mercredi et au retour dimanche.

Nombreux étaient les conducteurs avec Waze pour essayer de trouver le trajet le plus rapide, en limitant autant que possible les bouchons. Mais l’application a fait face à une importante vague de faux signalements en tout genre : contrôles de police, voitures arrêtées, alertes météo, mais également routes enneigées et verglacées. Sur l’A6 et l’A10 par exemple, ils se comptaient par dizaines.

Waze permet pour rappel à tout un chacun de « contribuer à l’amélioration de la carte » en signalant la présence de la police, un accident, un danger, du mauvais temps, une route bloquée, etc. L’application demande alors aux autres usagers si le « danger » est toujours présent ou non.

« Les signalements s’affichent sur la carte pendant un certain temps. Cette durée varie en fonction du nombre de Wazers qui réagissent à un signalement. Si un signalement n’est plus exact, appuyez sur Plus là. Cela permet de réduire la durée d’affichage du signalement », explique Google. Hier, c’était un peu le jeu du chat et de la souris avec des faux signalements qui apparaissaient et disparaissaient.

L’application a des protections contre les signalements abusifs et excessifs : « Si vous avez effectué un nombre excessif de signalements dans votre compte, vous ne pourrez plus en effectuer pendant un certain temps. Si votre compte a été signalé plusieurs fois pour ce même motif, ce délai augmentera » : 24h pour le premier avertissement, 7 jours pour le second et 30 jours pour le troisième.

Nous avons demandé à Waze si le service avait plus de précision sur ce qu’il s’est passé ce week-end. Et vous, avez-vous remarqué une recrudescence des faux signalements sur Waze durant ce week-end prolongé ?

À partir d’avant-hierNext.ink

La pression américaine monte encore d’un cran contre le Chinois Huawei

10 mai 2024 à 14:48
USA vs Chine : S05E04
Un drapeau américain flotte dans un ciel gris.

Énième épisode dans la série États-Unis vs Chine. Le gouvernement américain aurait davantage fermé les vannes sur les exportations de puces vers Huawei. Les deux pays se livrent une guerre froide sur fonds de sécurité nationale depuis maintenant plusieurs années.

2019 – 2024 : la guerre froide continue

Pour rappel, Huawei a été placé sur liste noire par les États-Unis suite à la signature d’un décret par Donald Trump en mai 2019. Il était alors question d’interdire aux groupes américains de faire des affaires avec le chinois Huawei. Des risques sur la sécurité nationale étaient mis en avant. « Les entreprises américaines peuvent vendre leur équipement à Huawei […] Nous parlons là d’équipement qui ne pose pas de grand problème de sécurité nationale », précisait alors le président des États-Unis.

Fin 2022, la guerre froide continuait de plus belle avec l’interdiction d’exporter les produits « hautes performances » pour l’IA, la défense, les supercalculateurs, les équipements pour fabriquer des semi-conducteurs, etc. Les USA souhaitaient ainsi garder leur avance technologique. De son côté, la Chine a un plan pour se débarrasser des technologies américaines. Elle a même banni AMD, Intel et Microsoft de ses administrations.

Un jeu du chat et de la souris s’est mis en place, notamment du côté des GPU NVIDIA. Malgré l’embargo, la Chine continuait à s’en procurer en ce début d’année, tandis que des GPU spéciaux pour la Chine était proposée par NVIDIA, afin de pouvoir continuer à en vendre.

Nouveau tour de vis de l‘administration Biden

C’est dans un marché déjà bien verrouillé que le gouvernement de Biden a révoqué les licences d’exportation permettant à Intel et Qualcomm de continuer à fournir certains semi-conducteurs à Huawei, révèle le Financial Times. Cette décision du ministère américain du Commerce entraverait la fourniture de puces pour les ordinateurs portables et les téléphones mobiles de Huawei, précisent des personnes au fait de la situation.

Le discours est un peu toujours le même : « Nous évaluons en permanence la manière dont nos contrôles peuvent protéger au mieux notre sécurité nationale et nos intérêts en matière de politique étrangère, en tenant compte de l’évolution constante des menaces et du paysage technologique », a déclaré un porte-parole du ministère. « Dans le cadre de ce processus, comme nous l’avons fait par le passé, nous révoquons parfois des licences d’exportation ».

Cette décision intervient alors que les États-Unis s’alarment de la capacité de Huawei à développer ses propres puces en dépit des contrôles à l’exportation mis en place depuis 2022, souligne le FT. Lorsque la secrétaire d’État au commerce, Gina Raimondo, s’est rendue en Chine l’année dernière, Huawei avait en effet présenté son smartphone Mate 60 Pro, dont les performances avaient surpris les experts.

Marco Rubio, vice-président républicain de la commission sénatoriale du renseignement, et Elise Stefanik, quatrième républicaine de la Chambre des représentants, avaient demandé le mois dernier à Mme Raimondo de révoquer les licences de Huawei après l’apparition d’informations selon lesquelles le groupe basé à Shenzhen avait construit des ordinateurs portables utilisant des puces d’Intel. C’est le cas du dernier Matebook avec un Core-i9 13900H.

Un discours bien rodé depuis des années

Le mois dernier, le FT avait également rapporté que les États-Unis poussaient leurs alliés en Europe et en Asie à renforcer les restrictions sur les exportations de technologies liées aux puces vers la Chine, en raison des inquiétudes croissantes concernant Huawei. Là encore, c’est une rengaine qui revient régulièrement sur le devant de la scène depuis des années.

« Les États-Unis ont trop étendu le concept de sécurité intérieure, politisé les questions économiques et commerciales, abusé des mesures de contrôle à l’export et adopté à plusieurs reprises des sanctions et des mesures de répression déraisonnables contre des entreprises chinoises spécifiques », a réagi un porte-parole du ministère chinois du Commerce dans un communiqué, relève de son côté l’AFP.

Le porte-parole a aussi averti que « la Chine prendrait toutes les mesures nécessaires pour sauvegarder fermement les droits et les intérêts légitimes des entreprises chinoises ». En plus de bannir certaines entreprises américaines de ses administrations, la Chine restreint les exportations en matériaux rares indispensables à la création des puces.

L’AFP relève que les sanctions américaines ont forcé le géant chinois des télécoms à se recentrer sur des secteurs comme les logiciels, les appareils connectés, l’informatique d’entreprise, mais aussi les voitures électriques, avec sa marque Aito.

Réactions d’Intel et Qualcomm

Intel et Qualcomm ont réagi à leur manière à cette nouvelle vague de restriction. Dans un document transmis à la SEC, Intel explique que « le 7 mai 2024, le département du Commerce des États-Unis a informé Intel Corporation qu’il révoquait certaines licences d’exportation d’articles de consommation à un client en Chine, avec effet immédiat. Par conséquent, la société s’attend à ce que le chiffre d’affaires du deuxième trimestre 2024 reste dans la fourchette initiale de 12,5 à 13,5 milliards de dollars, mais en dessous du point médian ».

Il y a quelques jours, Qualcomm avait pris les devants (.pdf) : « nous disposons actuellement de licences d’exportation du ministère américain du Commerce qui nous permettent de vendre à Huawei des produits, notamment pour la 4G et le Wi-Fi, mais pas pour la 5G. Des reportages récents ont indiqué que le ministère du Commerce envisageait de ne pas accorder de nouvelles licences de vente à Huawei ». La prévision semble donc s’être réalisée.

« De plus, Huawei a récemment lancé de nouveaux appareils compatibles 5G utilisant des puces maison. Même si nous avons continué à vendre des produits à Huawei sous nos licences, nous ne prévoyons pas de revenus provenant de chez Huawei au-delà de l’année civile en cours ».

La suite au prochain épisode…

OpenAI a détruit les jeux de données de livres sur lesquels elle a entrainé ses premiers modèles

10 mai 2024 à 14:16
Catch me if you can
Deux requins étiquetés par portions avec les marques des entreprises d'IA génératives nagent dans l'océan

Dans le procès qui oppose l’organisation américaine Authors Guild à OpenAI, des documents descellés révèlent que l’entreprise de Sam Altman a affirmé à la FTC avoir détruit toutes ses copies des jeux de données contenant des milliers de livres sur lesquels elle a entrainé ses grands modèles de langage. Pour l’Authors Guild, OpenAI a détruit une preuve directe du contenu copyrighté qu’elle a utilisé pour entrainer ses modèles.

OpenAI ne voulait pas que ces documents soient publiés. Mais finalement, la justice américaine n’a pas suivi l’avis de l’entreprise. Ils proviennent d’un des multiples procès intentés contre OpenAI pour violation de copyright lors de l’entrainement de ses modèles de langage. Ces documents révèlent que l’entreprise a détruit des jeux de données visés par la plainte, comme l’a découvert Business Insider.

Plainte de nombreux auteurs américains

L'organisation américaine Authors Guild, qui rassemble environ 9 000 membres, a porté plainte en septembre 2023 contre l'entreprise aux côtés d'auteurs célèbres comme George R.R. Martin, Michael Connelly, David Baldacci, Mary Bly, Sylvia Day ou encore Roxana Robinson (pdf). Dans ce document, les plaignants ciblent en particulier l'utilisation de trois jeux de données utilisés par l'entreprise : « OpenAI admet que parmi les jeux de données "d'entraînement" qu'elle a utilisés pour "entraîner" le modèle [GPT-3] figuraient "Common Crawl" et deux "corpus de livres basés sur l'internet" de "haute qualité" qu'elle appelle "Books1" et "Books2" », citant un article scientifique des chercheurs de l'entreprise. Mais, si le contenu de Common Crawl est connu (car disponible en accès libre), ceux de Books1 et Books2 ne le sont pas. En effet, ils ont été créés en interne à OpenAI pour entrainer ses modèles de façon unique et notamment GPT-3, le grand modèle de langage sur lequel l'entreprise s'est appuyée, à l'époque, pour sortir ChatGPT.

Des pièces à conviction détruites ?

Après plusieurs mois infructueux de recherche d'information sur Books1 et Books2, car OpenAI se retranchait derrière leur « confidentialité », l'Authors Guild a pu obtenir de l'entreprise de Sam Altman « qu'elle avait détruit toutes ses copies de books1 et books2, et que les deux chercheurs d'OpenAI responsables de la création de ces ensembles de données ne sont plus employés » par la société (PDF). Cette destruction aurait eu lieu mi 2022. Pour l'association de défense des droits des auteurs américains, « étant donné qu'OpenAI a détruit les preuves directes du contenu des books 1 et 2, ces anciens employés sont d'une importance cruciale dans cette affaire ». Elle a donc demandé à l'entreprise leur identité et l'accuse de ne pas donner suffisamment d'information pour les identifier. Les avocats de l'Authors Guild en profitent pour demander l'accès aux réponses d'OpenAI à la Federal Trade Commission (FTC) lors de différentes enquêtes de l'agence indépendante américaine. Celles-ci pourraient, en effet, contenir les informations que l'organisation cherche.

Destruction « avant litige »

Mais OpenAI se défend (PDF) en expliquant qu'elle a apporté à l'Authors Guild des informations sur ces deux chercheurs et qu'elle est prête à répondre à ses questions si elles n'étaient pas suffisamment claires. Elle ajoute que « les jeux de données Books1 et Books2 ont été supprimés pour cause de non-utilisation avant qu'un litige n'ait été intenté contre OpenAI, et qu'OpenAI a activement enquêté pour déterminer si elle pouvait trouver d'autres copies des jeux de données ou d'autres documents à partir desquels les jeux de données peuvent être reconstruits ». OpenAI s'oppose donc à ce que l'Authors Guild puisse accéder à ses réponses données à la FTC dans des enquêtes se concentrant sur les données personnelles et les aspects liés au consommateur, informations « sans rapport avec la présente affaire ». Dans une déclaration citée par Business Insider, OpenAI affirme que « les modèles qui alimentent ChatGPT et notre API aujourd'hui n'ont pas été développés à l'aide de ces jeux de données » et ajoute que « ces jeux de données, créés par d'anciens employés qui ne font plus partie d'OpenAI, ont été utilisés pour la dernière fois en 2021 et supprimés pour cause de non-utilisation en 2022 ». Il n'en reste pas moins que, dans sa réponse récente à la plainte du New York Times, OpenAI affirmait qu' « étant donné que le copyright couvre aujourd’hui pratiquement toutes les formes d’expression humaine – y compris les articles de blog, les photographies, les messages de forum, les bouts de code de logiciel et les documents gouvernementaux – il serait impossible d’entraîner les meilleurs modèles d’IA actuels sans utiliser des documents protégés par le copyright ».

L’histoire du BASIC, lancé il y a plus de 60 ans

10 mai 2024 à 13:20
Simple, basique

Le BASIC est un langage de programmation que les moins jeunes connaissent certainement, voire qu’ils ont étudié à l’école pour certains (j’en fais partie, cela ne me rajeunit pas…). Ce projet universitaire, qui réunit à la fois un langage de programmation et la notion de temps partagé, vient de fêter ses 60 ans. On remonte donc soixante ans en arrière…

Il y a quelques jours, le BASIC fêtait ses 60 ans : « à 4 heures du matin, le 1er mai 1964, dans le sous-sol du College Hall, le professeur John G. Kemeny et un étudiant programmeur [Thomas E. Kurtz, ndlr] tapaient simultanément RUN sur les terminaux voisins », explique le Dartmouth College, une université privée du nord-est des États-Unis, où s’est déroulé cette première.

Pour vous resituer un peu, c’est aussi dans les années 60 que Douglas Engelbart a inventé la souris. Internet n’existait pas, et ARPANET n’est arrivé que cinq ans plus tard, en octobre 1969, avec le premier paquet de données qui transitait entre une université et une entreprise.

« Premier système de partage de temps à usage général »


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

❌
❌