Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

[Édito] IA : il nous faut un traitement plus nuancé

IA quoi ?

Alors que la machine médiatique participe à amplifier le buzz autour de l’intelligence artificielle, Next se demande comment traiter le sujet à sa juste mesure.

Comment parler correctement d’intelligence artificielle ? Il y a quelques semaines, auprès de la BBC, le professeur d’intelligence artificielle à la Liverpool Hope University David Reid déclarait : « je situerais la couverture médiatique de l’IA quelque part autour de 2 sur 10 ». Sa critique principale : le monde médiatique parle du champ comme d’une entité unique, alors qu’il ne l’est pas. Et d’appeler à une couverture plus nuancée.

La critique n’est ni neuve, ni cantonnée au monde britannique. À en croire Emily Bell, directrice du Tow Center for Digital Journalism de l’Université de Columbia, aux États-Unis, elle peut même s’expliquer par l’accélération du cycle de l’actualité, qui rend plus complexe, encore, la couverture de l’explosion de l’IA générative que ne l’a été celle de l’explosion d’internet en 2000 ou celle des smartphones en 2007.

Quoi qu’il en soit, les chiffres sont là : au Royaume-Uni, 60 % des articles relatifs à l’intelligence artificielle concernaient en 2018 des produits, des initiatives et des annonces de l’industrie technologiques. 33 % des sources identifiables venaient du secteur privé, soit deux fois plus que celles issues du monde académique. Pour certains chercheurs cités par le Reuters Institue, une partie du traitement du domaine s’apparente carrément à une « épidémie de mésinformation », dans laquelle les médias se contentent d’amplifier un buzz alimenté par les constructeurs.

La problématique se traduit, aussi, dans le type de sources relevées dans les articles de presse tech comme généralistes : dans l’ultra-majorité des cas, il s’agit d’une poignée d’informaticiens, d’entrepreneurs et de politiciens aux positions quasi unanimes, en faveur du développement et du déploiement de ces technologies.

Sauf qu’au Canada comme ailleurs, les liens entre intérêts universitaires, industriels et politiques, en matière d’IA, sont finement intriqués, les premiers cherchant financement chez les deux autres, qui interagissent par ailleurs pour la création d’un écosystème favorable à la promotion de l’IA. Ce qu’il manque, dans tout cela, ce sont les voix de ceux qui s’intéressent au reste, aux externalités sociales, environnementales, aux effets concrets et présents de l’expansion de cette industrie.

Côté francophone, on trouve des chiffres sur le succès médiatique du champ technologique : depuis 2022, selon la plateforme de veille Tagaday, le volume d’articles relatifs à l’IA a été multiplié par trois, sachant qu’au 1er trimestre 2023, un article sur 100 était consacré au sujet. Selon l’entreprise, une telle visibilité médiatique a quelque chose de comparable… « au conflit Israël – Hamas ». Si bien qu’entre 70 % et 80 % de la population interrogée par le Reuters Institute dans six pays (dont la France) a entendu parler de l‘IA générative… alors qu’à peine 15 % des Français utilisent un outil comme ChatGPT au moins une fois par mois.

Dans le détail, on trouve aussi un nombre croissant d’articles sur le casse-tête que l’intelligence artificielle, générative ou non, pose dans les rédactions (pour, contre, ou les deux ? Quels types de modèles ? Pour quels types d’usages ? De la modération ? De l’enquête ? Du bâtonnage de dépêche chiffrée ?). Difficile, en revanche, de trouver une estimation claire de la manière dont ce type de technologie et son déploiement sont couverts. Tout juste Tagaday rapporte-t-elle, sur les plus de 162 000 articles ou sujets audiovisuels analysés, une surreprésentation très nette de ChatGPT parmi les noms de modèles génératifs évoqués.

En 2023, nous revenions aussi sur le travail des sociologues Anne Bellon et Julia Velkovska, qui rapportait une évolution globale du traitement de l’IA en France (moins d’utilisation du terme « robot » à partir de 2016, plus d’occurrence de l’expression « IA » depuis). Comme d’autres, elles soulignent qu’une petite poignée de personnalités (Yann Le Cun, Ray Kurzweil ou, plus franco-français, Cédric Villani) est très largement citée, dont certains présentent une expertise débattue. Ainsi de Stephen Hawking, qui n’était pas expert de l’IA, et surtout de Laurent Alexandre, cinquième personnalité la plus présente dans leur corpus.

Les enjeux sont multiples, pourtant, et les seuls représentants de l’industrie numérique ne permettront pas de les décortiquer avec la nuance nécessaire. Il y a à peine six mois, ces leaders appelaient eux-mêmes à une pause dans le développement de l’IA. De pause, il n’y a pas eu. À la place, pointe la journaliste Julia Angwin, nous voilà aux prises avec des technologies génératives instables, qui inondent le web de contenus de faible qualité, mais peinent à prouver leur utilité.

Ça n’est pas la première fois que le monde médiatique se fait avoir par les promesses délirantes des industriels de la tech. Avons-nous seulement appris du passé ? De la bulle internet ? De celle des cryptos ? Du métavers ?

Il ne s’agit pas de tout jeter. Les technologies déployées par le champ de l’intelligence artificielle sont multiples, pour certaines anciennes, et sont là pour rester. Il s’agit de reconnaître, en revanche, que les questions auxquelles il nous faut chercher des réponses sont multiples.

Sur les modèles eux-mêmes, pour commencer : GPT-4 a-t-il réellement réussi haut la main l’examen du barreau, comme le clamait OpenAI en mars 2023 ? Un réexamen du chercheur Eric Martínez laisse penser qu’il s’est plutôt trompé pour une question sur deux. Quid de la capacité de ces modèles à répondre à des questions simples ? En contexte médical, une étude de Stanford montre que si un médecin sur dix utilise déjà ChatGPT au quotidien aux États-Unis, le grand modèle de langage produit trop d’erreurs pour être utilisable.

Les cadrages économiques aussi demandent de la nuance : quand Emmanuel Macron promeut l’intelligence artificielle en France, quelles mesures proposent-ils concernant les emplois qui seront touchés, forcés à muter ? Quelle évolution des cadres de travail, outre la réduction de l’assurance-chômage ?

Dans un autre domaine, la conférence Vivatech fait le plein de tables rondes sur les intérêts du nucléaire. Le président de la République joue, lui aussi, de cet argument pour attirer les géants numériques. Et c’est vrai, l’électricité française peut se targuer d’être peu carbonée.

Mais quid des autres effets du numérique sur l’environnement ? Sur quels terrains seront construits les data centers ? Avec quelle eau les refroidira-t-on ? En cas de canicule, comment l’arbitrage entre les usages des entreprises et ceux des citoyens sera-t-il organisé ?

Chez Next, on essaie d’aborder l’intelligence artificielle en gardant ce type de questions en tête. On s’interroge aussi sur l’utilité des technologies que l’on croise avant de s’y attarder. Notre problème, évidemment, est qu’il est matériellement impossible de traiter la totalité des applications concrètes de l’IA. Chaque jour, il nous faut donc faire des choix.

Et vous, comment voudriez-vous entendre parler d’intelligence artificielle ?

☕️ Investissements dans l’IA : l’Union européenne à la traîne, faute de suivi

Malgré d’importants travaux pour faciliter le développement de l’intelligence artificielle, l’Union européenne reste à la traîne sur la scène mondiale avec des investissements inférieurs à ceux des États-Unis et de la Chine, selon un rapport de la Cour des Comptes européenne.


Quand bien même des mesures ont été prises pour développer un écosystème d’IA au tournant des années 2020, l’entité souligne un manque d’outils de gouvernance et de suivi des objectifs d’investissements comme de leurs résultats.

Elle appelle à des actions mieux ciblées, pour que les dépenses réalisées par l’Union européenne donnent un réel coup d’accélérateur au milieu.

☕️ Hugging Face : la sécurité de certains « espaces » compromise

La semaine dernière, la plateforme d’hébergement spécialisée dans le machine learning a détecté des « accès non autorisés » à des « Spaces », nom donné aux espaces utilisateurs sur Hugging Face.

Dans un billet publié vendredi soir, la startup franco-américaine soupçonne que ces intrusions auraient été possibles grâce à la récupération d’un sous-ensemble de secrets. Hugging Face ne donne pas le nombre de secrets touchés. Elle explique avoir révoqué les jetons présents dans ces secrets et informé les utilisateurs concernés.

Hugging Face recommande d’actualiser toute clé ou jeton. Elle pousse aussi ses utilisateurs à envisager de remplacer les jetons Hugging Face par des jetons d’accès à granularité fine (« fine-grained tokens ») mis en place sur la plateforme depuis un mois. L’entreprise a mis en ligne un petit tuto vidéo pour montrer comment créer un « fine-grained tokens » :

Interrogée par TechCrunch, Hugging Face a répondu : « nous avons vu le nombre de cyberattaques augmenter considérablement au cours des derniers mois, probablement parce que l’utilisation de nos services a augmenté de manière significative et que l’IA devient de plus en plus courante. Il est techniquement difficile de savoir combien de secrets d’espaces ont été compromis ».

☕️ Ubuntu 24.04 a désormais son noyau temps réel

Fond d'écran par défaut d'Ubuntu 24.04

La dernière mouture LTS (Long Term Support) d’Ubuntu a reçu il y a quelques jours son noyau « temps réel », qui « réduit la latence par rapport à Linux principal et améliore la capacité du système à gérer efficacement les opérations urgentes ».

Comme Ubuntu 22.04 avant elle, ce nouveau noyau Linux est réservé aux personnes inscrites à Ubuntu Pro, gratuit pour une utilisation personnelle ou commerciale si limitée à cinq appareils.

Ce noyau particulier est basé sur la version 6.8 et y ajoute notamment les modifications PREEMPT_RT pour les architectures AMD64 et ARM64. Il contient également des optimisations pour le matériel Raspberry Pi.

« Avec des réponses limitées dans le temps pour les exigences de latence critiques, Real-time Ubuntu 24.04 LTS fournit un traitement déterministe aux charges de travail les plus exigeantes dans tous les secteurs, de la fabrication à l’automobile en passant par l’infrastructure critique des opérateurs télécoms », indique Canonical.

Si vous bénéficiez de l’abonnement Ubuntu Pro, il suffit d’exécuter une commande pour activer le nouveau noyau :

pro attach pro enable realtime-kernel

Si vous souhaitez l’activer sur un Raspberry Pi, il faudra ajouter « –variant=raspi » à cette même commande.

Notez que ce noyau est conçu pour des besoins spécifiques. Il n’est pas utile pour un usage standard.

☕️ Capsule Starliner de Boeing : décollage encore annulé, nouvelle tentative le 5 juin

On pourrait presque croire à un sketch tellement l’histoire se répète pour Boeing… Après des années de retard, la capsule s’arrime enfin à la Station spatiale internationale en mai 2022, non sans rencontrer quelques soucis sans gravité. La mission était quand même considérée comme un succès.

Après des retards pour des raisons diverses et variées, la capsule devait décoller avec deux humains à bord début mai. Cela n’a pas été le cas en « raison d’un problème de soupape sur l’étage supérieur du lanceur ».

Starliner de Boeing devrait (enfin) décoller ce soir, avec deux astronautes – Next

Mi-mai, une fuite d’hélium repoussait de nouveau la mission. Le lancement était ensuite prévu pour fin mai. Là encore, il n’a pas eu lieu. La cause ? « L’ordinateur au sol chargé de la séquence de lancement ne s’est pas chargé dans la bonne configuration opérationnelle après avoir procédé au décompte final ».

Dimanche, la machine responsable était retirée et démontée, puis « inspectée visuellement et remplacée par un châssis de rechange ». « Aucun signe de dommages physiques n’a été observé. Une analyse complète de la défaillance de l’unité de puissance sera effectuée pour mieux comprendre la cause profonde », ajoute Boeing.

Une nouvelle date est programmée : le 5 juin, avec une fenêtre également le 6 juin si besoin. La capsule Starliner doit pour rappel concurrencer Crew Dragon de SpaceX, qui est pour le moment la seule alternative au Soyouz russe.

L’Espagne bloque les fonctionnalités que Meta avait prévues pour les élections européennes

Cambridge analitiquoi ?
Les logos de Facebook et Meta dans des carrés en 3D sur un fond grisé dégradé

La CNIL espagnole vient de décider la suspension de l’implémentation sur son territoire des fonctionnalités prévues par Meta. L’entreprise voulait les ajouter à Instagram et Facebook à l’occasion des élections européennes pour « empêcher la collecte de données, le profilage des utilisateurs et le transfert d’informations à des tiers ».

L’Agencia Española de Protección de Datos (AEPD) annonce avoir décidé le blocage préventif de l’implémentation des fonctionnalités que Meta voulait intégrer à Facebook et Instagram pour les élections européennes.

L’entreprise de Mark Zuckerberg a prévu de lancer deux outils appelés « Election Day Information » (EDI) et Voter Information Unit (VIU). Et, selon l’autorité, Meta récupérerait et traiterait des données concernant l’utilisation de ces outils.

L’AEPD veut, par cette mesure, empêcher « la collecte de données, le profilage des utilisateurs et le transfert d’informations à des tiers, afin d’éviter que les données personnelles ne soient utilisées par des tiers inconnus et à des fins non explicites ». Cette interdiction aura une durée maximale de trois mois. Meta ne devrait donc pas pouvoir les mettre en place en Espagne lors du scrutin européen.

La CNIL espagnole considère que le traitement des données prévu par Meta implique une action contraire au RGPD. Au minimum, elle « violerait les principes de protection des données que sont la licéité, la minimisation, et la limitation du stockage ».

Selon l’agence, ces deux fonctionnalités traiteraient des données personnelles « telles que, entre autres, le nom de l’utilisateur, l’adresse IP, l’âge et le sexe ou des informations sur la manière dont l’utilisateur interagit avec ces fonctionnalités ».

Éviter un nouveau Cambridge Analytica

Pour l’autorité, cette récupération et ce stockage des données « mettraient gravement en péril les droits et libertés des utilisateurs d’Instagram et de Facebook, qui verraient augmenter le volume d’informations que Meta collecte à leur sujet, permettant un profilage plus complexe, détaillé et exhaustif, et générant un traitement plus intrusif ».

Elle ajoute que donner accès à ces informations à des acteurs tiers « entraînerait une ingérence disproportionnée dans les droits et libertés des personnes concernées ».

Si l’autorité ne le mentionne pas, cette peur qu’elle évoque rappelle l’utilisation des données de millions d’utilisateurs de Facebook lors du scandale de Cambridge Analytica.

Prévues dans toute l’Europe à l’exception de l’Italie

L’AEPD explique que Meta lui a indiqué vouloir lancer ces fonctionnalités pour tous les utilisateurs de ses services qui pourront voter aux élections européennes, « à l’exception de l’Italie, dont l’autorité de protection des données a déjà entamé une procédure à ce sujet ».

En effet, en septembre 2022, l’autorité italienne (GPDP) avait déjà mis en place une procédure contre Meta à propos des élections nationales. Elle y évoquait d’ailleurs plus explicitement le scandale Cambridge Analytica.

Interrogée par TechCrunch, Meta a répondu : « nos outils électoraux ont été expressément conçus pour respecter la vie privée des utilisateurs et se conformer au RGPD. Bien que nous ne soyons pas d’accord avec l’évaluation de l’AEPD, nous avons coopéré ».

☕️ Une version ChatGPT spéciale université

logo OpenAI dans l'obscurité

Dans un billet de blog, OpenAI annonce une offre de ChatGPT spéciale pour les universités, « ChatGPT Edu ».

Elle intègrera le modèle GPT-4o et son utilisation sera adaptée à ce que l’entreprise considère être les besoins des universitaires. OpenAI explique que ChatGPT Edu intègrera des « fonctionnalités avancées telles que l’analyse de données, la navigation sur le web et la synthèse de documents » et la possibilité de créer des versions adaptées du chatbot en les partageant au sein de l’université.

L’entreprise précise que les conversations et les données utilisées dans ChatGPT Edu ne seront pas utilisées pour entrainer les modèles d’OpenAI.

☕️ Twitch licencie tous les membres de son conseil consultatif de sécurité

Logo Twitch

Twitch a mis fin aux contrats de tous les membres de son Safety Advisory Council, selon des documents consultés par CNBC et confirmées par des sources bien informées.

Il a été créé en mai 2020 et était composé de neuf experts de l’industrie, de streamers et de modérateurs. Il était censé conseiller la plateforme sur les questions de confiance et de sécurité liées aux enfants sur Twitch, à la nudité, aux utilisateurs bannis, l’élaboration et les mises à jour des règlements, le développement de produits et de fonctionnalités pour améliorer la sécurité et la modération, la « valorisation des streams sains et de l’équilibre entre travail et vie privée », la « protection des intérêts des groupes marginalisés », ou encore « l’identification des nouvelles tendances qui peuvent affecter l’expérience Twitch ».

Le conseil n’était pas composé de personnes choisies en interne, souligne CNBC, mais de conseillers, dont Sameer Hinduja, codirecteur du Cyberbullying Research Center, Emma Llansó, directrice du Center for Democracy and Technology’s Free Expression Project, et T.L. Taylor, cofondateur et directeur d’AnyKey, qui milite en faveur de la diversité et de l’inclusion dans les jeux.

« À l’avenir, le conseil consultatif sur la sécurité sera principalement composé de personnes qui servent d’ambassadeurs Twitch », indique un e-mail, consulté par CNBC, qui a été adressé aux intéressés pour leur annoncer la résiliation de leurs contrats au 31 mai 2024.

Les ambassadeurs Twitch sont des utilisateurs de la plateforme de streaming « choisis spécifiquement pour l’impact positif qu’ils ont eu sur la communauté Twitch », selon le site web de l’entreprise.

La rémunération dépendait de la durée du contrat, mais les membres du conseil étaient jusque-là payés entre 10 000 et 20 000 dollars par an, selon une source.

La décision de Twitch de mettre fin à leurs contrats « intervient après plus d’un an de restrictions budgétaires et de licenciements dans l’industrie technologique, en particulier dans les équipes chargées de la sécurité et de l’éthique, que certaines entreprises considèrent comme des centres de coûts », note CNBC.

Il y a un an, Twitch avait ainsi déjà licencié une cinquantaine d’employés chargés de surveiller les comportements abusifs, illégaux ou nuisibles, déplorent des sources bien informées auprès de CNBC. L’équipe chargée de la confiance et de la sécurité a ainsi perdu environ 15 % de ses effectifs, « au moment même où la modération des contenus semblait plus importante que jamais » :

« Ces réductions interviennent à un moment où les cyberintimidations se multiplient, ce qui a été associé à des taux plus élevés d’automutilation chez les adolescents, et où la diffusion de fausses informations et de contenus violents se heurte à l’explosion de l’utilisation de l’intelligence artificielle. »

Un porte-parole de Twitch a déclaré que l’entreprise avait recruté « de nouveaux membres du conseil pour offrir des perspectives nouvelles et diversifiées », et précisé que l’entreprise comptait plus de 180 streamers dans son programme d’ambassadeurs : « avec ce nouveau format, nous serons en mesure d’attirer encore plus de voix et de points de vue ».

Twitch a par contre refusé de préciser si les ambassadeurs seraient rémunérés.

☕️ Threads lance son nouveau site web, calqué sur TweetDeck

Il y a quelques semaines, Threads annonçait commencer le test d’une nouvelle interface pour son site web. La capture alors révélée montrait clairement l’intention : proposer une interface façon TweetDeck, avec plusieurs colonnes.

Cette nouvelle version est en cours de déploiement dans tous les marchés où Threads est disponible, comme le confirme Adam Mosseri, le responsable d’Instagram.

La plus grosse fonction est bien sûr la possibilité d’épingler plusieurs colonnes, comme le permet TweetDeck (intégré dans les formules payantes de X) : on peut ainsi épingler des colonnes de mentions, de recherches, de recommandations et autres. Pour rappel, Threads n’intègre pas (encore ?) de messages directs, ces derniers étant reportés sur Instagram, dont Threads est une extension.

La nouvelle interface permet d’épingler jusqu’à 100 colonnes. Chacune peut être mise à jour manuellement ou automatiquement. Point intéressant – et pas nécessairement pensé ainsi par Instagram – la multiplication des colonnes permet d’expédier « Pour vous » sur la droite et de la remplacer par exemple par celle basée uniquement sur les comptes suivis. La colonne « Pour vous » ne peut pas être supprimée.

☕️ YouTube n’affiche plus son pénible économiseur d’écran sur Apple TV

Depuis plusieurs mois (voire un an aux États-Unis et d’autres pays), l’application YouTube pour Apple TV avait la fâcheuse habitude d’afficher ses propres économiseurs d’écran à la place de ceux fournis par Apple.

Là où l’Apple TV fournit de courtes séquences vidéo en 4k, YouTube affichait des images fixes, souvent tirées de la vidéo en cours ou des recommandations, basées sur l’activité. Problème, elles se substituaient à celles de l’Apple TV, empêchant l’appareil de passer en veille en cas d’inactivité.

Autre problème, aucune option ne permettait de désactiver cette fonction. La seule solution était d’abaisser le temps de déclenchement des économiseurs d’écran d’Apple à deux minutes, pour « court-circuiter » ceux de Google.

On ne sait pas exactement ce qui s’est passé, mais YouTube n’affiche plus ses images fixes. Comme le signale iGeneration, la disparition est notée par Joe Steel sur son blog. D’autres témoignages vont dans le même sens. Google ne s’est pas exprimée sur le sujet.

☕️ L’application Carte Vitale maintenant utilisable dans 23 départements

Depuis l’été 2023, l’application mobile Carte Vitale est proposée en test dans huit départements : Alpes-Maritimes, Bas-Rhin, Loire-Atlantique, Puy-de-Dôme, Rhône, Saône-et-Loire, Sarthe et Seine-Maritime.

Disponible sur Android et iOS, elle peut désormais être utilisée dans quinze départements supplémentaires : Ain, Allier, Alpes-de-Haute-Provence, Ardèche, Bouches-du-Rhône, Cantal, Drôme, Hautes-Alpes, Haute-Loire, Haute-Savoie, Isère, Loire, Savoie, Var et Vaucluse.

Comme le signalent nos confrères d’iGeneration, les conditions évoluent légèrement. Il faut toujours un smartphone sous Android 7 ou iOS 12 au moins, disposer d’une pièce d’identité en cours de validité et être affilié à un organisme de l’Assurance Maladie, de la MSA ou de la MGEN. Une condition supplémentaire a été ajoutée : avoir ouvert un compte ou un espace assuré sur le site de son organisme d’assurance maladie.

La dernière mouture de l’application est disponible depuis hier et corrige certains problèmes. iGeneration ajoute en revanche que la photo de profil reste extraite automatiquement de la vidéo utilisée pour la reconnaissance faciale et n’est donc « pas toujours flatteuse ».

En outre, l’application semble encore peu prise en charge par les médecins. La version Android permet de présenter sa carte Vitale par code QR ou NFC, quand celle pour iPhone doit se contenter du code QR, en tout cas pour l’instant.

☕️ La presse française s’inquiète d’une potentielle « gomme magique » dans Safari 18

Il y a un mois, AppleInsider indiquait que l’une des fonctions du prochain Safari 18 devrait être une « gomme magique ». Le fonctionnement en serait simple : effacer un ou plusieurs éléments sur une page web. La fonction permettrait également de retenir ces éléments et de ne plus les afficher lors des visites suivantes.

Selon Les Echos, la presse française s’en émeut particulièrement. L’Alliance Digitale, l’Udecam, le Geste, le SRI, l’Union des Marques et l’Apig ont envoyé une lettre à Tim Cook. Les médias demandent au patron d’Apple de renoncer purement et simplement à cette idée.

« Il est évident que cette fonctionnalité revient à intégrer par défaut un « ad blocker » dans le navigateur Safari afin d’y bloquer toute publicité pour une durée indéterminée », accusent-ils dans le courrier. Les médias rappellent que la publicité en ligne fait vivre « près de 9 000 sociétés et 100 000 professionnels ».

En France, Safari est utilisé par 26 % des internautes et peut donc avoir un impact significatif. D’autant que le monde de la presse a été marqué, comme beaucoup d’autres, par l’arrivée de l’App Tracking Transparency dans iOS 14.5. La conséquence principale était l’obligation de réclamer un consentement explicite au pistage publicitaire dans les applications.

Signalons quand même que les fonctions de type « gomme magique » existent depuis plusieurs années. Des applications et extensions, comme 1Blocker, s’en sont fait une spécialité sur iOS. Applications dont le succès risque de prendre un coup si Apple l’intègre bel et bien dans son prochain Safari.

Enfin, bien qu’il s’agisse d’une demande par courrier, les médias ont tenu à rappeler que ce type d’affaire a déjà été porté devant la Justice en France. La menace est donc à peine voilée.

Safari 18 sera présenté avec iOS 18 et macOS 15 dans deux semaines, lors de la WWDC.

Arm renouvelle ses cœurs CPU et GPU, la concurrence est féroce

Arm fatale
Arm

C’est la période de l’année où Arm présente ses nouveaux cœurs CPU et GPU, avec un changement de numérotation à la clé. Pas de Cortex-X5 mais un Cortex-X925 par exemple. Côté GPU, Arm aligne ses références sur celles des CPU et améliore les performances du Ray Tracing. Suffisant pour contrer la concurrence ? Réponse dans plusieurs mois.

Arm présente donc un nouveau cœur CPU : le Cortex-X925, nom de code Blackhawk, paré pour une gravure en 3 nm. Il vient se placer au-dessus du Cortex-X4 annoncé il y a tout juste un an. Il utilise évidemment l’architecture maison Armv9.2. Toute la documentation technique se trouve par là.

Après le Cortex-X4, voici le Cortex-X925

Le fabricant procède à des ajustements internes (voir tableau ci-dessous) et annonce évidemment une hausse des performances : jusqu’à 36 % en mono-thread sur Geekbench 6.2 « par rapport à un smartphone Android Premium de 2023 », et jusqu’à 46 % en IA par rapport au Cortex-X4. La fréquence du cœur Cortex-X925 peut monter jusqu’à 3,8 GHz et le cache L3 jusqu’à 3 Mo, toujours selon Arm.

Le Cortex-A725 vient remplacer le Cortex-A720

On descend d’un cran avec le Cortex-A725, évolution du Cortex-A720 avec une amélioration de « 35 % des performances énergétiques et de 25 % sur l’efficacité énergétique ». En performances brutes, le gain n’est « que » de 12 %.

Le constructeur annonce aussi une hausse de 20 % sur les performances de la mémoire cache L3. Le cache L2 peut être doublé pour atteindre 2 Mo sur le Cortex-A725. Là encore, l’architecture Armv9.2 est de la partie. La documentation technique se trouve par ici.

Un « refresh » du Cortex-A520

Enfin, le Cortex-A520 devient le « refreshed Cortex-A520 ». En gros, c’est le même cœur CPU, mais avec une amélioration des performances énergétiques de 15 %. Cette nouvelle version du Cortex-A520 exploite « une implémentation mise à jour » et le passage au 3 nm, comme les autres nouveaux cœurs CPU du jour. Pour les détails, on repassera.

Jusqu’à 14 cœurs ensemble, via le DSU-120

Pas de changement sur l’orchestrateur maison de l’ensemble des cœurs : on reste sur le DSU-120 (DynamIQ Shared Unit), présenté l’année dernière avec le Cortex-X4. Il peut gérer jusqu’à 14 cœurs (de trois types différents), avec un maximum de 32 Mo de cache L3. Comme le Cortex-A520, le DSU-120 profite d’un petit rafraichissement afin d’améliorer son efficacité énergétique. Sans plus de précision, si ce n’est la prise en charge d’une gravure en 3 nm.

Pour résumer, le plus gros changement concerne le Cortex-X925, à la fois sur les performances et le nom. On reste dans la gamme « X », mais les itérations (X1, X2, X3…) laissent place à un nom en phase avec les cœurs Cortex-A.

On a ainsi le Cortex-X925 et en dessous le Cortex-A725, puis le Cortex-A520 pour la basse consommation. Le « refresh » ne permettait visiblement pas de changer de nom pour passer à un Cortex-A525, à moins qu’il arrive dans un second temps.

Arm aura fort à faire avec une concurrence importante chez Apple par exemple, dont la puce M4 vient d’être annoncée. Mais le fabricant a déjà réussi son coup avec les précédentes versions M1 à M3. Qualcomm aussi veut sa part de marché et se lancer corps et âme avec ses Snapdragon X Plus et Elite, avec des cœurs maison Oryon. Quand le temps des benchmarks sera venu, nous pourrons en savoir davantage.

GPU : l’Immortalis-G925 succède à l’Immortalis-G720

Passons maintenant aux GPU avec les Immortalis-G925, Mali-G725 et Mali-G625. Après avoir lancé la 5ᵉ génération de GPU l’année dernière, il s’agit cette année de la… 2e génération des puces de 5ᵉ génération (l’équipe marketing ne semble toujours pas être revenue de vacances).

Nous avons donc droit à un nouveau GPU haut de gamme « Immortalis », avec Immortalis-G925. Remarquez là encore la proximité avec le Cortex-X925. Il en sera de même avec le Mali-G725 et le Cortex-A725.

ARM annonce évidemment de meilleures performances et, à performances équivalentes, une consommation en baisse par rapport à la génération précédente : « l’Immortalis-G925 offre des performances (fps) supérieures de 37 % à celles de l’Immortalis-G720. De plus, quand les performances sont comparables à celles de l’Immortalis-G720, l’Immortalis-G925 consomme 30 % d’énergie en moins ».

« Genshin Impact est 49 % plus performant, contre 46 % pour Roblox. D’autres jeux mobiles profitent d’améliorations des performances entre 29 à 72 %, notamment Call of Duty Mobile, Diablo Immortal, the Day After Tomorrow, Fortnite et PUBG Mobile ».

Entre 27 à 52 % de mieux en Ray Tracing

Comme c’était le cas précédemment, le Ray Tracing est la chasse gardée de la série Immortalis et donc du G925. Arm annonce « jusqu’à 52 % d’amélioration des performances ray tracing avec des objets complexes », mais en acceptant une baisse de la précision. Dans le cas contraire, les performances sont en hausse de 27 % et la consommation mémoire en baisse de 3 %.

Mais attention, les comparatifs précédents sont réalisés sur un GPU Immortalis-G925 avec 14 cœurs, contre un Immortalis-G720 avec 12 cœurs. L’Immortalis-G925 peut d’ailleurs varier dans des configurations de 10 à 24 cœurs, avec des performances du simple à plus du double suivant les cas.

Lors de la publication des benchmarks, il faudra donc être prudent et ne pas transposer simplement les résultats à un autre GPU Immortalis-G925 sans connaitre le nombre de cœurs. Malheureusement les constructeurs sont parfois assez timides à mettre ce genre d’informations, pourtant cruciales, en avant.

GPU Mali-G725 et Mali-G625 : de 1 à 9 cœurs

Si on descend d’un cran, le Mali-G725 exploite entre 6 et 9 cœurs. Il est « destiné aux téléphones mobiles haut de gamme » selon Arm. Ce dernier ajoute qu’il prend en charge la même API que l’Immortalis-G925. De son côté, le GPU Mali-G625 propose entre 1 et 5 cœurs. Il « cible les montres connectées et les appareils mobiles d’entrée de gamme ».

La balle est dans le camp des partenaires

Que ce soit côté CPU ou GPU, Arm annonce des améliorations pour l’intelligence artificielle. Il ne s’agit que de changements provenant des différents cœurs, pas d’une puce dédiée au traitement de l’IA (un NPU). Arm en propose dans sa gamme Ethos, dont le dernier représentant date d’avril 2024 avec l’Ethos-U85. Mais le fabricant ne brille pas spécialement par sa présence dans les SoC ou ses performances sur ce segment.

La balle est maintenant dans le camp des partenaires d’Arm, qui peuvent piocher dans ses différents cœurs CPU et/ou GPU afin de monter un SoC, et d’y ajouter une partie NPU s’ils le souhaitent. C’est ce que font des constructeurs comme MediaTek et Qualcomm pour ne citer qu’eux. Ce dernier a pris l’habitude d’utiliser son propre GPU Adreno (trop souvent sans plus de précision et c’est bien dommage).

☕️ Codestral : Mistral se lance dans le code généré par IA

Lundi 29 mai, MistralAI a présenté son premier grand modèle de langage, nommé Codestral et consacré à la génération de code informatique.

L’entreprise affirme avoir entrainé son modèle sur plus de 80 langages de programmation, dont les plus utilisés Python, Java, C, C++, JavaScript et Bash, mais aussi Swift et Fortran.

Mistral AI ne renvoie dans son billet de présentation vers aucune documentation technique et encore moins vers un article scientifique qui décrirait les détails de la confection du modèle, contrairement à d’autres comme IBM, par exemple, lors de la présentation de la famille Granite. Elle diffuse par contre dans son billet des extraits de « benchmarks » à son avantage.

La startup, qui jusqu’à l’annonce de son modèle Large vantait le modèle « open source », publie Codestral sur Hugging Face sous une nouvelle licence. Celle-ci ne permet pas d’utiliser le modèle en production, mais seulement à des fins de recherche ou de test.

Pour utiliser Codestral, il faudra donc forcément passer par les outils de Mistral. La startup propose quatre façons d’y accéder :

  • une API dédiée qui a notamment vocation à être utilisée dans un IDE en « Fill-In-the-Middle » ou en mode « instruction » (en bêta pendant 8 semaines et sur liste d’attente)
  • l’API « classique » de Mistral
  • le chatbot « Le Chat » de la startup
  • des plugins VSCode/JetBrains sur lesquels Mistral garde la main tout en coopérant avec les développeurs de Continue.dev et Tabnine

☕️ L’Europe se dote d’un Bureau de l’IA pour devenir une « référence mondiale »

La Commission européenne a annoncé hier la création d’un Bureau de l’IA. Il doit permettre « le développement, le déploiement et l’utilisation futurs de l’IA d’une manière qui favorise les avantages sociétaux et économiques ainsi que l’innovation, tout en atténuant les risques ».

Le Bureau doit employer plus de 140 personnes, réparties en plusieurs sections :  Réglementation et conformité, sécurité, excellence en IA et en robotique, « AI for Societal Good », et coordination des politiques.

Ses attributions seront nombreuses. Le Bureau devra ainsi stimuler la recherche, veiller au développement de modèles pensés pour le « bien commun » (modèles météos, diagnostics de santé, jumeaux numériques…), superviser l’exécution de la stratégie de l’UE, coordonner l’initiative GenAI4EU (adoption de l’IA générative dans des secteurs stratégiques), analyser et atténuer des risques systémiques, veiller à la mise en œuvre de l’AI Act, etc.

Le Bureau sera dirigé par une sorte de triumvirat composé d’un responsable, un conseiller scientifique principal ainsi qu’un conseiller pour les affaires internationales. Ces trois personnes n’ont pas été nommées. La structure collaborera avec les États membres et le Conseil européen de l’intelligence artificielle.

Sans surprise, le Bureau de l’IA aura également un rôle de conseil au sein de l’Union, pour y diffuser notamment les « meilleures pratiques ».

Le Bureau existera officiellement à partir du 16 juin. La première réunion aura lieu dans les deux semaines suivantes. Le Bureau publiera « des lignes directrices sur la définition des système d’IA et sur les interdictions, toutes deux prévues six mois après l’entrée en vigueur de l’AI Act », validé par le Parlement européen en mars.

☕️ Nouvelle-Calédonie : levée de l’interdiction de TikTok

Bloqué le 15 mai en Nouvelle-Calédonie, TikTok est de nouveau accessible partout en France, « pour faire suite à la fin des mesures d’états d’urgence sur le territoire », a annoncé le haut-commissariat de la République.

« Sans précédent » dans un État de droit, la mesure avait été mise en place au motif que le réseau social était très utilisé par les émeutiers et qu’il pouvait servir de support de désinformation. Attaquée au Conseil d’État par La ligue des droits de l’homme, la Quadrature du Net et trois habitants de Nouvelle-Calédonie, elle avait été maintenue.

Les plateformes X et Facebook, sur lesquelles des opérations de désinformation ont été constatées par Viginum, n’ont pas été suspendues.

JO 2024 : un Google Form « complètement pété » et c’est le drame

Form(idable)
Club France

Google Forms est un outil du géant du Net afin de créer et partager des formulaires et des enquêtes en ligne, puis d’analyser « les réponses en temps réel ». Si on ne fait pas attention, on peut aussi se retrouver avec une fuite de données sur les bras également en « temps réel ». Club France vient d’en faire les frais, une histoire qui rappelle l’importance de bien vérifier sa configuration.

Alors que les JO 2024 de Paris se préparent activement, notre confrère Adrien Lachet (20 minutes) vient de faire état d’une fuite de données sur un formulaire d’accréditations pour les médias. Il permet de demander un accès au Club France. Il s’agit du « lieu où tous les athlètes français médaillés seront célébrés », selon le site officiel.

Emails, téléphones, CNI… demandez le programme

« Le Google Form est complètement pété, on peut voir les réponses des autres journalistes et accéder aux données ! (numéro de téléphone, CNI, etc.) », explique-t-il, captures d’écran à l’appui. Son message a été mis en ligne à 11h48. Le formulaire a ensuite été supprimé à 12h30, toujours selon ses messages sur X.

Le formulaire affichait alors des données personnelles d’une trentaine de journalistes, avec des documents supplémentaires. Mais, heureusement, « les pièces jointes partagées étaient impossibles à récupérer, il fallait avoir un accès Drive supplémentaire, donc pas de panique de ce côté-là ! », ajoute notre confrère.

Amis journalistes attention ! !

Si vous faites des demandes d'accréditations médias au Club France pour les JO 2024, le Google Form est complètement pété, on peut voir les réponses des autres journalistes et accéder aux données ! (numéro de téléphone, CNI, etc.) pic.twitter.com/AOelRiMLcJ

— Adrien Lct (@AdLachet) May 28, 2024

Problème technique vs problème de configuration

Peu après 15h, le compte officiel FranceOlympique répond que « le problème technique a été résolu » et s’excuse « pour la gêne occasionnée ». Aucune explication n’est donnée sur les causes de cet « incident technique », qui ressemble bien plus à un problème de configuration.

En effet, quand on crée un formulaire, il y a une option importante dans les paramètres du formulaire : « Afficher un résumé des résultats. Partagez le résumé des résultats avec les personnes interrogées ». Si elle est activée, un lien est proposé après avoir répondu afin d’« afficher les réponses précédentes ».

Dans le cas contraire, un message indique que « le résumé des réponses à ce formulaire n’a pas été publié ». C’est d’ailleurs le message renvoyé par le formulaire actuel. Dans ce genre de cas, il ne s’agit pas d’une faille de Google Forms, mais bien d’un problème de l’interface entre la chaise et le clavier.

Ce n’est pas la première fois que la question des risques liés à la configuration est soulevée pour Google Forms. On est gentil, on ne parle même pas des questions de souveraineté que soulève l’utilisation d’outils Google dans ce genre de situation.

Que le problème vienne ou non de ce paramètre, il s’agit très certainement d’un problème de configuration (et non d’un problème technique, comme indiqué sur X). Cette histoire rappelle, une fois de plus, l’importance de bien vérifier une configuration avant de publier quoi que ce soit sur Internet. Et n’allez pas croire que cela n’arrive qu’aux autres.

Un cas non isolé : vérifiez vos configurations !

On se souvient par exemple des questions de visibilité des conversations dans Google Groups. Pas toujours comprises par les créateurs, elles peuvent entrainer des fuites d’informations personnelles. On peut également citer des milliers de bases de données MongoDB ouvertes aux quatre vents. Là encore, une configuration des plus douteuses en est la cause.

Les exemples sont probablement nombreux, faites-nous part de vos expériences dans les commentaires.

OpenAI : un nouveau comité de sécurité pour tenter de rassurer

logo OpenAI dans l'obscurité

OpenAI annonce la création d’un nouveau comité de sécurité. L’entreprise de Sam Altman a vu la semaine dernière son équipe chargée de contrôler les IA s’autodétruire. Elle veut rassurer alors que GPT-5 est en cours d’entrainement. L’ancienne membre du CA de l’entreprise, Helen Toner, explique la tentative de licenciement de Sam Altman par le fait qu’il aurait donné des informations inexactes sur le processus de sécurité.

Lundi, OpenAI a publié un billet de blog pour indiquer la création d’un comité de « sécurité et de sûreté » en son sein. Il sera « responsable de la formulation de recommandations à l’ensemble du conseil d’administration sur les décisions critiques en matière de sûreté et de sécurité pour les projets et les opérations de l’OpenAI ».

Mais l’annonce semble plus être un contre-feu après l’autodestruction de son équipe chargée de contrôler les IA et de préparer l’éventuel avènement d’une intelligence artificielle générale (AGI).

Sam Altman et Bret Taylor membres du comité

Le nouveau comité est composé du président Bret Taylor, du CEO Sam Altman, de l’ancienne présidente de Sony US et toute récente membre du conseil d’administration d’OpenAI Nicole Seligman et d’Adam D’Angelo, lui aussi membre du CA de l’entreprise. Ce dernier est le seul « survivant » du CA qui avait voté pour le départ de Sam Altman en novembre dernier, lors de la semaine de folie qu’a vécu l’entreprise à l’époque.

Cette sorte de CA restreint devra faire des recommandations à l’ensemble du conseil sur les décisions clés en matière de sûreté et de sécurité pour les projets d’OpenAI.

On parle ici de la soi-disant menace d’une éventuelle AGI et, comme le dit Ars Technica, du maintenant classique « nous ne laisserons pas l’IA se comporter comme une menace et prendre le contrôle du monde ». Mais OpenAI présente aussi ce comité comme la prise en compte de thématiques plus vastes concernant la sécurité de ses modèles, les possibilités de « jailbreaks », les mauvaises utilisations en général et la protection des enfants et des élections en particulier, thèmes abordés par l’entreprise à l’AI Seoul Summit la semaine dernière.

Ils seront épaulés par plusieurs experts de l’entreprise : Aleksander Madry, Lilian Weng, John Schulman, Matt Knight et Jakub Pachocki.

Ces cinq employés d’OpenAI sont présentés comme responsables de sujets qui ont pourtant l’air de se recouper. Ils sont, respectivement, responsable de la vigilance (en vo « head of Preparedness »), responsable des systèmes de sécurité, responsable de la science de l’alignement (« Alignment Science »), responsable de la sécurité et responsable scientifique.

OpenAI promet que le comité proposera au CA des recommandations d’ici trois mois. Celles-ci seront rendues publiques une fois adoptées par le conseil.

La nouvelle équipe semble beaucoup moins préoccupée par l’avènement d’une AGI que l’ancienne équipe chargée de contrôler les IA. Et OpenAI ne communique plus sur aucun moyen technique qui lui serait dédié. Rappelons qu’elle n’avait pas donné à l’ancienne équipe accès aux capacités de calculs promises à l’époque.

À propos de l’ancienne équipe, Jan Leike vient d’annoncer avoir rejoint Anthropic, la startup rivale d’OpenAI fondée par d’anciens employés de l’entreprise.

Dans le billet de blog d’OpenAI, l’entreprise explique aussi avoir commencé l’entrainement de son prochain modèle qui succédera à GPT-4. Sans pouvoir donner aucun élément probant. Et pour cause, l’entreprise « anticipe que les systèmes qui en résulteront nous mèneront un pas plus loin vers l’AGI ».

Le processus de sécurité d’OpenAI déjà en question en novembre dernier

De son côté, la chercheuse australienne et ancienne membre du CA d’OpenAI, Helen Toner, s’explique dans le Podcast TED AI Show à propos de la tentative de licenciement de Sam Altman en novembre dernier.

Selon elle, comme l’a relevé The Verge, le conseil d’administration a arrêté d’avoir confiance dans le CEO d’OpenAI quand il s’est rendu compte que Sam Altman possédait le fonds « OpenAI Startup », mais aussi parce qu’il avait fourni des informations inexactes sur le processus de sécurité de l’entreprise « à de multiples occasions ».

Elle y explique aussi que le CA a appris le lancement de ChatGPT sur Twitter, comme tout le monde.

☕️ Rachat de La Poste Mobile : des « divergences » entre SFR et La Poste

C’est via un communiqué que Bouygues Telecom annonce « avoir été informé par SFR et La Poste de divergences qui les opposent s’agissant des modalités de réalisation de l’opération ». La teneur des divergences n’est pas précisée.

Cela conduit par contre La Poste « à mettre en œuvre les mécanismes de résolution des différends prévus par leurs accords ». Il est simplement précisé qu’un « impact sur le calendrier de réalisation de l’opération » est possible.

Le « protocole d’exclusivité » pour racheter La Poste Telecom avait été signé par Bouygues Telecom il y a trois mois seulement, au mois de février. Il était alors question de récupérer 100 % du capital de La Poste Telecom, « 1ᵉʳ opérateur virtuel du marché français (détenue à date à 51 % par le groupe La Poste et à 49 % par SFR) ».

Il était aussi question de changer de crémerie, les clients La Poste Mobile : « la période d’exclusivité du contrat « wholesale » de SFR s’achevant fin 2026, les clients Mobile de la Poste Mobile seront migrés vers le réseau radio de Bouygues Telecom ».

Cette annonce intervient le lendemain de l’annonce par SFR de son bilan du premier trimestre 2024, avec des pertes sur les revenus et une baisse de plus de 500 000 clients sur le fixe et le mobile. La marque au carré rouge doit aussi faire face à une dette de 24 milliards d’euros et au mécontentement des prêteurs.

Pour rappel, Bouygues Telecom a finalisé le rachat d’Euro Information Telecom (Crédit Mutuel Mobile, CIC Mobile, NRJ Mobile, Auchan Télécom et CDiscount Mobile) en 2021.

❌