Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierMiniMachines.net

GPT-4o montre tout le ridicule des assistants personnels IA

14 mai 2024 à 11:18

Minimachines.net en partenariat avec TopAchat.com

L’assistant Chat GPT-4o a été présenté hier au travers de vidéos assez étonnantes montrant a quel point cette IA avait progressé en spontanéité, en fluidité et en capacités. Si sur le fond l’objet ne change pas ses réponses qui restent ce qu’elles sont, les possibilités qu’offrent cette évolution enterrent les propositions de Humane et Rabbit.

L’interactivité et la fluidité sont les maitres mots de l’évolution proposée par GPT-4o. On retrouve un temps de latence très très faible qui, si il n’est pas au niveau d’un humain, rappelle celui fantasmé d’un « ordinateur central » comme dans les film de science fiction. Avec une latence de 320 millisecondes en moyenne, on est plus dans un dialogue classique que dans l’attente pénible proposée par les interactions habituelles des IA. Le fait de pouvoir prononcer des phrases longues, voir très longues est également un point très positif dans l’interaction.

Les usages possibles sont assez étonnants. On peut poser des questions à l’IA, l’interrompre, orienter ses réponses en temps réel ou lui demander de changer la manière de les exprimer. Il est également possible de demander de prendre en compte plusieurs médiums en même temps. Vos questions à l’oral mais aussi les éléments qui vous entourent grâce à la webcam de son smartphone. L’exemple de la vidéo ci-dessus qui montre comment le dispositif permet de de résoudre une équation écrite est assez parlant.

Une pelletée de terre sur le cercueil de Humane et Rabbit

Humane lançait en avril son AI Pin avec des retours catastrophiques sur ses possibilités réelles. En mai c’était au tour du Rabbit R1 de se faire étriller. Lents, peu pratiques, souvent dans l’erreur, les deux produits présentés comme des assistants IA se sont révélés être surtout des accessoires onéreux et pénibles. Mais avec la présentation de OpenAI ils se révèlent finalement comme totalement dépassés. Dans la vidéo ci-dessus une personne malvoyante peut écouter son smartphone lui décrire son environnement ou lui indiquer quand un taxi passe devant lui pour qu’il puisse lui faire signe. Des fonctions réellement utiles.

Les interactions proposées par les appareils de Humane et Rabbit sont trop lentes et monotones, elles ne sont pas adaptées à un usage au quotidien. Leur sortie rapprochée alors qu’elles n’étaient clairement pas finalisées montre a quel point les deux sociétés étaient conscientes que leur fenêtre de tir était faible pour avoir droit à une commercialisation. Qui va vouloir acheter un de ces gadget aujourd’hui après avoir vu les démos de GPT-4o sur smartphone ? Il suffira de prendre un abonnement à 20$ par mois chez OpenAI pour l’exploiter avec le materiel qu’on a déjà dans la poche. Un matériel qui voit mieux avec des capteurs photo des gadgets comme le Rabbit R1 ou l’AI Pin. Des appareils qui permettent surtout plus d’interactions et qui ne nécessitent pas d’abonnement 4G ou 5G supplémentaire.

Dire que Humane et Rabbit n’ont plus que quelques mois à vivre ne me parait pas exagéré. Dès que l’offre d’Open AI sera commercialisée sur mobile, ces outils vont disparaitre et l’IA sera intégrée dans le smartphone, comme tout le reste. 

Des questions pour le futur

Beaucoup de métiers seront affectés par l’arrivée de ces IA, ce serait se voiler la face que de ne pas le reconnaitre. Les fonctions de traduction automatique ou d’apprentissage proposées par ces services seront sans doute assez pertinentes pour remplacer de nombreux salariés. J’imagine très bien la visite d’un lieu touristique ou d’un bâtiment être proposé par une IA d’ici quelques temps, dans toutes les langues et à toutes les heures sans avoir besoin de passer par un guide. Il suffira de pointer sa caméra vers un détail pour avoir des explications détaillées et les liens afférents. Le tout commenté à vois haute par une IA aux connaissances encyclopédiques.

Même chose pour les heures de cours d’un prof de math ou de français, si le smartphone peut lire et expliquer les règles de calcul ou de grammaire en scannant votre copie, je ne donne pas cher de ces petits boulots à terme. Mais on peut imaginer beaucoup d’autres emplois de ce type qui seront petit à petit remplacés par des IA de ce genre. Des téléconseillers évidemment mais également des IA qui prendront vos commandes dans des restaurants ou autres. Certains n’ont d’ailleurs pas attendu GPT-4o pour déployer ce genre de technologie et il existe déjà des Drive-In qui proposent de prendre vos commandes de repas grâce à ce type d’Intelligence Artificielle. 

En intégrant cette IA à un smartphone, c’est out un univers qui s’offre à l’utilisateur. Celui d’une connaissance très large des éléments qui l’entourent, d’une traduction automatique de différentes langues, d’une connaissance théorique très pointue sur énormément de sujets. Avec le risque de voir l’effet « calculatrice » se répandre à d’autres fonctions. Difficile de trouver des gens capables de faire des opérations simples sans sortir la calculette intégrée à son smartphone. Calculer un volume, un diamètre ou des pourcentages sur le papier parait bien barbare aujourd’hui. Pire, en interrogeant des utilisateurs qui ont toujours connu la calculatrice a portée de main, ils n’ont absolument pas confiance en leur résultat et vérifient toujours sur une calculatrice leurs propres opérations. Ce type de dépendance à l’outil pourrait bien s’étaler vers d’autres segments comme la grammaire, l’orthographe ou la traduction avec ce type d’IA. 

Dans les collèges et les lycées, l’emploi de l’IA pour vérifier le travail réalisé, corriger son orthographe ou trouver une tournure de langue lors d’une traduction est déjà commun. Certains travaillent déjà à 100% avec elle et font leurs devoirs en trois clics et deux copiés-collés. Avec une implantation dans les smartphones ce genre de pratique devrait être de plus en plus courante. Le problème est que si une entreprise ou un lycéen devient « meilleur » avec une IA de ce type à portée de smartphone, tout le monde devra vite se mettre au niveau. On n’imagine pas un lycéen aujourd’hui arriver en cours de mathématique sans une calculatrice programmable, elles sont mêmes demandées par les profs. Est-ce que les profs de langue ou de français demanderont d’avoir un correcteur IA en cours dans quelques années ? Est-ce qu’une personne bilingue en anglais et avec des notions d’allemand pourra se passer d’un abonnement IA pour compléter ses lacunes ? Sera t-il un jour plus pertinent d’ajouter à son CV que l’on est équipé d’un smartphone avec OpenAI que le détenteur d’un Permis B ?

Dernier questionnement, l’impact écologique de cette évolution des usages. Ces aller retour incessants de données, les calculs nécessaires à l’entrainement de ces IA. Tout  cela aura sans doute un coût énergétique très important à moyen et long terme. Si toute la planète est équipée de ce type d’outil, cela pourrait avoir des conséquences importantes.

GPT-4o montre tout le ridicule des assistants personnels IA © MiniMachines.net. 2024.

Intel définit en détail ce qu’est un « AI PC » (pour eux)

28 mars 2024 à 07:32

Minimachines.net en partenariat avec TopAchat.com

La première phase du plan d’Intel pour les AI PC a été lancée en octobre auprès des développeurs puis présentée au grand public en décembre avec le lancement des puces Meteor Lake d’un côté et les  ambitions du fondeur de l’autre. De son côté Microsoft a dès le mois de janvier établi les éléments de son développement de l’Intelligence Artificielle au sein de Windows avec Copilot.

Mais tout cela reste assez flou, assez vague dans son approche comme de ses définitions. Savoir que son processeur est capable de piloter une IA c’est une chose, mais connaitre quel usage aura cette IA et donc quel curseur on aura besoin de surveiller pour savoir le niveau de performances correspondant à ses besoins en est une autre. Aujourd’hui, on sait à peu prêt de combien de mémoire vive ou de stockage on a besoin selon que l’ont veuille faire du traitement de texte ou de la conception 3D. Mais de combien de TOPS – l’unité de capacité de calcul en IA – aura t-on véritablement besoin dans quelques années pour faire tourner des IA sur son PC ? Qui le sait vraiment ? Qui sait même à quoi tout cela pourra t-il lui servir ?

Intel a donc annoncé le lancement d’un nouveau programme de développement pour attirer de nouveaux acteurs dans la course à l’IA. Des petites structures comme des indépendants tentés par l’exploitation de ces nouveautés pour élaborer de nouveaux logiciels. Le fondeur annonce en parallèle un programme pensé pour les fabricants de matériel souhaitant tirer, eux aussi, parti de ces fonctionnalités avec leurs produits.

Pour définir une base de travail afin d’estimer les compétences réelles des machines, un élément sur lequel bâtir une IA locale, il faut un étalon. Les AI PC sont là pour proposer cette unité de mesure chez Intel. Si un développeur veut se pencher sur une IA spécifique il peut prendre comme échelle les machines estampillées AI PC afin de déterminer la capacité de calcul qui lui sera nécessaire pour faire fonctionner ces algorithmes. Il ne sert à rien de proposer un outil local inexploitable, qui exigerait un matériel hors de prix, cela ne génèrerait aucune vente1

De la même manière si vous voulez proposer des outils matériels s’appuyant sur des IA, il faut pouvoir contrôler la demande en ressources disponibles. Une webcam qui rajoute des effets en temps réel ou fait de la reconnaissance d’objets. Un micro qui profite du NPU pour assourdir votre environnement sonore. Un dispositif USB capable de reconnaitre des odeurs ou autres. Tout cela a besoin d’une échelle pour se lancer sur un marché large non réservé à des machines spécialisées. Il  ne sert à rien de lancer un outil génial qui vous place automatiquement dans les meilleures conditions possibles pour télétravailler en vidéo si la machine nécessaire pour son usage n’existe pas sur le marché.

Le hard examinant le soft ou… l’inverse.

Ce que propose Intel avec ces AI PC c’est donc de définir cette mesure en se basant sur… ses propres puces. Il s’agit bien entendu d’une proposition commerciale qui, en tant que poule, tente d’inventer l’œuf dont elle à besoin. Les produits sont là, sur les étagères d’Intel avec les puces Meteor Lake et leur NPU intégré. Ce qu’il manque ce sont les outils logiciels et matériels capables d’en tirer parti. Cela ne veut pas dire qu’un engin sous processeur AMD ne pourra pas faire aussi bien pour autant. Ce que tente de faire Intel c’est de proposer une norme comme avec Centrino, Thunderbolt ou Ultrabook. Quelque chose d’assez puissant pour que les industriels et développeurs réagissent en sortant des produits dépendants des processeurs Core.

Intel prévoit de livrer environ 100 millions de PC avec un NPU d’ici la fin de 2025. Rien d’extraordinaire devant ce chiffre, cela correspond à peu près aux expéditions globales de machines avec des puces de dernières générations chez Intel sur 2 ans. Pour cela, le fondeur peut compter sur ses nombreux partenaires et sur un panel d’environ 300 applications prenant en charge les IA anticipé d’ici la fin de l’année 2024. Un bouillon de culture sur lequel il compte donc beaucoup.

La marque qui s’identifiera comme celle la plus capable de répondre à la problématique IA sera la grande gagnante de des années a venir.

Peu importe que vous ayez besoin ou non d’un NPU, que vous comptiez utiliser l’IA ou non, l’étau marketing pour mettre en avant le principe de son usage se resserre de jour en jour. Les particuliers sont confrontés à l’apparition de nouveaux termes. Les PME sont interrogées sur leur rapport à ces nouvelles technologies et l’ensemble du marché n’a plus que ce mot clé à la bouche. Il est urgent pour chaque constructeur de créer un signe fort autour d’un concept d’Intelligence Artificielle pour attirer les regards. Pour Intel, qui dispose d’une force médiatique conséquente, cela passe par la définition de ces « AI PC ».

Il n’ y a aucune raison qu’une machine Intel soit plus dédiée à l’IA qu’une machine exploitant un processeur AMD, Apple, ou même une puce Qualcomm. Toutes ces entreprises ont ou préparent une solution en ce sens. Mais là où Intel mène la danse c’est en inventant un terme générique et en le présentant au monde. Pour cela, le fondeur s’appuie sur son partenaire de toujours qu’est Microsoft. Le fameux couple « Wintel » qui a déjà remporté tant de batailles aussi bien marketing que technologiques.

Avec Copilot, Microsoft s’offre une touche de publicité

Dans sa logique, Intel indique qu’un AI PC est une machine sous Windows, qu’elle doit proposer un processeur, un circuit graphique et bien entendu un NPU dédié aux calculs d’IA. Cet ensemble doit prendre en charge Copilot, l’IA connectée de Microsoft. Ce tapis rouge déployé sous les pieds de l’éditeur de Windows oblige ce dernier à un retour diplomatique. Pour obtenir l’agrément Copilot de Microsoft et la touche dédiée sur les claviers des machines certifiées, on pourra évidemment employer toute la gamme de puces Meteor Lake d’Intel. 

Cette alliance a du bon pour les marques. Le grand jeu de toutes ces normes « AI PC » et Copilot » étant de flécher un parcours lisible pour le grand public. L’idée est de voir des logiciels estampillés « AI PC » ou des applications « Copilot compatibles » et de pouvoir retrouver ces logos sur des machines en rayon de supermarché ou sur des listings en ligne. L’acheteur lambda verra que la mise à jour de son logiciel de montage vidéo ou de son jeu préféré héritera d’une compatibilité de ce type et cherchera le jour de son nouvel achat un engin avec ces références. Ce fléchage assurera à Intel et Microsoft des ventes de machines plus aisées.

Imaginez un logiciel de retouche photo capable de répondre à vos questions comme « Comment améliorer les contrastes ? » avec une interface Copilot intégrée qui pourrait non seulement vous expliquer la procédure à suivre mais également vous proposer des exemples ou modifier votre image à votre place. C’est en quelque sorte le pari d’un support des IA en local que de fournir de plus en plus d’applications entrainées et adaptées à leur usage.  Si le Copilot de Windows est un système de Chat toujours dépendant d’une connexion au réseau internet, rien n’empêche un éditeur de logiciel de proposer une IA locale déjà entrainée pour répondre à ses sujets via son interface. Mâcher consciencieusement et précisément le travail que représente la fameuse lecture du manuel en le traduisant dans une interface plus digeste.

Cette définition d’un AI PC se fait donc de manière assez simple. Ces machines disposent de trois solutions de calcul (processeur, circuit graphique et NPU) proposant chacune une accélération des IA  sur un champ spécifique. Pour Intel, la capacité de jongler entre ces diverses unités pour maximiser la performance est un point important. Le NPU excellera dans son approche basse consommation pour des usages très courants comme les travaux de gestion d’image, de son ou de vidéo. Sans besoin d’être connectée en permanence au réseau, une puce de ce type pourra reconnaitre, par exemple, toutes les photos contenant tel ou tel  type d’objet et vous les présenter. Cela évitera de décharger la batterie en se connectant à un serveur dans le cloud pour effectuer la même opération après y avoir chargé vos précieux clichés…

Cette fonction de base assurée par le NPU permettra également au processeur et au circuit graphique de ne pas prendre en charge ce type de calcul sur lequel il sont moins pertinents. Les tâches les plus gourmandes en IA pourront s’appuyer sur ces derniers éléments à plein régime. Et, au besoin, le NPU et le GPU pourront travailler de concert pour accélérer certains calculs.

Autre point clé pour l’attribution d’un petit label « AI PC », la disponibilité minimum de 16 Go de mémoire vive. Une porte déjà largement ouverte par le marché mais, on l’a vu récemment, celle des engins en 8 Go par défaut n’est pas encore tout à fait refermée. Dernier coupable en date ? Bizarrement il s’agit de Microsoft qui a présenté des produits Surface qui débutaient avec 8 Go de RAM seulement. Il faut dire que de son côté Microsoft n’a pas encore défini ce poste précis. Le risque étant d’impacter le prix des machines de manière trop importante. Imposer un minimum de 16 Go pour être Copilot compatible aurait un impact probablement trop important. Notamment pour le monde des entreprises, premiers acteurs visés par ces campagnes. Mais, si le manque de mémoire se révèle être un véritable handicap pour l’exploitation de son IA sous Windows, il est possible que Microsoft se décide de véritablement tirer enfin un trait sur les engins avec 8 Go de mémoire vive seulement.

Cette dissension d’avis entre Intel et Microsoft sur les minimums requis pour être une vrai PC compatible Intelligence Artificielle n’est pas la seule étrangeté de cette annonce. Copilot est déjà distribué sur les dernières mises à jour  de Windows 11 et cela même sur des machines n’ayant aucun NPU à bord. Des engins équipés de puces Intel ou AMD, de « vieilles » machines qui ont téléchargé le fameux Chatbot de Microsoft sont donc des PC Copilot mais pas forcément des AI PC selon les critères d’Intel. Et on comprend bien qu’il s’agit avant tout d’un souci de calendrier et que le discours devrait rejoindre les faits… dans le futur.

Il reste énormément à faire pour que la sauce à l’IA prenne.

Si les AI PC sont une évidence pour Microsoft et Intel, ainsi que pour d’autres acteurs de ce marché, le chemin sera encore très long pour que ces usages entrent dans les mœurs. Le problème vient bien des usages puisque pour le moment, mis à part tailler le bout de gras avec Copilot via un serveur dans les nuages, l’usage sous Windows n’est pas  évident. Tout le monde n’a pas les capacités techniques nécessaires pour installer une IA générative d’images. Les outils restent encore mystérieux et flous dans leur intérêt et surtout le marché n’a pas développé des programmes aussi pratiques que ce que proposent les services en ligne. Autant donc passer par un ChatGPT ou un Midjourney pour ce type d’exploitation.

Si les premières réponses seront probablement des solutions textuelles pour aider l’utilisateur à rédiger des documents ou à mâcher le travail de réponse à un email. Le grand public comme les professionnels balbutient encore beaucoup quand on leur demande leur avis sur leurs éventuels usages. On sait que le monde du jeu va s’emparer des IA pour générer des dialogues plus touffus et des personnalités plus consistantes. Nvidia a présenté des solutions dans ce sens et on peut imaginer des jeux s’appuyant sur des modèles de langages pilotés par NPU avec de la synthèse vocale assez facilement. D’autres éléments comme de l’aide à la programmation, de la correction syntaxique en plus des habituelles surveillances orthographiques et grammaticales sont également évidents.

Mais d’autres fonctions pourront débarquer avec des conséquences plus directes sur les performances des machines : une gestion de la spatialisation du son, une amélioration des rendus de vidéo conférence, la  gestion plus fine des relevés biométriques pour des raisons de sécurité. La détection de la lecture de vos documents par un tiers au dessus de votre épaule ou une demande d’identification supplémentaire si le système ne reconnait pas vos comportements habituels. Des éléments encore plus techniques comme l’adaptation de l’affichage en gérant très finement les rafraichissements d’écran en temps réel pour améliorer l’autonomie. En équilibrant ces types de calculs et surtout en les déportant vers le NPU – comme la gestion de la vidéo conférence par exemple – la consommation pourrait largement baisser nous dit Intel. La prise de notes avec reconnaissance vocale comme la transcription automatique d’enregistrements,  la reconnaissance d’écriture ou l’OCR vont bénéficier de ces évolutions tout en ne consommant plus que quelques watts en sourdine, sous les radars, via une exploitation des fonctions du NPU. Mais pour que le public s’intéresse vraiment à ces nouveaux usages il faut qu’il soit possible de les essayer, de les tester et de les… trouver.

C’est là que le rapprochement « Wintel » prend tout son sens. Microsoft va servir de passerelle diplomatique entre l’utilisateur, les outils et le matériel. Les éditeurs vont s’appuyer sur ce que propose l’éditeur avec Windows pour dialoguer avec les différents éléments technioques. Cela va faciliter leur travail et, peut être, apporter rapidement des outils aux utilisateurs.

C’est la dernière facette de ce rapprochement hard et soft. Intel va proposer aux éditeurs de logiciels intéressés par son programme des Kits de développement matériel et logiciel. Il s’agit au passage d’une suite logique dans l’approche du fondeur puisque les machines proposées avec ce kits ne seront rien d’autres que des MiniPC NUC. Cet AI PC Development Kit sera constitué d’un ASUS NUC 14 Pro sous Core Ultra sous Windows et blindé des applications nécessaires à la programmation des différents éléments de l’équation Intel : CPU, GPU et NPU. Avec ces engins qui délivreront au total jusqu’à 65 TOPs de puissance de calcul, dont 11 rien que pour le NPU, les éditeurs pourront développer leurs outils et tester des scénarios d’usages cohérents avec ce qui sera présent dans les futures machines de 2024 et 2025.

Une norme AI PC en évolution

Comme pour la norme Ultrabook par le passé, poussée par Intel, celle-ci n’est pas figée. Et si pour le moment le fondeur estime que son NPU intégré dans les puces Meteor Lake est suffisant pour satisfaire la norme, celui-ci devra évoluer dans le futur. La « Next-Gen » de ces machines devra ainsi être capable de développer 40 TOPS uniquement grâce au NPU. Vous aurez immédiatement compris l’astuce présentée ici. Ce chiffre doit correspondre exactement à ce que proposeront les futurs processeurs d’Intel. La marque s’assurant ainsi de faire correspondre les « besoins » du marché à son offre en définissant aussi bien l’un que l’autre.

 

AiPC : le futur du monde PC passera par l’Intelligence Artificielle

Intel définit en détail ce qu’est un « AI PC » (pour eux) © MiniMachines.net. 2024.

❌
❌