Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Mauvaise nouvelle pour Apple et Meta : les adolescents s'ennuient avec les casques de réalité virtuelle. De nombreux jeunes n'utilisent pas les casques RV qu'ils possèdent, selon une enquête de Piper Sandler

22 avril 2024 à 09:02
Ça y est on peut passer à autre chose ?
Un peu raz-le-bol des hypes à répétition. On sait que le Metavers de Facebook est crouté, les casques VR c'était logique : ça n'est pas l'avenir d'internet.
Ça reste un beau joujou technologique qui aura sans aucun doute des utilisations très utiles et sympa dans certaines niches, mais c'est tout.
(Oui bien sûr, le geek en mois rêverait de pouvoir jouer à toute ma ludothèque en VR, mais ça reste un rêve...)
(Permalink)

L’informatique sans écran

Lors d’un Noël de ma tendre jeunesse pré-adolescente est arrivé un « ordinateur » dans le foyer. Ce PC (Intel 386) a été installé dans le bureau et a vite dégénéré en console de jeux. Puis les années passant c’est devenu une formidable source d’expérimentation informatique pour un geek en devenir. À cette époque on sensibilisait la jeunesse à ne pas passer trop de temps devant la télévision et la console de jeux, puis devant l’ordinateur et les jeux vidéo violents. Mais on ne parlait pas vraiment de l’écran.

Aujourd’hui les messages de sensibilisation se résument aux écrans :

  • « pas d’écran avant trois ans »
  • « nos jeunes passent leurs temps sur leurs écrans » (comme si les « vieux » n’y étaient pas non plus)
  • « attention les écrans fabriquent une génération de crétins »
  • « les écrans, les écrans, les écrans…»

Il est vrai qu’aujourd’hui l’informatique ne se résume presque plus qu’à un écran. De l’ordinateur avec clavier+souris+écran, voire crayon optique, on est passé aux tablettes et ordiphones qui n’ont plus que l’écran (tactile quand même).

Pour prendre le contre-pied de cette obsession des écrans, je me demandais donc s’il existait encore une informatique « sans écran ». La formidable multiplicité des activités que l’on peut avoir sur un ordinateur pourrait-elle se faire sans écran ? Dans quelle mesure peut-on coder, surfer sur le web, lire/envoyer des mails sans écran ? Cette informatique fantasmée par notre ex-ministre de l’éducation est elle une réalité ?

    Sommaire

    L’informatique, une histoire d’abord sans écran

    Si l’on date la naissance de l’ère de l’informatique avec Ada Lovelace, et qu’on estime l’arrivée des ordinateurs avec écrans à la fin des années 1970, alors on peut aisément dire que l’informatique a été plus longtemps sans écran qu’avec.

    Peinture d’Ada LovelaceMalgré son look cosplay de manga elle n’a pas subi trop d’écrans dans son enfance, elle.

    De même, il est raisonnable de considérer l’ordinateur comme l’outil principal pour faire de l’informatique. Il fut largement sans écran à ses débuts.

    Ken Thompson (assis) et Dennis Ritchie (debout) manipulant un DEC PDP-11
    Pas d’écran pour ces deux geeks qui ont développé UNIX et le langage C (source)

    L’altair8800, sorti en 1975 et sur lequel Microsoft a écrit son BASIC, se programmait avec des rubans perforées, voire avec des commutateurs, et l’affichage se faisait avec quelques diodes (DEL) en face avant.
    Les cartes à trous étant plutôt utilsées avec les gros ordinateurs (aka Big Iron).

    Vue de face de l’Altair8800Difficile de considérer ces deux lignes de diodes rouges comme l’écran de l’Altair8800

    L’écran ≠ la vue

    Pour faire sans écran, on pense instinctivement à utiliser d’autres sens que la vue comme l’ouïe ou le toucher (pour le goût ou l’odorat difficile d’imaginer la chose). Mais l’histoire de l’informatique nous montre que les premières interfaces homme-machine ne fonctionnaient pas avec des écrans, et pourtant utilisaient la vue (lumière, LED, imprimante, position mécanique…).

    Mais qu’appelle-t-on écran ?

    D’après la définition de Wikipédia, « un écran d’ordinateur est un périphérique de sortie vidéo d’ordinateur. Il affiche les images générées par la carte graphique de l’ordinateur. Grâce au taux de rafraîchissement d’écran élevé, il permet de donner l’impression de mouvement. »

    Donc si l’on s’en tient à wikipédia, un écran d’ordinateur c’est :

    • des images générées par une carte graphique d’ordinateur. Exit la télé cathodique avec un tuner analogique (qui devient rare aujourd’hui avec la TNT).
    • avec un taux de rafraîchissement élevé. Exit les liseuses et autres appareils utilisant un affichage type «  papier électronique ».
    • pas d’indication de résolutions.

    On peut sans doute rajouter les écrans (comme les télés) qui ne sont pas raccordés à une carte graphique dans la catégorie écran.

    Cela serait donc la résolution (définition et taille…) et le rafraîchissement (fréquence de balayage) du périphérique de sortie vidéo qui font un écran.

    La matrice 5 × 5 d’un micro:bit ne correspond pas à un critère de résolution suffisant, pas plus que les deux poussoirs ne pourraient prétendre à être un clavier.
    micro:bit Pourtant il affiche bien une « image » de cœur <3 !

    Les afficheurs 7 segments ne peuvent pas être considérés comme des écrans. Ils n’affichent que des chiffres et quelques symboles. Difficile de créer une impression de mouvement avec seulement des segments.
    Afficheur 7 segmentsEn faisant un effort, on arrive à reconstituer quelques lettres.

    En doublant le nombre de segments, on arrive à afficher l’ensemble des lettres de l’alphabet latin
    Afficheur 14 segmentsSans diacritiques, faut pas pousser

    Un « panel » LCD 20×4 et ses caractères de 8 pixels sur 5 forme un écran de 100 pixels sur 32, la résolution est déjà meilleure, même s’il est toujours prévu pour n’afficher que du texte. Néanmoins on se rapproche de l’idée que l’on se fait d’un « écran ».

    Du papier électronique ne peut pas être un écran. La résolution peut être excellente mais le rafraîchissement reste insuffisant.

    Finalement la définition de Wikipédia n’est guère rigoureuse ni efficace, entre l’unique LED du panneau de contrôle et l’écran haute résolution, il y a un continuum de périphériques de sortie utilisant des signaux lumineux pour former des images. Il faut peut-être alors chercher les systèmes informatiques qui, dans leur usage normal, utilisent d’autres périphériques de sortie ou pas de périphériques de sortie du tout.

    L’embarquée, une informatique massivement sans écran

    Bien sûr il faut définir le mot « informatique ». Si l’on se réfère à la définition de Wikipédia :

    L’informatique est un domaine d’activité scientifique, technique, et industriel concernant le traitement automatique de l’information numérique par l’exécution de programmes informatiques hébergés par des dispositifs électriques-électroniques : des systèmes embarqués, des ordinateurs, des robots, des automates, etc.

    Avec cette définition, le moindre dispositif électronique embarqué est de l’informatique. Lancer une machine à laver, programmer son four ou préparer une cafetière pour le lendemain est donc une forme de manipulation informatique… qu’on peut envisager sans écran.

    Cependant dès que vient le besoin de développer un système embarqué ou même de le réparer/déverminer, l’écran revient au galop. On a rapidement besoin d’un écran pour y connecter son environnement de développement et sa sonde de debug. Et même l’oscilloscope ou l’analyseur logique que l’on branche pour « voir » les signaux dispose d’un écran.

    En usage normal donc, certains dispositifs informatiques sont conçus pour ne pas nécessiter d’écran parce qu’ils disposent d’un autre périphérique de sortie. Certains centres commerciaux, certaines gares proposent des distributeurs d’histoires courtes : trois boutons comme périphérique d’entrée et une imprimante thermique comme périphérique de sortie. Appuyez et vous aurez de la lecture pour une, trois ou cinq minutes.

    Distributeur d’histoires courtes en gare de Lyon-PerracheSoyons optimistes : il n’y aura pas plus de cinq minute d’attente !

    Plus courant, une box Internet domestique est aussi un dispositif informatique sans écran.

    Livebox 6- Il est où l’écran ? - Dans ton… navigateur

    Il faut reconnaître que si l’usage courant, la connexion à l’Internet, ne nécessite pas d’écran sur la box, son paramétrage en utilise bien un : celui de l’ordinateur sur lequel tourne votre navigateur préféré.

    Les assistants vocaux sont des ordinateurs sans écran. Les principaux périphériques d’entrée comme de sortie sont audio : commande vocale, réponse également. Radio France fait d’ailleurs la publicité pour son offre pour enfants, une histoire et… Oli, sur cette absence d’écran, jouant, sans trop le dire, sur cette peur parentale des écrans.

    Pourrait-on pousser l’utilisation de ces ordinateurs pour faire du développement et «coder en vocal» ? Possible, il est tout à fait possible de programmer l’ouverture de ses volets, la lecture d’une musique ou le thermostat de sa chaudière avec. Mais ça n’est pas du développement.

    L’éducation numérique mais sans écran

    Il est largement possible d’apprendre l’informatique sans écran, et même sans ordinateur.

    La robotique pédagogique se développe depuis l’apparition de la tortue Logo. Actuellement, pour les plus jeunes dès l’école maternelle, c’est une abeille qui est proposée comme initiation à la programmation.

    Bee-Bot en actionSi, si, je suis bien un ordinateur

    La Bee-Bot se programme à l’aide de sept touches et les périphériques de sortie sont les moteurs de déplacement, un petit haut-parleur et en option un porte-crayon. Avec une interface HommeEnfant-Machine aussi simple, il s’agit plutôt d’une mémorisation de séquences de mouvements que de programmation à proprement parler et pour en utiliser toutes les capacités, un interfaçage avec une application ou un ordinateur plus conventionnel est possible, mais on y retrouve un écran ! De nombreux autres robots pédagogiques, un peu plus complexes et performants, existent mais ceux-ci utilisent un écran classique pour accéder à l’interface de programmation.

    Quitte à supprimer les écrans autant aller au bout de la démarche et supprimer l’ordinateur dans son ensemble. Des pédagogues ont ainsi inventé l’informatique déconnectée. Un papier, un crayon, ni écran ni matériel comme le jeu du robot idiot. Les esprits chagrins pourraient y voir une solution au manque de matériel des établissements scolaires.
    Plus que d’informatique il s’agit en fait d’initiation à l’algorithmie.

    Mais peut-on se passer d’écran pour développer ?

    Les plages braille

    Il existe une catégorie de population qui est contrainte de se passer d’écran pour se servir d’un ordinateur : les aveugles.

    Les personnes aveugles peuvent pourtant se servir d’ordinateur, notamment grâce à un clavier spécifiquement développé pour eux nommé « plage braille ». Grâce à ces plages brailles, les aveugles peuvent lire les caractères en braille en touchant une ligne munie de petites pointes pilotés.

    Le prix de ces appareils est assez prohibitif pour quelqu’un qui voudrait jouer avec sans en avoir réellement besoin (un geek quoi). C’est pourtant une bonne manière de faire de l’informatique sans écran. Pour le codage informatique, on utilise un braille à huit points au lieu des six habituels ce qui permet d’avoir 256 combinaisons, soit autant que la table ASCII. La table braille informatique actuelle a été approuvée à l’unanimité en 2007 par la Commission Évolution du Braille Français, elle porte le numéro TBFR2007.

    Que vaudrait un jeu vidéo développé pour une plage braille ? Et pourrait-on l’appeler jeu vidéo ?

    Avec du papier et un stylo/machine à écrire/carte perforé puis scanner

    On peut également faire beaucoup de choses un papier un crayon/stylo/pinceau puis le scanner pour qu’il soit utilisé dans l’ordinateur. Ça reste généralement qu’une étape du développement les programmes ne sont pas plus réalisés intégralement sur papier avant d’être intégré à l’ordinateur.

    Pour conclure

    Avec des écrits comme « la fabrique du crétin digital » et des propos comme ceux de notre ex-ministre de l’éducation, les écrans sont devenus la bête noire de tous les pédagogos.

    Mais l’important n’est-il pas de savoir ce que l’on fait avec un écran ? Faut-il vraiment s’acharner à s’en passer ?

    Sans doute pas.

    Il serait cependant intéressant d’apprendre à se servir d’outils réservés aux aveugles par exemple. Si nous n’avons plus besoin de la vue pour coder, nous pourrions être un peu plus multi-tâches et coder tout en… regardant la télé !

    Commentaires : voir le flux Atom ouvrir dans le navigateur

    Une bulle d’intelligence artificielle et de stupidité naturelle

    4 avril 2024 à 08:55
    Mais qu'il est bien cet article ! Lisez-le.
    "La technologie derrière ChatGPT, Dall-E et autres n’est pas révolutionnaire, elle est spectaculaire. C’est très différent. Et, comme souvent, le spectaculaire attire une attention démesurée du grand public par rapport aux capacités réelles de la technologie. C’est ce qu’on appelle « une bulle ». "
    (Permalink)

    A Giga-Sunset For Gigaset IoT Devices | Hackaday

    3 avril 2024 à 11:26
    Encore une marque d'objets connectés à la con qui ne fonctionne pas sans le cloud dédié du constructeur : Tous les appareils Gigaset deviennent inutilisables, car la société met la clé sous la porte.
    Et comme ces périphériques n'ont pas d'option pour tourner en "local" seulement, ils deviennent de couteux presse-papiers.

    Non contents d'être des mouchards qui pillent votre vie privée, les objets connectés cessent de fonctionner au moindre problème (ou désaccord) avec le fabriquant.
    (Permalink)

    Stability AI reportedly ran out of cash to pay its AWS bills • The Register

    3 avril 2024 à 08:28
    Et hop... un premier fournisseur d'IA qui coule : Stability AI (qui fournit le service de génération d'images Stable Diffusion) n'a plus les moyens de payer ses factures AWS et GoogleCloud.
    Il faut dire que ça leur coûtait 99 millions de dollars à l'année, et ils n'arrivent pas à être rentables.
    Soyez certain que c'est loin d'être le dernier. Il y en aura d'autres.

    PS: Le coût de fonctionnement de 99 millions de dollars à l'année, ça représente 271 000 dollars par jour. Actuellement OpenAI ChatGPT/Microsoft CoPilot crame plus de 700 000 dollars par jour en frais de fonctionnement. Je vous laisse imaginer la rentabilité du service et son avenir...

    Remarquez c'est un peu le modèle habituel des startups: Fournir un service techniquement exceptionnel, mais avec aucune rentabilité. Et quand tout l'argent des investisseurs est cramé, soit le service ferme, soit il se merdifie fortement.
    (Permalink)

    L'alliance entre Mistral et Microsoft met fin à l'illusion de l'indépendance technologique européenne

    4 mars 2024 à 10:41
    « Alors qu'il défendait mordicus l'open source comme valeur cardinale pour s'imposer face aux géants américains, le champion français de l'intelligence artificielle, Mistral AI, [...] a conclu un partenariat pour l'heure exclusif avec Microsoft pour sa distribution »
    Well done, French Tech.
    (Permalink)

    Losing the imitation game

    4 mars 2024 à 08:02
    Un article intéressant sur les LLM, mettant en lumière notre définition changeante d'intelligence. Et comme le dit l'article, savoir manipuler le langage à coup de modèles statistiques (les LLMs) est assez avancé pour passer le test de Turing, mais ce n'est pas pour cela que les LLM ont la moindre intelligence. Les LLM manipulent et produisent des expressions qu'elles ne comprennent fondamentalement pas. Une LLM ne comprend rien à l'expression "Il pleut comme vache qui pisse" même si elle est capable de vous la sortir.

    La seconde partie de l'article parle de développement logiciel avec les LLM. J'extrais une citation de l'article : « La tâche fondamentale du développement de logiciels n'est pas d'écrire la syntaxe qui permettra d'exécuter un programme. Il s'agit de construire un modèle mental de ce système complexe, de lui donner un sens et de le gérer dans le temps. »
    Les LLM n'ont aucun modèle mental. Ce sont juste de gigantesques générateurs statistiques de mots. Elles ne parviendront qu'à réaliser des tâches triviales ("Écris un bout de code en Python pour récupérer un bucket S3") mais ne sauront pas gérer la complexité de votre application. Et à moins d'entraîner votre propre IA sur votre code, elle ne saura rien de votre logiciel et de son architecture.

    Si on ajoute à cela:
    - que les LLM sont des monstruosités écologiques.
    - qu'elles ne fonctionnent à peu près correctement que parce que des Kenyans payés 2 dollars de l'heure passent leur temps à la corriger.
    - que malgré ces corrections elle continue à dire n'importe quoi.
    - qu'utiliser du code produit par les LLM vous expose à des risques légaux (car les LLMs recrachent du code sans la licence originale)
    - qu'à force d'utiliser les LLM pour coder, vos meilleurs codeurs - ceux qui connaissent *vraiment* l'application - se seront cassés (Passer son temps à relire du code pondu par des IA, ce n'est pas gratifiant, vous voyez ?)

    Est-ce que c'est vraiment une bonne idée de les utiliser pour le développement logiciel ?
    (Permalink)

    [2401.11817] Hallucination is Inevitable: An Innate Limitation of Large Language Models

    27 février 2024 à 09:46
    Jusqu'à présent les travaux pour limiter le baratinage des IA avaient toujours été empiriques (et souvent réalisés à coup de populations pauvres payées 2$ de l'heure : https://sebsauvage.net/links/?eaX_tQ, https://sebsauvage.net/links/?RZ7ziw), mais cette publication scientifique démontre que les "hallucinations" (aka le baratinage) des LLM n'est pas possible à éliminer.

    EDIT: Article en français : https://intelligence-artificielle.developpez.com/actu/354600/L-hallucination-est-inevitable-et-serait-une-limitation-innee-des-grands-modeles-de-langage-en-intelligence-artificielle-selon-une-etude-sur-la-possibilite-d-eliminer-les-hallucinations-des-LLM/
    (Permalink)

    Microsoft Strikes Deal With Mistral in Push Beyond OpenAI - Slashdot

    26 février 2024 à 15:48
    Hahaha punaise Microsoft vient de planter un gros coup de couteau dans le dos d'OpenAI en faisant un deal avec Mistral. 😂

    Je suis certain qu'on finira par avoir Mixtral dans Windows 1x.
    (Et là Linux ne pourra pas vraiment lutter. Papy/Mamy pourront juste demander à Windows : "Montre-moi les photos de mes petits-enfants de l'été dernier quand ils étaient sur le bateau" et Windows le fera.)

    EDIT: L'Europe met son nez dans le deal entre Microsoft et Mistral : https://www.theregister.com/2024/02/28/eu_microsoft_mistral/
    (Permalink)
    ❌
    ❌