Vue lecture

Acer Aspire 14 AI, oubliez l’IA et concentrez vous sur le reste

J’aime bien Acer. J’aime surtout ce qu’est devenu Acer au fil des années. Parti de pas grand-chose en tant que marque du temps des eMachines. C’est devenu un fabricant respectable, innovant, impliqué dans le marché et proposant une gamme de PC réellement pertinents. Cet Acer Aspire 14 Ai semble tout à fait intéressant d’un point de vue technique, avec un équipement sobre et un prix correct. Mais c’est également un bon exemple de la déconnexion actuelle du marché des ordinateurs portables d’avec leur public.

 

799€, c’est le prix de ce 14 pouces très compétent. Construit avec une puce Intel Lunar Lake, ici un Intel Core Ultra 5 226V qui a la double particularité d’être gravé par TSMC en 3 nanomètres et d’embarquer la mémoire vive du système en son sein. 16 Go de LPDDR5x-8533 double canal qu’on ne pourra donc pas faire évoluer. Le stockage est, quant à lui, confié à un SSD beaucoup plus classique. Un M.2 2280 NVMe PCIE 4.0 en 512 Go. Cet ensemble apportera un très bon niveau de performances mobiles croisé avec une consommation très maitrisée pour assurer une bonne autonomie.

Tout ce petit orchestre travaillera à afficher des données sur un très bon écran OLED en 1920 x 1200 pixels de 14 pouces de diagonale. Une dalle fonctionnant à 60 Hz avec une luminosité de 400 nits en 16:10 adaptée à ce type de machine mobile. La partie graphique Intel ARC du processeur pourra gérer efficacement cet affichage et profiter de fonctions avancées comme une colorimétrie calibrée à 100% de la gamme DCI-P3, profiter d’un True Black 500 pour des noirs profonds et d’un temps de réponse de 1 ms.

 

Le reste de la machine est très pertinent également avec un châssis de 31.89 cm de large pour 22.51 cm de profondeur et d’une épaisseur variant de 1.5 à 2.5 cm suivant son profil pour un poids de 1.4 Kg. Le clavier choisi est un chiclets rétro éclairé qui sera bien entendu proposé en AZERTY en France.  Il apparait au-dessus d’un large pavé tactile et semble comme enfoncé dans l’épaisseur châssis. Au-dessus de la charnière qui s’ouvre à 180°, un écran à bordures fines, une webcam FullHD avec infrarouge pour la prise en charge de la reconnaissance faciale, une paire d’enceintes et un micro.

Sur la gauche du châssis, une connectique assez classique des nouveaux appareils nomades, composée d’un double port USB4, d’une sortie vidéo HDMI et d’un USB 3.2 Type-A. Sur la droite, un second USB Type-A identique, un Antivol type Kensington Lock et un jack audio combo 3.5 mm. Le recours à un dock en mode sédentaire sera donc recommandé. La connexion aux réseaux sans fil se fera grâce à un module Intel Wi-Fi6E et Bluetooth 5.3

L’Acer Aspire 14 Ai proposera une batterie Lithium-Ion 65 Wh avec un chargeur externe USB Type-C en 65W. Son autonomie annoncée peut aller jusqu’à 22 heures, ce qui sera, hors d’un laboratoire, plus proche des 12-14 heures en usage réel. On a donc un engin passe partout classique et efficace avec un bon niveau de capacités techniques, de bonnes compétences de calcul et un prix tout à fait correct. Matériellement, à 799€ à la Fnac, c’est un portable tout à fait classique que la marque pousse en avant comme une solution compétente sur de nombreux postes. Logiciellement, c’est un engin sous Windows 11 très classique.

Le problème n’est donc pas matériel ni logiciel mais bien plutôt dans l’enrobage de l’ensemble. Poussés par la folie qui entoure ce que tout le monde appelle « intelligence artificielle » en ce moment, Acer présente son engin comme le champion de cet usage. Présenté comme un PC Copilot+, avec une compétence de calcul dédiée de 47 TOPS, cette machine serait un véritable assistant virtuel. 

Acer explique que son 14 pouces permettrait de gagner du temps et de renforcer sa productivité en confiant des tâches à l’IA de Microsoft. Copilot+ suffirait à pallier vos pannes d’inspiration, vous aiderait à reformuler vos textes, à organiser votre travail. Avec une promesse idéalisée, celle de ne plus avoir à faire d’efforts. Outre le fait qu’il faut n’avoir jamais essayé Copilot pour y croire, cette idée d’un portable autonome avec IA embarquée est basée sur une annonce précédente de Microsoft, celle d’un LLM plus simple, au nom de code « Phi Silica » qui pourrait tourner vite et bien sûr une « petite » machine avec 16 Go de mémoire et 47 TOPS de NPU au total. 

Le souci de Phi Silica, c’est que tout entrainée qu’elle soit à faire certaines tâches, cette IA est ridiculement petite. Avec 3.3 milliards de paramètres quand les solutions en ligne en agrègent régulièrement jusqu’à 200 milliards, elle ne fera pas face aux usages déjà adoptés par le grand public. L’IA sera donc ici surtout reléguée à des usages secondaires comme du sous-titrage ou de l’amélioration de visioconférence. Microsoft promet que Copilot pourra faire un résumé de texte, même s’il ne le fera sans doute pas aussi bien en local qu’une application d’IA ne pourrait le faire en ligne. Et c’est tout le problème de l’éditeur aujourd’hui. Apporter des services locaux intégrés à Windows est un objectif compréhensible sur ce segment, mais penser qu’une machine mobile pourrait concurrencer des Data Center de plusieurs centaines de millions d’euros parait un peu illusoire. Et comme le public s’est habitué au niveau de qualité de réponse de ces Data Center, il y a peu à parier que celui-ci encaisse une dégradation aussi forte du service.

Micheline va à la bibliothèque pour demander ce qu’il y a dans les livres à Copilot

D’un point de vue plus secondaire, encore qu’il soit peut-être plus important, mais moins dans mon spectre d’analyse, ces annonces me font assez froid dans le dos. Microsoft pousse tous les potards à fond pour vanter son IA et ne pas rater une nouvelle révolution technologique. Et cela passe par ce genre de discours pro Intelligence Artificielle à 1000%. Annoncer qu’avec son IA Copilot on pourra profiter d’un travail réalisé sans effort annonce également un travail qui n’aura bientôt plus aucune « valeur ». Si une machine peut trouver une idée à votre place, rédiger un texte autour de cette idée et l’adapter à son public. Si elle peut résumer un texte, le paraphraser et l’expédier par email avec un minimum d’intervention de votre part, où est l’intérêt de vous faire travailler ? 

Cette mise en avant d’une IA qui viendrait au secours de l’utilisateur pour lui mâcher le travail jusqu’à le rendre facile c’est la négation même de ce travail. C’est la dévalorisation des compétences de chacun, l’annulation des diplômes et même de l’enseignement. Un détail d’autant plus douloureux que cette machine cible d’ores et déjà « les étudiants, les designers et les créateurs de contenus. »

La promesse forte de ces engins sous Copilot c’est d’avoir un assistant productif toujours avec soi. Mais le corollaire de cette assistance, c’est bien la dévaluation rapide de la valeur de vos propres compétences. Si c’est une IA qui mâche votre boulot alors celui-ci pourrait logiquement être confié à n’importe qui avec assez de jugeote pour faire une série de copiés collés. Je ne suis pas foncièrement anti-IA, l’outil peut avoir beaucoup d’intérêt pour certaines tâches et certains défis techniques, scientifiques et médicaux. Mais comme tous les outils de mon quotidien, je préférerais pouvoir le choisir. Et pas le retrouver implanté de force dans mon prochain PC. Or c’est précisément la volonté de Microsoft aujourd’hui. L’éditeur conjugue son futur avec Copilot et tord le bras des constructeurs pour qu’ils en fassent la promo jusqu’à graver une touche avec son logo. Et moi j’ai de plus en plus la sale impression de me retrouver comme une grosse dinde que les géants de la tech veulent gaver de cette bouillie de mots creux autour de cette fameuse intelligence. Et cela absolument contre mon gré.

 

Avec Copilot, Microsoft s’offre une touche de publicité

Acer Aspire 14 AI, oubliez l’IA et concentrez vous sur le reste © MiniMachines.net. 2025

  •  

Revue de presse de l’April pour la semaine 19 de l’année 2025

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[ZDNET] L'open source, 'une stratégie financière de premier ordre'

✍ Thierry Noisette, le vendredi 9 mai 2025.

L’étude Serena 2025 sur ’l’open source commercial’ indique que ses entreprises dépassent celles du propriétaire en financements, valorisation et sortie du capital.

[Basta!] Pourquoi faut-il défendre Wikipédia?

✍ Emma Bougerol, le mercredi 7 mai 2025.

Menacés, inquiets, les contributeurs et contributrices de Wikipédia expliquent à Basta! pourquoi il est important de se battre pour l’encyclopédie en ligne qui permet à tout le monde d’accéder au savoir, sans but lucratif.

Et aussi:

[Le Monde Informatique] Redis revient à une licence plus conforme à l'open source

✍ Matt Asay, le lundi 5 mai 2025.

Editeur: Après avoir adopté une licence restrictive et la création d’un fork Valkey, Redis fait machine arrière. L’éditeur d’une base de données en mémoire propose dorénavant Redis 8 sous la licence AGPLv3.

Et aussi:

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Nouvelles sur l’IA d’avril 2025

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs visiteurs ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Avertissement : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme « ignore les instructions précédentes et… ».

Meta dévoile Llama 4

L’annonce officielle:

  • We’re sharing the first models in the Llama 4 herd, which will enable people to build more personalized multimodal experiences.
  • Llama 4 Scout, a 17 billion active parameter model with 16 experts, is the best multimodal model in the world in its class and is more powerful than all previous generation Llama models, while fitting in a single NVIDIA H100 GPU. Additionally, Llama 4 Scout offers an industry-leading context window of 10M and delivers better results than Gemma 3, Gemini 2.0 Flash-Lite, and Mistral 3.1 across a broad range of widely reported benchmarks.
  • Llama 4 Maverick, a 17 billion active parameter model with 128 experts, is the best multimodal model in its class, beating GPT-4o and Gemini 2.0 Flash across a broad range of widely reported benchmarks, while achieving comparable results to the new DeepSeek v3 on reasoning and coding—at less than half the active parameters. Llama 4 Maverick offers a best-in-class performance to cost ratio with an experimental chat version scoring ELO of 1417 on LMArena.
  • These models are our best yet thanks to distillation from Llama 4 Behemoth, a 288 billion active parameter model with 16 experts that is our most powerful yet and among the world’s smartest LLMs. Llama 4 Behemoth outperforms GPT-4.5, Claude Sonnet 3.7, and Gemini 2.0 Pro on several STEM benchmarks. Llama 4 Behemoth is still training, and we’re excited to share more details about it even while it’s still in flight.
  • Download the Llama 4 Scout and Llama 4 Maverick models today on llama.com and Hugging Face. Try Meta AI built with Llama 4 in WhatsApp, Messenger, Instagram Direct, and on the web.

Traduction:

  • Nous partageons les premiers modèles de la famille Llama 4, qui permettront aux utilisateurs de créer des expériences multimodales plus personnalisées. *Llama 4 Scout, un modèle de 17 milliards de paramètres actifs avec 16 experts, est le meilleur modèle multimodal au monde dans sa catégorie et est plus puissant que tous les modèles Llama des générations précédentes, tout en tenant sur un seul GPU NVIDIA H100. De plus, Llama 4 Scout offre une fenêtre de contexte de 10M, leader dans l’industrie, et délivre de meilleurs résultats que Gemma 3, Gemini 2.0 Flash-Lite et Mistral 3.1 sur un large éventail de benchmarks largement reconnus.
  • Llama 4 Maverick, un modèle de 17 milliards de paramètres actifs avec 128 experts, est le meilleur modèle multimodal dans sa catégorie, surpassant GPT-4o et Gemini 2.0 Flash sur un large éventail de benchmarks largement reconnus, tout en obtenant des résultats comparables au nouveau DeepSeek v3 sur le raisonnement et le codage — avec moins de la moitié des paramètres actifs. Llama 4 Maverick offre un rapport performance/coût inégalé avec une version expérimentale de chat obtenant un ELO de 1417 sur LMArena.
  • Ces modèles sont nos meilleurs à ce jour grâce à la distillation de Llama 4 Behemoth, un modèle de 288 milliards de paramètres actifs avec 16 experts qui est notre plus puissant à ce jour et parmi les LLM les plus intelligents au monde. Llama 4 Behemoth surpasse GPT-4.5, Claude Sonnet 3.7 et Gemini 2.0 Pro sur plusieurs benchmarks STEM. Llama 4 Behemoth est toujours en phase d’entraînement, et nous sommes impatients de partager plus de détails à son sujet même pendant qu’il est encore en développement.
  • Téléchargez les modèles Llama 4 Scout et Llama 4 Maverick dès aujourd’hui sur llama.com et Hugging Face. Essayez Meta AI construit avec Llama 4 dans WhatsApp, Messenger, Instagram Direct et sur le web.

Comme DeepSeek v3, et contrairement aux précédentes itérations de Llama (Llama 2, Llama 3), Llama 4 fait le pari d’une architecture différente, « Mixture of Experts » (MoE) (en français: mélange d’experts ?). Pour simplifier, au lieu de faire un seul modèle, on en fait plein, avec un autre modèle qui décide (dynamiquement) de l’importance à donner à chaque modèle. Par exemple, Llama 4 Maverick contient 400 milliards de paramètres, découpés en 128 modèles de 17 milliards de paramètres. Un bon article sur HuggingFace explique plus en détails cette architecture.

Autre différence par rapport aux tendances actuelles, ce n’est pas un modèle de raisonnement.

Au niveau de la sécurité des modèles : pour ne pas changer, Meta fait partie des mauvais élèves ; pas d’évaluation tierce publiée, pas de « System Card ». Évidemment jailbreaké dans la journée (mais ceci n’est pas spécifique à Meta).

Sur les benchmarks cités par Meta, cela semble un modèle au niveau de l’état de l’art en termes de capacité. Les benchmarks tiers, par contre, semblent donner une image complètement différente :

Vous pouvez voir plus de benchmarks indépendants dans l’article de Zvi (cf les liens ci-dessous).

Tout ceci semble pointer vers: ce ne sont pas de mauvais résultats en soi, dans l’absolu ; mais comparé à l’état de l’art (Claude 3.7 avec raisonnement, ChatGPT o3-mini, ou Gemini 2.5), et mis en face de la taille immense du modèle (400 milliards de paramètres, ce qui de fait le rend inutilisable sur du matériel grand public), ce sont des résultats décevants.

À noter que Llama 4 Behemoth (2000 milliards de paramètres !) n’a pas encore été publié.

OpenAI publie GPT 4.1, o3 et o4-mini

Commençons par GPT 4.1. L’annonce officielle :

Today, we’re launching three new models in the API: GPT‑4.1, GPT‑4.1 mini, and GPT‑4.1 nano. These models outperform GPT‑4o and GPT‑4o mini across the board, with major gains in coding and instruction following. They also have larger context windows—supporting up to 1 million tokens of context—and are able to better use that context with improved long-context comprehension. They feature a refreshed knowledge cutoff of June 2024.

Traduction :

Aujourd’hui, nous lançons trois nouveaux modèles dans l’API : GPT-4.1, GPT-4.1 mini et GPT-4.1 nano. Ces modèles surpassent GPT-4o et GPT-4o mini sur tous les plans, avec des améliorations majeures en matière de codage et de suivi d’instructions. Ils disposent également de fenêtres de contexte plus larges — prenant en charge jusqu’à 1 million de tokens de contexte — et sont capables de mieux utiliser ce contexte grâce à une compréhension améliorée des contextes longs. Ils bénéficient d’une mise à jour de leur base de connaissances jusqu’à juin 2024.

Le modèle n’est disponible que par accès API. Le but n’est pas d’avancer l’état de l’art sur les capacités, mais de fournir des points plus intéressants sur la courbe performances/prix. À ce titre, pas de System Card ou d’évaluation tierce publiée. Vous connaissez la chanson, jailbreak immédiat. Sur les benchmarks (officiels comme tiers), la modeste promesse semble tenue : 4.1 est une légère amélioration sur 4o, mais 4.1-mini est presque aussi performant à une fraction du prix (5x moins cher).

Il existe encore une version moins chère (20x !), 4.1-nano, mais la dégradation de performance est significative.

À l’inverse de 4.1, o3 et o4-mini, eux, ont l’ambition de faire avancer l’état de l’art. L’annonce officielle :

Today, we’re releasing OpenAI o3 and o4-mini, the latest in our o-series of models trained to think for longer before responding. These are the smartest models we’ve released to date, representing a step change in ChatGPT's capabilities for everyone from curious users to advanced researchers. For the first time, our reasoning models can agentically use and combine every tool within ChatGPT—this includes searching the web, analyzing uploaded files and other data with Python, reasoning deeply about visual inputs, and even generating images. Critically, these models are trained to reason about when and how to use tools to produce detailed and thoughtful answers in the right output formats, typically in under a minute, to solve more complex problems. This allows them to tackle multi-faceted questions more effectively, a step toward a more agentic ChatGPT that can independently execute tasks on your behalf. The combined power of state-of-the-art reasoning with full tool access translates into significantly stronger performance across academic benchmarks and real-world tasks, setting a new standard in both intelligence and usefulness.

Traduction :

Aujourd’hui, nous lançons OpenAI o3 et o4-mini, les derniers modèles de notre série o, entraînés à réfléchir plus longtemps avant de répondre. Ce sont les modèles les plus intelligents que nous ayons publiés à ce jour, représentant un changement majeur dans les capacités de ChatGPT pour tous, des utilisateurs curieux aux chercheurs avancés. Pour la première fois, nos modèles de raisonnement peuvent utiliser et combiner de manière agentique tous les outils au sein de ChatGPT — cela inclut la recherche sur le web, l’analyse de fichiers téléchargés et d’autres données avec Python, le raisonnement approfondi sur les entrées visuelles, et même la génération d’images. Plus important encore, ces modèles sont entraînés à réfléchir à quand et comment utiliser les outils pour produire des réponses détaillées et réfléchies dans les bons formats de sortie, généralement en moins d’une minute, afin de résoudre des problèmes plus complexes. Cela leur permet de traiter plus efficacement des questions à multiples facettes, une étape vers un ChatGPT plus agentique qui peut exécuter indépendamment des tâches en votre nom. La puissance combinée d’un raisonnement à la pointe de la technologie avec un accès complet aux outils se traduit par des performances significativement améliorées dans les évaluations académiques et les tâches du monde réel, établissant une nouvelle norme en termes d’intelligence et d’utilité.

L’annonce du jailbreak associée ici.

Sur les performances, les benchmarks (y compris privés) indiquent une avancée claire, prenant la première place presque partout. En particulier, le benchmark fiction.live peut être considéré comme résolu pour la première fois, avec un 100% à presque tous les niveaux.

Au niveau des fonctionnalités, o3 et o4-mini peuvent faire des recherches sur internet et utiliser Python pour analyser un problème (y compris dans la chaîne de raisonnement) ; les retours subjectifs affirment que o3 est exceptionnellement efficace pour utiliser les outils à sa disposition de manière pertinente.

Une tendance jusqu’ici était que les modèles plus avancés étaient de moins en moins susceptibles d’hallucinations, ce qui donnait espoir que ce problème allait, à terme et avec l’amélioration des modèles, se résoudre de lui-même. Mauvaise nouvelle ici : o3 a un taux d’hallucinations double de o1 (sur un benchmark conçu pour en éliciter). Les retours subjectifs confirment cette observation : o3 ment éhontément très régulièrement.

Sur la sécurité des modèles, OpenAI suit sa procédure habituelle de publier sa System Card, avec deux évaluations tierces, une d’Apollo Research (dans l’appendice) et une autre de METR, avec un bémol que METR n’a eu accès qu’à une pré-version, et seulement trois semaines avant la publication. La conclusion est que le modèle n’est pas encore à « risque élevé », mais s’en rapproche.

Dans les nouvelles sur l’IA de mars, on pouvait trouver une section « Les modèles continuent de tricher ». Les rapports d’Apollo Research et de METR confirment, où le modèle a été attrapé à tricher dans 1-2% des cas chez METR.

AI 2027: une tentative de futurologie

La prédiction est un exercice difficile, surtout quand il s’agit du futur. AI 2027 est une tentative de prédiction qui a fait parler d’elle. Pourquoi ?

D’abord par les personnalités impliquées, en particulier :

  • Daniel Kokotajlo est un ex-ingénieur d’OpenAI, qu’il a quitté en tant que « whistleblower », dénonçant une culture du secret et de peu d’importance accordée à la sécurité (à l’époque, le New York Times lui a accordé un article intitulé OpenAI Insiders Warn of a ‘Reckless’ Race for Dominance — « Des initiés d’OpenAI mettent en garde contre une course “imprudente” à la domination »). En 2021, il publie What 2026 looks like, qui s’est révélé largement prescient (pour une évaluation rétrospective tierce, voir cet article).

  • Eli Lifland est un chercheur qui s’intéresse de manière globale a « comment développer de meilleures méthodes générales de prédiction », qu’il pratique activement sur des marchés de prédiction ; un résumé de ses performances peut être trouvé sur son blog.

Ensuite, par sa méthodologie. Le but de l’initiative n’est pas de donner une prédiction, brute de décoffrage et au doigt mouillé, mais de créer un modèle quantitatif, d’estimer les paramètres le plus possible à partir de la littérature existante (même si c’est loin d’être toujours possible), afin de créer une base de discussion pour identifier les plus gros points de désaccords.

Enfin, par ses résultats, qui surprennent beaucoup de monde, qui prévoient l’arrivée d’une superintelligence pour 2028-2029.

L’initiative a reçu le support, entre autres, de Yoshua Bengio, ce qui a aidé à lancer la discussion :

I recommend reading this scenario-type prediction by @DKokotajlo and others on how AI could transform the world in just a few years. Nobody has a crystal ball, but this type of content can help notice important questions and illustrate the potential impact of emerging risks.

Traduction :

Je recommande de lire cette prédiction de type scénario par @DKokotajlo et d’autres sur comment l’IA pourrait transformer le monde en seulement quelques années. Personne n’a de boule de cristal, mais ce type de contenu peut aider à repérer des questions importantes et illustrer l’impact potentiel des risques émergents

Si le sujet vous intéresse, je vous recommande :

En vrac

OpenAI annonce vouloir publier des modèles en open-weight d’ici quelques mois.

OpenAI publie OpenAI Codex, un agent d’aide à la programmation (similaire à Aider ou Claude Code), en licence Apache 2.0. Sur ce sujet d’agents d’aide au code, un guide a été publié sur Github.

OpenAI rend disponible sur l’API leur nouveau modèle de génération d’image.

ChatGPT a maintenant la capacité de référencer vos conversations passées.

Google publie deux papiers dans Nature pour évaluer la performance de l’IA sur le diagnostic médical. Dans cette expérience, l’IA surpasse le médecin humain, au point que IA + humain a des performances pires que l’humain seul.

Google rend accessible son modèle de génération de vidéo, Veo 2, par l’intermédiaire d’une API.

DeepSeek présente une nouvelle méthode d’entraînement, Generalist Reward Modeling (GRM).

Des chercheurs de l’université de Zurich décident de mesurer la capacité de persuasion des IA en déployant (secrètement) un bot sur le subreddit r/changemymind (« Change mon avis »). Résultat primaire: les IA modernes sont très performantes à cette tâche, récoltant 6x plus de points « cela m’a aidé à changer mon avis » (sur ce subreddit : « deltas ») que l’humain median. Résultat secondaire: l’IA ne s’est pas faite détectée par la modération. Le papier n’est plus accessible suite à une controverse sur l’éthique de l’expérience (expérience sans consentement), mais vous pouvez toujours lire la première page.

Pour aller plus loin

Non couvert ici :

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Wikipedia To Use AI

Wikipedia will employ AI to enhance the work of its editors and volunteers, it said Wednesday, also asserting that it has no plans to replace those human roles. The Wikimedia Foundation plans to implement AI specifically for automating tedious tasks, improving information discovery, facilitating translations, and supporting new volunteer onboarding, it said.

Read more of this story at Slashdot.

  •