Vue lecture

On a comparé ChatGPT et Gemini pour générer 10 images : le meilleur n’est pas celui que vous croyez

Avec ChatGPT Images 2.0, OpenAI prétend écraser la concurrence. Que vaut son nouveau modèle face au Nano Banana 2 de Google Gemini, considéré par beaucoup comme l'outil le plus polyvalent ? Nous avons confronté les deux modèles dans une série de tests pensés pour les piéger et exploiter leurs capacités les plus avancées (raisonnement + recherche sur le web).

  •  

Tout ce que Claude peut faire pour vous — Épisode 1

Ce n’est pas un modèle un peu plus puissant que les autres. C’est une toute nouvelle façon d’utiliser l’IA. Fini les dialogues interminables et les copier-coller fastidieux : Claude travaille pour vous. Ce n’est pas encore le cas ? Voici comment y remédier.

Lundi matin. Vous ouvrez votre boîte mail. Quarante-sept messages. Un client veut un devis pour hier. Votre chef demande une synthèse de 200 pages de contrats. Le comptable a besoin d’un tableau croisé sur les ventes du trimestre. Et vous, vous avez besoin d’un café.

Imaginons qu’au lieu de passer la journée à jongler entre Word, Excel, Google et trois onglets de traduction, vous puissiez dire à votre ordinateur : « Lis ces contrats, sors-moi les cinq clauses à risque et mets-les dans un tableau. » Et qu’il le fasse. Pas demain. Pas dans une version bêta. Instantanément.

C’est exactement ce que permettent les derniers outils d’intelligence artificielle qui sont au cœur de cette série, laquelle analyse les solutions et leur impact sur votre journée de travail. Commençons par l’outil qui, en ce moment, bouscule le plus les habitudes : Claude, développé par Anthropic.

Le mauvais débat

Depuis l’arrivée de ChatGPT fin 2022, le débat public sur l’IA se résume souvent à une question : « Quel modèle donne les meilleures réponses ? » C’est un peu comme comparer des voitures uniquement sur la puissance du moteur, sans regarder si elles ont un coffre, des sièges confortables ou un GPS qui fonctionne.

Pendant longtemps, l’usage dominant se résumait à du question-réponse. Vous interrogiez le modèle et il vous envoyait un texte. Selon cette logique, la qualité brute du modèle était le facteur différenciant. Si vous utilisiez ChatGPT ou Claude comme un oracle, alors oui, le « moteur » était le facteur essentiel. Logique : les premières interfaces étaient littéralement des boîtes de texte.

Ce qui se passe maintenant, c’est que le modèle d’IA passe du rôle d’oracle au rôle de moteur dans une machine plus large. Dit autrement, on passe de « quel modèle est le plus intelligent » à « quel système me rend le plus productif ».

Dans ce registre, ChatGPT est le plus connu et, de très loin, le plus utilisé : 900 millions de personnes s’en servent chaque semaine. Claude, son concurrent développé par Anthropic, est beaucoup moins notoire, avec entre 20 et 30 millions d’utilisateurs mensuels.

Mais les chiffres bruts ne racontent pas tout. Car pendant que OpenAI consolidait sa domination grâce au grand public, Anthropic misait sur une approche différente : un écosystème ouvert d’outils conçu pour que l’IA passe du rôle d’assistant conversationnel à celui d’agent capable d’agir. Et c’est sur ce terrain que l’avenir se joue, particulièrement sur la capacité d’un modèle à raisonner, utiliser des outils et exécuter des tâches de bout en bout.

D’où vient Anthropic ?

En 2021, Dario et Daniela Amodei quittent OpenAI. Il en était le vice-président chargé de la recherche, elle occupait un poste de direction. Ils évoquent publiquement des divergences sur la priorité à accorder à la sécurité des systèmes d’IA face à la course à la mise sur le marché — sans jamais aller jusqu’à la critique frontale de Sam Altman. ChatGPT sort un an plus tard, en 2022.

Avec une poignée de chercheurs, ils fondent Anthropic la même année. Et le 14 mars 2023, ils lancent Claude, un modèle d’IA dont le nom se réfère à Claude Shannon, le père de la théorie de l’information, pilier discret de l’informatique moderne.

Le pari initial est risqué. Cinq ans plus tard, il a payé. En avril 2026, selon Bloomberg, Anthropic vient de franchir les 30 milliards de dollars de revenu annualisé — dépassant OpenAI (environ 25 milliards) pour la première fois. Plus de 1 000 grandes entreprises dépensent chacune plus d’un million de dollars par an pour utiliser Claude. Et le fait que Microsoft et Nvidia, pourtant actionnaires majeurs d’OpenAI, aient investi respectivement jusqu’à 5 et 10 milliards de dollars dans Anthropic fin 2025 en dit long sur la confiance du marché.

Tout cela, Claude ne le doit pas à de meilleures réponses dans un chat, même s’il y excelle. Il le doit à ce qu’il permet de faire.

Un chat qui ne se contente plus de parler

Lorsque vous utilisiez ChatGPT ou Claude en 2024, l’expérience était la même : vous tapiez une question, vous receviez une réponse. Utile, mais passif. Vous étiez le secrétaire de votre propre IA : c’est vous qui copiiez la réponse, qui la colliez dans Word, qui reformatiez le tableau, qui relanciez une recherche quand la première réponse n’était pas satisfaisante.

Depuis, la situation a changé de nature. Le chat de Claude ne se contente plus de répondre, il produit.

Vous pouvez lui demander de créer un vrai document Word, un tableur Excel, une présentation PowerPoint et il le fait directement dans la conversation. Vous lui dites « montre-moi les tendances de ces données » et il génère un graphique interactif sous vos yeux. Vous pouvez lui uploader 400 pages de contrats et lui demander de trouver les clauses problématiques. Vous pouvez lui dire « fais une recherche sur les derniers chiffres du marché immobilier à Lyon » et il va chercher les informations sur le web en temps réel.

Cette évolution se résume ainsi : vous ne recevez plus une réponse. Vous recevez un livrable.

C’est un changement discret en apparence — on est toujours dans une fenêtre de chat — mais radical dans la pratique. Le chat est devenu un environnement de travail.

Prendre en main Claude.ai

J’approfondis

Trois portes d’entrée, un seul objectif

Le chat n’est que la première porte. Et c’est là qu’Anthropic a poussé plus loin que la plupart de ses concurrents en proposant trois portes d’entrée.

  • Pour les développeurs : Claude Code. Ils ont adopté l’IA massivement depuis 2024 pour écrire du code en décrivant ce qu’ils veulent en langage courant — ce qu’on appelle le « vibe coding ». Anthropic a fait un choix radical : au lieu d’intégrer l’IA dans un logiciel existant, Claude Code s’installe directement dans le terminal, l’espace de travail brut des programmeurs. Résultat : 2,5 milliards de dollars de revenus annualisés début 2026.
  • Pour tout le monde : Cowork. Claude Code est puissant, mais demeure un écran noir avec du texte. Anthropic en a donc fait une vraie application de bureau. Disponible depuis le 9 avril 2026 sur Mac et Windows, Cowork a accès à vos dossiers, vos fichiers et votre environnement de travail. Vous lui parlez comme à un collègue : « Organise mes fichiers par projet », « Tous les lundis, compile les chiffres de vente dans un tableau », et il le fait.
  • Pour les pressés : les plugins. Excel, PowerPoint et Chrome : Claude s’intègre directement dans les outils que vous utilisez déjà. Word est pour l’instant en bêta, réservé aux plans professionnels. L’IA travaille là où vous le faites.

Ce que ça change dans votre journée

Sortons des abstractions. Vous recevez 200 pages de contrats à analyser. Vous les uploadez dans Claude. En quelques minutes, vous avez une synthèse structurée, les clauses inhabituelles surlignées, les points de vigilance identifiés. Ensuite, vous challengez Claude en conversation : précisez un point, creusez une clause ambiguë. Puis vous lui demandez de produire un visuel synthétique de l’analyse comme un document partageable avec vos équipes en un clic.

Résultat : 15 minutes là où vous auriez passé 2 heures. Vous pouvez désormais consacrer votre temps à la lecture fine plutôt qu’à la synthèse.

Mais le changement le plus profond — et le moins commenté — est ailleurs. Vous tombez sur un outil open source sur GitHub : un logiciel de gestion de projet, un outil d’analyse de données. Vous ne savez pas coder. Vous demandez à Claude Code ou Cowork de le télécharger, de l’installer et de le lancer, en conversant normalement.

Il y a encore deux ans, utiliser un logiciel open source nécessitait de comprendre un minimum de programmation. La barrière technique s’abaisse vite. Des outils qui exigeaient hier plusieurs heures de lecture de documentation s’installent aujourd’hui en dialoguant quelques minutes avec Claude. C’est peut-être la révolution la plus silencieuse (et potentiellement la plus démocratique) de cette vague d’IA.

Claude Design : faire son premier slide deck en dix minutes

J’approfondis

Les limites (parce qu’il n’y a pas de baguette magique)

Évidemment, tout n’est pas encore parfait.

  1. La qualité dépend du brief. Claude est un exécutant brillant, pas un devin : si votre demande est vague, le résultat le sera aussi. Savoir coder reste utile pour repérer une erreur, mais ce qui devient décisif, c’est la capacité à cadrer un problème. On ne passe plus ses journées à exécuter ; on les passe à coordonner, superviser et vérifier.
  2. Il se trompe parfois. Les modèles d’IA « hallucinent » : ils inventent des faits avec une assurance déconcertante. Sur un chiffre précis ou une référence juridique, la vérification humaine reste indispensable. Au lieu de passer 80 % de votre temps à produire et 20 % à vérifier, c’est désormais l’inverse.
  3. Le coût peut surprendre. L’abonnement de base (Pro, 20 $/mois) donne accès aux outils, mais les limites d’usage sont vite atteintes. En pratique, beaucoup passent aux abonnements Max (100 $/mois ou 200 $/mois). C’est le prix d’un logiciel spécialisé, sauf que Claude couvre un spectre beaucoup plus large.
  4. La stabilité reste un chantier. Entre fin mars et début avril 2026, Claude a enchaîné une série de pannes. C’est le prix d’une croissance explosive : les utilisateurs actifs sont passés de 4 à 11 millions en deux mois.
  5. Vos données ne restent pas chez vous. Vos fichiers transitent par les serveurs d’Anthropic, soumis au droit américain. L’entreprise s’engage à ne pas entraîner ses modèles sur les plans payants, mais cela n’exclut pas le stockage ou l’analyse. Pour des données ultra-sensibles ou soumises au RGPD, la question mérite un arbitrage. Des alternatives européennes comme Mistral existent et progressent vite.

Par où commencer ?

Si vous n’avez jamais utilisé Claude, commencez par la version gratuite sur claude.ai. Donnez-lui une tâche concrète : reformuler un mail délicat ou synthétiser un document long. Pas un test abstrait, un vrai besoin.

Si le résultat vous convainc, passez à l’abonnement Pro pour débloquer les modèles les plus puissants. Créez un Project avec vos fichiers récurrents : c’est là que Claude devient un véritable collègue.

Le savoir-faire technique qui séparait ceux qui pouvaient créer de ceux qui ne pouvaient que consommer s’érode vite. C’est une bonne nouvelle pour l’accessibilité, à condition de ne pas oublier que déléguer sa production à une IA américaine a aussi un coût, énergétique et financier.

Et la suite ?

Cet article est le premier d’une série. Nous y explorerons les usages concrets de l’IA dans vos métiers : gestion, communication, comptabilité, artisanat, professions libérales. Nous aborderons les questions qui fâchent : le coût réel, la confidentialité et l’impact sur l’emploi. L’objectif : vous donner les clés pour décider vous-même.

L’article Tout ce que Claude peut faire pour vous — Épisode 1 est apparu en premier sur Les Électrons Libres.

  •  

Avec ChatGPT Images 2.0, OpenAI déclare la guerre à Google et veut vous faire oublier Nano Banana

Après une période marquée par des turbulences internes et une concurrence de plus en plus féroce, OpenAI repart à l'offensive en avril 2026. En attendant le modèle GPT-5.5 dont le lancement semble imminent, l'entreprise dévoile ChatGPT Images 2.0, un nouveau modèle natif pour générer des images. Selon OpenAI, il s'agit « du meilleur modèle sur le marché ».

  •  

Droit d’auteur et IA : réponse aux défenseurs d’une mauvaise loi

Pour nous, c’est une entrave colossale au développement de l’IA française. Pour ses promoteurs, une juste protection des artistes. Depuis notre article de la semaine passée, le monde de la tech et l’hémicycle s’enflamment. Un emballement excessif, ou justifié ?

Notre article « IA : Sacrifier notre avenir sur l’autel du droit d’auteur ? », concernant la proposition de loi adoptée au Sénat le 8 avril dernier, a rencontré un large et positif écho. Rappelons que ce texte dit que si un indice laisse penser qu’une IA a utilisé une œuvre protégée (un livre, une photo, une musique, etc.) pour s’entraîner ou pour générer un contenu, son propriétaire pourra être attaqué par un ayant droit s’estimant spolié.

Comme il fallait s’y attendre, les inspirateurs du texte et les sociétés de gestion collective nous ont apporté une vive contradiction, ainsi qu’à la société Meta (voir encart 1). Une réplique dont la faiblesse tente de se dissimuler sous la complexité d’un lourd jargon juridique. Car cette loi crée un désordre judiciaire inédit, pénalise d’abord notre écosystème technologique et profite surtout à des structures intermédiaires plutôt qu’aux artistes eux-mêmes.

Argument 1 : ce texte ne suppose qu’un « simple allègement » de la charge de la preuve

Le Sénat affirme que le texte ne renverse pas la charge de la preuve au détriment des concepteurs d’IA. Celle-ci devait jusqu’à présent être fournie par les auteurs ou ayants droit. Selon l’institution, il suffirait au titulaire de droits de fournir un « indice » de vraisemblance accessible et objectivable pour que l’entreprise d’intelligence artificielle doive démontrer le contraire. Sur le papier, cela peut paraître mesuré et équilibré.

Dans la réalité du texte adopté par le Sénat, le libellé est d’une largeur telle qu’il ouvre un horizon presque infini de contestations. Il suffit qu’un résultat généré par une IA « rende vraisemblable » l’utilisation d’une œuvre protégée – un texte qui évoque le style d’un romancier célèbre, une image qui rappelle une photographie connue, une voix synthétique qui sonne étrangement comme celle d’un chanteur – pour que la machine judiciaire se mette en marche. Le juge n’a plus besoin d’une copie flagrante ou d’une preuve formelle : une ressemblance stylistique, une impression, une inférence suffit à déclencher la présomption.

Qui, concrètement, se retrouvera devant les tribunaux ? Les grandes sociétés propriétaires des modèles d’IA, bien sûr, en théorie. Mais en raison de la portée territoriale du dispositif – tout dommage constaté sur le sol français, tout résultat utilisé en France –, les premières cibles seront avant tout les acteurs tricolores comme Mistral AI, dont les modèles sont développés et déployés chez nous. Ainsi, ce texte, présenté comme une mesure de souveraineté technologique, peut fragiliser précisément le champion national que le gouvernement prétend défendre.

Quant aux créateurs lambda – écrivains, graphistes, musiciens, vidéastes, scénaristes qui utilisent quotidiennement ces outils pour accélérer leur travail créatif –, ils risquent de plonger dans un abysse judiciaire encore plus profond et angoissant. Imaginez un créateur qui, pour produire une œuvre originale répondant à son inspiration, la défriche à l’aide de l’IA. Dès lors qu’un indice rappelant un auteur antérieur, comme il en existe dans à peu près toute œuvre de l’esprit, apparaît dans le résultat final, la présomption s’activera automatiquement. On passe ainsi d’un affrontement supposé entre géants technologiques à un cauchemar quotidien pour des milliers d’artistes qui n’ont ni les avocats spécialisés ni les ressources financières des majors. Ce n’est plus une protection des créateurs : c’est une invitation à la paralysie générale de la création elle-même.

IA & droit d’auteur : les arguments du Sénat

J’approfondis

Argument 2 : la preuve contraire à apporter par la société propriétaire de l’IA sera « simplement coûteuse »

Les promoteurs du texte prétendent que la preuve devant être apportée par les défenseurs n’est pas techniquement impossible, mais seulement coûteuse. Les entreprises concernées documenteraient déjà leurs jeux de données pour respecter les obligations de transparence du Règlement européen sur l’IA. Il leur suffirait donc de produire ces éléments devant le juge.

Cette vision reste largement théorique et déconnectée de la réalité concrète des modèles actuels. Un système comme Mistral Large ou tout autre, de grande envergure, a été entraîné sur des centaines de téraoctets de données collectées sur le web, souvent bien avant que les obligations de traçabilité n’existent. Demander aujourd’hui à une société de prouver, pour chaque œuvre contestée, qu’elle n’a jamais figuré dans ces corpus gigantesques et historiques, revient à exiger l’équivalent d’un inventaire exhaustif de la Bibliothèque nationale multiplié par un million. Même la meilleure volonté du monde et les moyens techniques les plus avancés ne suffisent pas à accomplir une telle tâche rétroactivement.

Mais cela engendrera aussi une immense difficulté pour le juge. D’autant plus que, bien avant l’avènement de l’IA, les procédures sur ces sujets ont déjà montré toute leur complexité. Prenons à ce sujet l’exemple de la musique, domaine où la jurisprudence est pourtant abondante et où les juges ont l’habitude de trancher des affaires délicates. Ils savent déjà combien il est ardu de distinguer un plagiat évident d’une simple inspiration, même quand « ça sonne pareil à l’oreille » pour le commun des mortels. Les expertises acoustiques sont longues, coûteuses, parfois contradictoires entre experts et n’aboutissent que rarement, même quand apparaît l’évidence du franchissement de la frontière entre l’inspiration et l’indélicatesse.

Avec l’intelligence artificielle, la difficulté s’accroît de manière exponentielle. L’emprunt n’est plus linéaire ni directement traçable. Il devient statistique, probabiliste, issu de millions de patterns digérés à travers des couches de neurones. Sur quelle base concrète et fiable un juge pourra-t-il trancher qu’une mélodie générée constitue une « inspiration dictée par l’IA » plutôt qu’une création originale née d’un prompt habile et personnel ou de la patte d’un compositeur lui-même entraîné par des années d’écoutes inspirantes ? La « vraisemblance » invoquée par le texte devient alors une notion subjective, presque poétique, qui laisse au magistrat une marge d’appréciation immense et imprévisible. On ne parle plus de justice sereine et équilibrée, mais d’une avalanche de procédures où le doute profite presque toujours à l’ayant droit, contrairement à ce que propose la jurisprudence actuelle. Le texte, loin d’encadrer strictement les actions comme le prétend le Sénat, les facilite au contraire par sa rédaction bien trop large, ouverte et difficile à circonscrire dans la pratique.

L’IA au tribunal, Max Martin aux Grammys

J’approfondis

Argument 3 : le texte profite aux artistes

Nous passerons sur la définition de l’artiste, puisque le créateur s’aidant de l’IA peut aussi être ainsi qualifié. Il est vrai que nombre d’entre eux s’estiment floués par l’utilisation non autorisée de leur voix, de leur image ou de leur style (lui-même né de leurs propres emprunts à leurs aînés). En réalité, les réelles créations professionnelles accompagnées par l’IA dépasseront rapidement ces utilisations premières, davantage l’œuvre de geeks s’amusant avec les outils actuellement à leur disposition que d’artistes numériques ou de studios.

Par ailleurs, les emprunts de voix et de visages parfaitement identifiés sont aujourd’hui en grande partie cantonnés à des usages militants moquant ou célébrant des personnalités politiques ou au très problématique domaine des deepfakes qui entre davantage dans le champ de la guerre hybride et du banditisme que de la création. Dans ce domaine, la France, comme nombre d’autres pays, dispose déjà d’un arsenal juridique permettant de condamner les auteurs ou de contraindre (en partie) les entreprises d’IA à empêcher certains usages de leurs modèles.

Mais puisque l’on parle de ces artistes censés être spoliés, une question se pose : ce texte constitue-t-il une aide directe et efficace aux créateurs individuels, ou plutôt une contre-attaque des sociétés qui défendent leur vision du droit d’auteur, mais surtout le portefeuille des géants de la création ?

Aujourd’hui, le système de répartition des droits – qu’il s’agisse de la Sacem, de l’Adami ou d’autres organismes – est connu pour favoriser de manière disproportionnée les plus gros catalogues et les ayants droit les plus puissants et les plus visibles. L’immense majorité des artistes modestes, ceux qui vivent souvent dans la précarité, reçoit des sommes symboliques ne considérant pas la réalité de leur diffusion, tandis que les flux les plus importants alimentent notamment les structures elles-mêmes et leurs dispendieux frais de fonctionnement. Enfin, une présomption qui rend les contentieux plus faciles à engager et les négociations collectives plus fréquentes renforce mécaniquement le rôle central de ces intermédiaires institutionnels. Ils pourront signer des accords globaux, percevoir des quotes-parts substantielles et consolider leur position dans l’écosystème. L’argent ne coulera pas nécessairement plus abondamment et plus équitablement dans la poche des auteurs eux-mêmes. Il passera d’abord par ces organismes, qui en prélèveront une part significative avant toute redistribution.

Argument 4 : l’entraînement d’une IA est un vol

Au cœur de tous ces argumentaires adverses subsiste un postulat voulant que l’entraînement d’une IA constituerait une forme moderne de « pillage » des œuvres protégées. C’est intellectuellement et techniquement faux. Un modèle d’intelligence artificielle n’enregistre pas les textes, les images ou les musiques comme un simple disque dur qui copierait servilement. Il en extrait des patterns statistiques, des relations entre les mots, les formes, les sons – exactement comme un être humain qui lit des livres, écoute des morceaux, contemple des œuvres et en tire une culture personnelle et intime. Les poids du modèle ne contiennent pas les œuvres originales. Ils contiennent une synthèse abstraite, une mémoire probabiliste qui permet ensuite de créer du neuf.

Ce principe n’est pas révolutionnaire. Toute l’histoire de l’art repose sur cette digestion et cette transfiguration permanente. Le critère pertinent reste « l’output final », soit le résultat qui sort de la complicité entre l’IA et son producteur. Si le résultat réplique de manière substantielle et identifiable une œuvre protégée, le droit d’auteur classique suffit déjà à sanctionner cette contrefaçon. Si ce n’est pas le cas, il n’y a pas de préjudice réel pour l’ayant droit. Tout le reste – cette obsession pour l’entraînement lui-même – revient à interdire à la machine ce que l’on autorise depuis toujours à l’esprit humain : apprendre librement de ce qui existe pour inventer du nouveau.

Un choix de société qui engage durablement l’avenir de la France

Les défenseurs de la proposition de loi nous opposent enfin que l’intelligence artificielle ne saurait se développer qu’au prix d’une violation systématique des droits d’auteur. C’est exactement l’inverse de la réalité vécue. Elle ne peut s’épanouir pleinement qu’en respectant le principe immémorial de la création : l’inspiration libre, la digestion collective, la transfiguration permanente.

Cette proposition de loi, loin de protéger durablement la culture française, l’affaiblit en pénalisant nos champions nationaux, en jetant des milliers de créateurs lambda dans un bourbier judiciaire coûteux et imprévisible, et en enrichissant surtout des intermédiaires institutionnels déjà solidement établis. Elle répète, à une échelle encore plus dangereuse et sophistiquée, les erreurs de la loi Hadopi : une bonne intention initiale transformée en machine bureaucratique lourde, coûteuse et finalement inadaptée aux mutations profondes du monde numérique.

L’article Droit d’auteur et IA : réponse aux défenseurs d’une mauvaise loi est apparu en premier sur Les Électrons Libres.

  •  

Quels sont les meilleurs jeux à lancer au moins une fois sur Nintendo Switch (1 et 2) ?

Avec plus de neuf années au compteur, la Switch campe sur un immense catalogue, et forcément, avec autant de choix, difficile de s'arrêter sur un titre. Chez Numerama, nous en avons testé une bonne centaine au fil des années (et des modèles) pour vous concocter ce top ultime des meilleurs jeux sur Switch 1 et 2 en 2026.

  •  

L’École 3.0 : quand l’IA enseigne, le prof éduque enfin

Doit-on confier l’éducation de nos enfants à l’IA ? Ou, au contraire, la proscrire des salles de classe ? Faux débat. Le véritable enjeu est ailleurs : l'IA peut mettre fin à la tyrannie des notes, et devenir un profond réducteur d'inégalités.

L'école publique semble à bout de souffle. Classes surchargées par endroits, corps professoral frôlant l'épuisement, absences non remplacées, effondrement du niveau dans les classements internationaux et creusement des inégalités sociales. Pendant que la société s'écharpe sur des débats devenus rituels comme le port de l'uniforme, la dictée quotidienne ou l'interdiction stricte des smartphones, une révolution silencieuse est en train de s'écrire dans les laboratoires de l'EdTech. Fini l'apprentissage passif et la sanction couperet de la note de fin de trimestre. Place à l'École 3.0. Sans tabou, et avec une puissance d'analyse inédite, la technologie prépare l'arrivée d'une intelligence artificielle qui s'imposera, non pas comme un énième gadget récréatif, mais comme un véritable professeur personnel. Un compagnon d'apprentissage sur mesure qui suivra chaque enfant, depuis son pupitre d'école jusqu'au bureau de sa chambre.

2035 : une journée ordinaire, du collège à la maison

Bordeaux, 8 h 30. Le silence règne dans la classe de 4e B du collège Montaigne. Pourtant, le cours de mathématiques bouillonne d'interactions invisibles. Sur chaque pupitre, une simple copie double, un stylo, et une tablette posée sur un bras articulé dont la caméra pointe vers la table. Lucas, 13 ans, s'attaque à une équation complexe. Il rédige ses calculs à la main. Il hésite, rature, puis se lance dans un développement hasardeux. Instantanément, une notification discrète apparaît sur l'écran de sa tablette. C'est « Luciole », l'assistant pédagogique de la classe. Lucas met son oreillette et chuchote : « Qu'est-ce qui coince ? ».

La voix chaleureuse et synthétique de l'IA lui répond en temps réel, directement dans le creux de l'oreille : « Ton début de raisonnement est parfaitement logique, Lucas. En revanche, si tu continues dans cette direction à la ligne 3, tu vas oublier de changer le signe en passant le chiffre de l'autre côté. Si je devais te noter maintenant, je t'enlèverais deux points pour cette erreur. Veux-tu que je t'explique pourquoi ? ».

C'est ce que les ingénieurs pédagogiques appellent le « devoir accompagné IA ». Lucas ne se contente pas d'écouter passivement la correction, il dialogue. Fini la peur du jugement liée à la prise de parole publique, il demande à la machine de lui réexpliquer la règle des signes dans le contexte précis de son calcul autant de fois que nécessaire. L'explication est chirurgicale, formulée pour lui. Lucas sourit, gomme son erreur et reprend son stylo de plus belle. L'apprentissage se fait par l'action corrigée, à la volée, comme avec un professeur particulier.

8 h 45. Au bureau, Nicolas, l'enseignant, ne surveille pas ses élèves d'un air oisif, plongé dans ses pensées. Les yeux rivés sur son ordinateur portable, il observe le tableau de bord de progression en temps réel de la classe s'animer en direct. Il voit l'évolution de la compréhension de ses vingt-huit élèves s'afficher sous forme de cartographie de données. La classe n'est plus cette éternelle « boîte noire » où ceux qui ne comprennent pas se cachent au fond de la salle pour échapper au regard du maître.

Sur son écran, le vert domine, mais deux autres signaux attirent son attention. Une zone rouge clignote avec insistance du côté de la rangée de la fenêtre : le logiciel indique à Nicolas que cinq élèves butent tous sur la même étape conceptuelle, malgré les relances de l'IA. Plus loin, un indicateur orange signale une inactivité prolongée. Léo et Maxime ne butent pas sur l'équation : ils bavardent tranquillou et leur stylo n'a pas touché la feuille depuis cinq minutes.

Article réservé à nos abonnés.

Lire la suite s'abonner dès 5€/mois

L’article L’École 3.0 : quand l’IA enseigne, le prof éduque enfin est apparu en premier sur Les Électrons Libres.

💾

  •  

Half-Life 2, Max Payne… Comment l’IA et le Path Tracing ressuscitent les jeux cultes des années 2000 [Sponso]

Cet article a été réalisé en collaboration avec NVIDIA

Et si les cartes graphiques Nvidia Geforce de 2026 rendaient les vieux jeux des années 2000 plus beaux ? L'idée est tellement séduisante que Nvidia a donné les outils pour le faire aux moddeurs. Son nom : RTX Remix. Voici tout ce qu'il faut savoir à son sujet.

Cet article a été réalisé en collaboration avec NVIDIA

Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa création. Nous nous engageons auprès de nos lecteurs pour que ces contenus soient intéressants, qualitatifs et correspondent à leurs intérêts.

En savoir plus

  •  

Néobanques (Revolut, N26, Bunq…) : comment déclarer son compte en banque aux impôts ?

Avec l'arrivée des beaux jours vient aussi le temps de la déclaration fiscale. Parmi les fastidieuses épreuves des impôts, il y a la déclaration de vos comptes bancaires auprès des « néobanques », comme N26 ou Revolut, qui, pour certains, sont des comptes à l'étranger. Vous avez peut-être ouvert un sous-compte étranger sans vous en rendre compte.

  •  

IA : Sacrifier notre avenir sur l’autel du droit d’auteur ?

Empêcher l’entraînement des IA en France, voire même leur commercialisation, au nom de la protection des auteurs. Irréaliste ? Délirant ? Économiquement criminel ? C’est pourtant le sens de la nouvelle loi votée à l’unanimité par nos sénateurs.

À l’abri de la lumière médiatique, le Sénat vient d’adopter à l’unanimité une proposition de loi sur le rapport entre l’IA et le droit d’auteur. Portée par la sénatrice Laure Darcos, elle a également reçu le soutien direct de Renaissance, de LR et du Parti communiste, dans un attelage pour le moins baroque. Ce texte introduit dans le Code de la propriété intellectuelle un article unique qui bouleverse l’équilibre entre création et innovation. Désormais, « sauf preuve contraire, l’œuvre ou l’objet protégé par un droit d’auteur ou par un droit voisin est présumé avoir été utilisé par le fournisseur du modèle ou du système d’intelligence artificielle, dès lors qu’un indice afférent au développement ou au déploiement de ce système ou au résultat généré par celui-ci rend vraisemblable cette utilisation ».

En d’autres termes, si un indice quelconque laisse penser qu’une IA a pu utiliser une œuvre protégée (un livre, une photo, une musique, etc.) pour s’entraîner ou pour générer un contenu, on considérera automatiquement que c’est le cas… sauf preuve du contraire. À partir de là, tout auteur ou ayant droit pourra engager une procédure judiciaire sur la base d’un simple indice (similarité stylistique ou graphique, etc.). De quoi encore davantage submerger nos tribunaux, déjà au bord de la crise de nerfs, et conduire les entreprises investies dans l’IA à passer leur temps à se défendre plutôt qu’à innover.

La charge de la preuve, qui pesait jusqu’alors sur les ayants droit, bascule donc sur les entreprises. L’intention proclamée est noble en apparence : mettre fin à ce que les défenseurs du texte qualifient de « pillage » ou de « moissonnage » massif des œuvres par les modèles génératifs. Mais, derrière cette rhétorique protectrice, se dissimule un dispositif qui menace non seulement l’essor de l’IA en France, mais aussi le principe même de la création, qu’elle soit humaine ou algorithmique. Ce texte, adopté dans une urgence presque fébrile, révèle une fois encore les travers d’une culture législative française qui, sous couvert de régulation vertueuse, étouffe l’innovation et saborde ses propres atouts dans la course technologique mondiale.

Le principe même des IA remis en cause

Au cœur de cette proposition réside une mise en danger fondamentale de l’entraînement des intelligences artificielles. Un modèle de langage de grande envergure, qu’il s’agisse des architectures open-weight de Mistral AI ou des systèmes plus opaques des géants américains, ne surgit pas du néant. Il se construit par une immersion profonde, une digestion statistique colossale de milliards de données textuelles, visuelles ou sonores collectées sur le web ouvert ou dans des corpus publics. Cet apprentissage, loin d’être une simple copie mécanique, consiste en une synthèse qui permet à la machine de recombiner des concepts et de générer des créations originales au profit de l’être humain qui les prompte.

Interdire ou rendre périlleux cet entraînement revient à nier la nature même de l’IA générative : un outil qui, comme l’esprit humain, progresse par imprégnation cumulative et transfiguration créatrice. Prétendre qu’un système doit rester vierge de toute influence antérieure pour être légitime, c’est ignorer que toute intelligence — biologique ou artificielle — s’élève précisément en absorbant un océan de connaissances préexistantes. Le texte du Sénat ne se contente pas de réguler l’usage ; il fragilise l’architecture cognitive elle-même des modèles, en rendant leur développement techniquement et juridiquement hasardeux sur le sol européen.

Une inversion de la charge de la preuve techniquement insurmontable

Cette fragilisation devient catastrophique lorsqu’on mesure l’ampleur de l’inversion de la charge de la preuve qu’impose le dispositif. Comment un fournisseur d’IA pourrait-il, en pratique, démontrer l’absence totale d’utilisation d’une œuvre protégée au sein de données qui atteignent souvent plusieurs centaines de téraoctets, accumulés sur des années ?

La « preuve contraire » exigerait soit une inspection exhaustive et rétroactive des données — une entreprise colossale, coûteuse et souvent impossible sans dévoiler les secrets industriels les plus sensibles —, soit une transparence forcée des algorithmes qui exposerait les acteurs européens à une vulnérabilité concurrentielle sans précédent face aux géants américains ou chinois, moins contraints par de telles obligations. Les contentieux se multiplieraient en un véritable tsunami judiciaire. Chaque génération de contenu « à la manière de », chaque restitution partielle pourrait déclencher une présomption de culpabilité. Les procédures s’éterniseraient devant les tribunaux, paralysant les startups comme les laboratoires de recherche, tandis que l’innovation stagnerait sous le poids d’une infernale machine administrative et contentieuse. Loin de protéger les créateurs, ce mécanisme risque de créer une insécurité juridique permanente.

Le droit d’auteur détourné de son essence philosophique

Mais le détournement le plus insidieux opéré par ce texte concerne sans doute le droit d’auteur lui-même, dont il pervertit le sens. Ce droit, dans sa philosophie forgée par les Lumières et affinée au fil des siècles, protège l’exploitation frauduleuse et directe d’une forme originale, singularisée par l’empreinte personnelle de son créateur. Il ne vise nullement à entraver l’inspiration, la lecture assidue, l’écoute répétée ou l’étude minutieuse des œuvres antérieures.

Toute l’histoire de l’art, cette longue chaîne ininterrompue de filiations et de ruptures, repose sur ce principe de digestion et de transfiguration. Les peintres de la Renaissance, qu’ils soient flamands ou italiens, copiaient inlassablement les maîtres antiques ou contemporains, analysaient leurs compositions, réinterprétaient leurs motifs avant de forger leur propre langage. Les compositeurs romantiques, de Beethoven à Chopin, s’abreuvaient des partitions de Bach, de Mozart ou de Haydn, non pour les plagier, mais pour les sublimer dans des formes nouvelles. Les écrivains du XXe siècle, de Proust à Joyce en passant par les surréalistes, dévoraient les textes de leurs prédécesseurs avec une voracité intellectuelle qui nourrissait leur génie propre.

Considérer qu’un modèle de langage ne peut s’entraîner sur les œuvres existantes équivaut, en réalité, à interdire au jeune artiste de décrypter les toiles de ses aînés ou au musicien en herbe d’écouter des milliers d’heures de répertoires avant de composer. L’IA ne procède pas autrement : elle lit, elle absorbe, elle synthétise à une échelle surhumaine. Elle ne reproduit pas ; elle recrée à partir d’une mémoire collective digérée à la demande d’un être humain. Assimiler cet apprentissage statistique à un vol revient à méconnaître la nature profonde de la création humaine, qui n’a jamais existé en vase clos, mais s’est toujours enrichie de l’héritage commun.

Quand la photo faisait aussi peur que l’IA

J’approfondis

La peur légitime des artistes, mais un combat mal orienté

Pourtant, la crainte qui anime de nombreux artistes face à cette révolution technologique est compréhensible. Ils voient leurs métiers menacés par des outils capables de produire en quelques secondes des textes, des images ou des compositions d’une qualité souvent époustouflante. Cette angoisse s’exprime avec une force particulière chez les comédiens et les instrumentistes, qui se sentent les premiers exposés au risque d’un remplacement pur et simple.

Leur combat est compréhensible, mais il n’en demeure pas moins mal orienté. Car face à l’IA, dont la perfection parfois froide et « inhumaine » peut laisser un sentiment de frustration chez une partie du public en quête d’authenticité, le spectacle vivant retrouve un boulevard inattendu et prometteur. Le théâtre, le concert, la performance en chair et en os regagnent leur noblesse primordiale : celle de l’incarnation physique, de la présence irremplaçable, de l’imperfection vibrante qui seule touche l’âme. Le public, lassé des productions trop lisses générées par des algorithmes, reviendra en masse vers la scène vivante, vers l’émotion partagée en temps réel.

Quant aux véritables créateurs — réalisateurs, scénaristes, romanciers, etc. —, l’intelligence artificielle ne les supplante pas ; elle les élève à un rang inédit. L’art du prompt, cette nouvelle forme d’écriture précise et nuancée, devient un talent décisif. Celui qui sait structurer sa pensée avec rigueur, affiner son langage, anticiper les subtilités d’une machine probabiliste obtient d’elle exactement ce que son esprit imagine, sans recourir à des processus de production extrêmement coûteux en temps, en énergie ou en ressources. Loin de dévaloriser les littéraires, l’IA les replace au cœur du jeu créatif.

Le syndrome normatif français : légiférer d’abord, comprendre ensuite

On ne peut s’empêcher de reconnaître dans ce texte le symptôme récurrent d’un défaut normatif profondément ancré dans la culture administrative et politique française. Notre pays a toujours manifesté une propension singulière à vouloir légiférer sur tout, et particulièrement sur les innovations issues du secteur privé. Le politique, souvent dépassé par la rapidité fulgurante du monde numérique, réagit par un réflexe réglementaire pavlovien, comme il l’avait fait naguère avec la loi Hadopi. Celle-ci, adoptée en 2009 dans un élan de protection de la création face au téléchargement illégal, est restée dans les mémoires comme un exemple emblématique de dispositif hors-sol, inefficace et contourné par la technologie elle-même.

Ici encore, on légifère sans pleinement appréhender les enjeux, les dynamiques de concurrence internationale ni les subtilités techniques de l’entraînement des modèles. On veut protéger la culture en entravant l’outil même qui pourrait la démultiplier, la rendre accessible à tous et enrichir le terreau créatif français. En réalité, derrière chaque épisode législatif similaire concernant la propriété intellectuelle, on retrouve à la manœuvre les très influents organismes de gestion collective (les fameuses Sacem, SACD, Scam…). Ils ont été à la source d’Hadopi, de la directive copyright et de sa transposition, mais sont aussi parvenus, en 2021, via la loi REEN (réduction de l’empreinte environnementale du numérique), à tordre le bras du législateur pour lui imposer l’introduction d’un prélèvement obligatoire sur les matériels d’occasion reversé aux ayants droit, au titre de la redevance sur la copie privée.

Très chère Hadopi

J’approfondis

Un tir dans le pied face à un potentiel exceptionnel

In fine, ce texte témoigne d’une double et douloureuse distance. Entre l’état du politique et celui de la société d’une part, et entre la France et son propre potentiel d’autre part. Car notre pays dispose, dans le domaine de l’intelligence artificielle, mais aussi dans la biotechnologie, les techniques CRISPR, les nouvelles technologies génétiques, les startups innovantes et la recherche médicale de pointe, d’atouts et de talents d’une rare qualité. Mistral AI, notre fleuron national, incarnait jusqu’ici l’espoir d’une Europe souveraine capable de rivaliser avec les géants d’outre-Atlantique. Cette proposition de loi risque de remettre en cause son existence même sur le sol français, à moins qu’elle ne choisisse, comme d’autres acteurs l’ont déjà laissé entendre, de délocaliser ses activités vers des juridictions plus accueillantes. Ce serait alors l’illustration tragique de notre capacité à saborder nos champions au nom d’une régulation prétendument protectrice.

L’avenir de la France en matière d’innovation ne doit pas se jouer dans des prétoires surchargés ni dans les commissions parlementaires qui cherchent à tout encadrer avant même d’avoir compris les enjeux profonds des sujets qu’elles abordent. Il s’exprimera dans notre capacité collective à accompagner le progrès tout en préservant l’essence de la création humaine. À l’Assemblée nationale, il est encore temps de refuser ce texte ou de le rééquilibrer en profondeur. Non pour abandonner les artistes, mais pour refuser le faux dilemme entre culture et innovation. Car l’une et l’autre ne s’opposent pas, mais se nourrissent mutuellement depuis la nuit des temps. L’intelligence artificielle n’est pas l’ennemie de l’esprit créateur ; elle en constitue un prolongement prometteur. La France a le choix : devenir le pays qui régule l’avenir jusqu’à l’étouffer, ou celui qui l’invente avec audace, intelligence et une confiance retrouvée en son génie propre.

L’article IA : Sacrifier notre avenir sur l’autel du droit d’auteur ? est apparu en premier sur Les Électrons Libres.

  •  

La maison de Sam Altman attaquée deux fois en 48 heures, sur fond de tensions croissantes autour de l’IA

Après une attaque au cocktail Molotov, la résidence de Sam Altman a de nouveau été visée, cette fois par des tirs, dans la nuit du 11 au 12 avril 2026 à San Francisco. Ces faits, qui ont conduit à plusieurs arrestations, interviennent dans un climat de forte polarisation autour du développement de l’IA.

  •  

First US Newsroom Strike For AI Protections Staged by ProPublica's Journalists

It's the first time a major U.S. newsroom has gone on strike partly to demand protections from AI-related layoffs, according to a report from Nieman Lab. They noted that one of the picketer's signs read "Thoughts not bots," : On Wednesday, roughly 150 members of the Propublica Guild, one of the largest nonprofit newsroom unions in the country, went on a 24-hour strike. About two dozen Guild members picketed ProPublica's headquarters in New York City's Hudson Square neighborhood during working hours, as simultaneous picket lines formed in front of the publication's offices in Chicago and Washington D.C... The Guild has been negotiating its first collective bargaining agreement for two and a half years, and the one-day action was intended to put new pressure on ProPublica's management to agree to several contract proposals. The union is seeking "just cause" protections for terminations, wage increases to keep up with the rising cost of living, and contract language that would prohibit layoffs resulting from AI adoption... Beyond the strike, the ProPublica Guild has also taken its dispute over newsroom AI adoption to the National Labor Relations Board (NLRB). On Monday, the Guild filed an unfair-labor-practice charge, citing a "unilateral implementation of AI policy." The filing claims that ProPublica published AI editorial guidelines on its website last month, without first bargaining with union members over its tenets and language... A petition launched Wednesday calling for ProPublica to agree to the Guild's contract terms had received roughly 4,200 signatures by Thursday morning... Susan DeCarava, the president of The NewsGuild of New York, joined strikers in front of the ProPublica offices yesterday. During a spare moment on the picket line, she told me that while this strike may be setting precedent for her union, it likely won't be the last over AI adoption in newsrooms. "We're going to see more and more concentrated conflicts between media bosses and journalists and media workers over who has a say and how AI is used in their workplaces," she said. For one, The New York Times Guild is currently in contract negotiations after its last agreement expired in February. Already, AI language has taken center stage in the Guild's initial bargaining sessions, including over a proposal that would see Guild members receive a share of the revenue earned when their work is licensed for AI training. "Management has offered expanded severance for AI-related layoffs as a counter proposal..." according to the article.

Read more of this story at Slashdot.

  •  

ChatGPT lance un nouvel abonnement à… 103 euros par mois

Comme Claude, OpenAI sépare désormais son abonnement ChatGPT Pro en deux niveaux, à 103 euros par mois (5 fois moins de limites) ou 229 euros par mois (20 fois moins de limites). L'entreprise veut s'adresser aux utilisateurs les plus demandeurs, notamment pour son outil de développement Codex, mais qui n'ont pas besoin du ChatGPT Pro le plus cher.

  •  

L’IA aurait dû rester en laboratoire : le patron de Google DeepMind regrette que ChatGPT soit sorti trop vite

Invité du podcast de Cleo Abram, Demis Hassabis, le patron de Google DeepMind, est longuement revenu sur l'émergence de l'IA générative commerciale en 2022, qui a d'abord pris Google par surprise. Le prix Nobel de chimie s'interroge sur l'intérêt d'avoir publié aussi rapidement cette technologie au grand public : les laboratoires auraient peut-être utilisé leur temps autrement si la lutte acharnée pour avoir le meilleur modèle n'avait pas commencé.

  •  
❌