Vue normale

Reçu — 20 avril 2026 Actualités numériques

Apple tourne officiellement la page de Tim Cook

20 avril 2026 à 21:04
Pour ses 50 ans, Apple s'offre un nouveau patron
Apple tourne officiellement la page de Tim Cook

Tim Cook cédera son siège de PDG d’Apple à John Ternus au 1er septembre. L’annonce était attendue depuis des mois, elle est désormais officielle. Johny Srouji, qui était jusqu’à présent chargé des puces du constructeur, remplace le futur CEO au poste de directeur du matériel.

Après des mois, voire des années, de rumeurs et de bruit de couloir, Apple a annoncé ce lundi 20 avril la fin d’une ère, celle de Tim Cook. En poste depuis 2011 à la tête du groupe, celui qui occupait jusqu’à présent la fonction de directeur des opérations laissera la main le 1ᵉʳ septembre à son dauphin depuis longtemps désigné, John Ternus, actuellement vice-président senior de l’ingénierie matérielle. 

John Ternus reprend le flambeau

Tim Cook ne sera pas bien loin : il deviendra en effet président exécutif du conseil d’administration d’Apple qui a approuvé ce plan de transition « réfléchi et planifié sur le long terme ». À 65 ans, le remplaçant de Steve Jobs continuera de travailler pour Apple, « notamment en échangeant avec les décideurs publics à travers le monde ». Aux États-Unis, en Chine, en Europe, il n’a cessé ces dernières années de défendre les intérêts de son entreprise, un rôle qu’il affectionne envers et contre tout.

« Aujourd’hui, nous avons annoncé que je franchissais une nouvelle étape de mon parcours chez Apple. Au cours des prochains mois, je vais progressivement passer à un nouveau rôle, en quittant mes fonctions de directeur général en septembre pour devenir président exécutif », écrit Tim Cook dans une « lettre à la communauté ». Il tresse évidemment des lauriers à son successeur, John Ternus, « un ingénieur et penseur brillant, qui consacre depuis 25 ans son travail à concevoir les produits Apple que nos utilisateurs apprécient tant ».

John Ternus et son remplaçant au poste de directeur du matériel, Johny Srouji. Images : Apple

John Ternus n’est effectivement pas un nouveau venu. À 51 ans, il a fait quasiment toute sa carrière chez Apple. « J’ai eu la chance de travailler sous la direction de Steve Jobs et d’avoir Tim Cook comme mentor», explique-t-il. Le futur CEO se dit « rempli d’optimisme » pour l’avenir. « J’aborde ce rôle avec humilité, et je m’engage à diriger avec les valeurs et la vision qui définissent ce lieu unique [Apple] depuis un demi-siècle ».

Johny Srouji, à qui l’on doit la conception de toutes les puces Apple depuis l’A4 en 2008, prend dès à présent le rôle de chef de l’ingénierie matérielle.

Tim Cook a franchi les portes du 1, Infinite Loop (l’Apple Park n’existait pas, à l’époque) en 1998. Ancien d’IBM, où il a travaillé pendant 12 ans, puis de Compaq, il arrive peu de temps après un Steve Jobs de retour aux commandes d’une entreprise bien malade. Il devient un rouage essentiel dans la réussite d’Apple, en mettant en place une infrastructure de production extrêmement efficace au service de l’iMac, de l’iPod, de l’iPhone, de l’iPad et de tous les autres produits d’Apple.

Depuis 2011, il a transformé l’essai, en faisant d’Apple une des entreprises les plus rentables au monde, un véritable mastodonte dont la capitalisation boursière atteint des sommets vertigineux (4 000 milliards de dollars). Il n’a certes pas tout réussi – confère le flop du Vision Pro ou le retard dans l’IA générative –, mais sans réinventer la roue, il a su surfer intelligemment sur le succès de l’iPhone et des produits imaginés par son prédécesseur.

Apple tourne officiellement la page de Tim Cook

20 avril 2026 à 21:04
Pour ses 50 ans, Apple s'offre un nouveau patron
Apple tourne officiellement la page de Tim Cook

Tim Cook cédera son siège de PDG d’Apple à John Ternus au 1er septembre. L’annonce était attendue depuis des mois, elle est désormais officielle. Johny Srouji, qui était jusqu’à présent chargé des puces du constructeur, remplace le futur CEO au poste de directeur du matériel.

Après des mois, voire des années, de rumeurs et de bruit de couloir, Apple a annoncé ce lundi 20 avril la fin d’une ère, celle de Tim Cook. En poste depuis 2011 à la tête du groupe, celui qui occupait jusqu’à présent la fonction de directeur des opérations laissera la main le 1ᵉʳ septembre à son dauphin depuis longtemps désigné, John Ternus, actuellement vice-président senior de l’ingénierie matérielle. 

John Ternus reprend le flambeau

Tim Cook ne sera pas bien loin : il deviendra en effet président exécutif du conseil d’administration d’Apple qui a approuvé ce plan de transition « réfléchi et planifié sur le long terme ». À 65 ans, le remplaçant de Steve Jobs continuera de travailler pour Apple, « notamment en échangeant avec les décideurs publics à travers le monde ». Aux États-Unis, en Chine, en Europe, il n’a cessé ces dernières années de défendre les intérêts de son entreprise, un rôle qu’il affectionne envers et contre tout.

« Aujourd’hui, nous avons annoncé que je franchissais une nouvelle étape de mon parcours chez Apple. Au cours des prochains mois, je vais progressivement passer à un nouveau rôle, en quittant mes fonctions de directeur général en septembre pour devenir président exécutif », écrit Tim Cook dans une « lettre à la communauté ». Il tresse évidemment des lauriers à son successeur, John Ternus, « un ingénieur et penseur brillant, qui consacre depuis 25 ans son travail à concevoir les produits Apple que nos utilisateurs apprécient tant ».

John Ternus et son remplaçant au poste de directeur du matériel, Johny Srouji. Images : Apple

John Ternus n’est effectivement pas un nouveau venu. À 51 ans, il a fait quasiment toute sa carrière chez Apple. « J’ai eu la chance de travailler sous la direction de Steve Jobs et d’avoir Tim Cook comme mentor», explique-t-il. Le futur CEO se dit « rempli d’optimisme » pour l’avenir. « J’aborde ce rôle avec humilité, et je m’engage à diriger avec les valeurs et la vision qui définissent ce lieu unique [Apple] depuis un demi-siècle ».

Johny Srouji, à qui l’on doit la conception de toutes les puces Apple depuis l’A4 en 2008, prend dès à présent le rôle de chef de l’ingénierie matérielle.

Tim Cook a franchi les portes du 1, Infinite Loop (l’Apple Park n’existait pas, à l’époque) en 1998. Ancien d’IBM, où il a travaillé pendant 12 ans, puis de Compaq, il arrive peu de temps après un Steve Jobs de retour aux commandes d’une entreprise bien malade. Il devient un rouage essentiel dans la réussite d’Apple, en mettant en place une infrastructure de production extrêmement efficace au service de l’iMac, de l’iPod, de l’iPhone, de l’iPad et de tous les autres produits d’Apple.

Depuis 2011, il a transformé l’essai, en faisant d’Apple une des entreprises les plus rentables au monde, un véritable mastodonte dont la capitalisation boursière atteint des sommets vertigineux (4 000 milliards de dollars). Il n’a certes pas tout réussi – confère le flop du Vision Pro ou le retard dans l’IA générative –, mais sans réinventer la roue, il a su surfer intelligemment sur le succès de l’iPhone et des produits imaginés par son prédécesseur.

☕️ Spliiit ne peut plus partager d’abonnements Ligue 1+

20 avril 2026 à 13:15


Spliiit, le service qui permet de partager à plusieurs le prix d’un abonnement à un service en ligne, enfreint les conditions générales d’utilisation de Ligue 1 +. Saisi par la Ligue de football professionnel (LFP), le tribunal judiciaire de Paris a condamné la plateforme par une ordonnance de référé rendue le 15 avril.

Illustration : Flock

Les CGU de Ligue 1 +, le service de streaming mis en place l’an dernier par LFP Media, interdisent explicitement tout partage d’abonnement en dehors du foyer sur des plateformes tierces. Spliiit a causé un « préjudice commercial direct » à Ligue 1 + en se rendant complice de la violation de ces obligations contractuelles, d’après le juge. Le service de partage d’abonnements garantissait « faussement » la légalité de son offre Ligue 1 +.

Les CGU de Ligue 1 +précisent en effet qu’« un compte Abonné LIGUE 1 + ne peut faire, en aucun cas, partie d’une offre d’abonnement collaboratif à titre commercial, et/ou distribuée par un service tiers. » L’abonnement standard revient à 14,99 euros par mois, ce qui autorise deux écrans en simultané dans un même foyer… ou pas, car sur X (anciennement Twitter), le service précisait que ce forfait ne présentait pas de notion de foyer.

Pour ne rien arranger, le juge a aussi retenu l’existence d’une « contrefaçon vraisemblable » de la marque Ligue 1 + pour promouvoir son service. Ce faisant, l’entreprise porte atteinte aux droits de propriété intellectuelle du groupe LFP. Par conséquent, Spliiit a interdiction de proposer ce service ou d’utiliser la marque Ligue 1 +, sous peine d’une astreinte de 300 euros par jour de retard. Le service doit également supprimer toute offre de partage d’abonnement à Ligue 1 +, là aussi sous la même astreinte (de fait, c’est le cas sur le site web).

Enfin, Spliiit est condamnée aux entiers dépens de l’instance, autrement dit elle doit régler l’ensemble des frais liés à la procédure judiciaire. Le service de partage d’abonnements affirme dans sa FAQ respecter les termes et conditions des plateformes : « Le partage d’abonnement est légal tant qu’il respecte les règles d’utilisation des plateformes et Spliiit garantit une utilisation conforme et sécurisée. » Ce qui n’était manifestement pas le cas pour Ligue 1 +, d’après la justice.

En septembre dernier, dans le cadre d’une autre procédure judiciaire débutée en 2021, Spliiit se disait prête à discuter avec Apple, Disney et Netflix, regroupés au sein de l’Alliance for Creativity and Entertainment (ACE). La justice a demandé une médiation entre toutes les parties.

Pour la LFP, cette condamnation est « une étape importante dans la protection de la valeur des droits du football professionnel français et de ses contenus exclusifs ». La Ligue est particulièrement engagée dans ce domaine. On l’a encore vu le mois dernier, avec une condamnation ayant visé des utilisateurs finaux de boîtiers IPTV par le parquet d’Arras. Ces sanctions s’ajoutent aux nombreuses actions en justice menées par la Ligue ces dernières années pour faire bloquer les sites web diffusant illégalement des compétitions, y compris par les VPN.

☕️ Spliiit ne peut plus partager d’abonnements Ligue 1+

20 avril 2026 à 13:15


Spliiit, le service qui permet de partager à plusieurs le prix d’un abonnement à un service en ligne, enfreint les conditions générales d’utilisation de Ligue 1 +. Saisi par la Ligue de football professionnel (LFP), le tribunal judiciaire de Paris a condamné la plateforme par une ordonnance de référé rendue le 15 avril.

Illustration : Flock

Les CGU de Ligue 1 +, le service de streaming mis en place l’an dernier par LFP Media, interdisent explicitement tout partage d’abonnement en dehors du foyer sur des plateformes tierces. Spliiit a causé un « préjudice commercial direct » à Ligue 1 + en se rendant complice de la violation de ces obligations contractuelles, d’après le juge. Le service de partage d’abonnements garantissait « faussement » la légalité de son offre Ligue 1 +.

Les CGU de Ligue 1 +précisent en effet qu’« un compte Abonné LIGUE 1 + ne peut faire, en aucun cas, partie d’une offre d’abonnement collaboratif à titre commercial, et/ou distribuée par un service tiers. » L’abonnement standard revient à 14,99 euros par mois, ce qui autorise deux écrans en simultané dans un même foyer… ou pas, car sur X (anciennement Twitter), le service précisait que ce forfait ne présentait pas de notion de foyer.

Pour ne rien arranger, le juge a aussi retenu l’existence d’une « contrefaçon vraisemblable » de la marque Ligue 1 + pour promouvoir son service. Ce faisant, l’entreprise porte atteinte aux droits de propriété intellectuelle du groupe LFP. Par conséquent, Spliiit a interdiction de proposer ce service ou d’utiliser la marque Ligue 1 +, sous peine d’une astreinte de 300 euros par jour de retard. Le service doit également supprimer toute offre de partage d’abonnement à Ligue 1 +, là aussi sous la même astreinte (de fait, c’est le cas sur le site web).

Enfin, Spliiit est condamnée aux entiers dépens de l’instance, autrement dit elle doit régler l’ensemble des frais liés à la procédure judiciaire. Le service de partage d’abonnements affirme dans sa FAQ respecter les termes et conditions des plateformes : « Le partage d’abonnement est légal tant qu’il respecte les règles d’utilisation des plateformes et Spliiit garantit une utilisation conforme et sécurisée. » Ce qui n’était manifestement pas le cas pour Ligue 1 +, d’après la justice.

En septembre dernier, dans le cadre d’une autre procédure judiciaire débutée en 2021, Spliiit se disait prête à discuter avec Apple, Disney et Netflix, regroupés au sein de l’Alliance for Creativity and Entertainment (ACE). La justice a demandé une médiation entre toutes les parties.

Pour la LFP, cette condamnation est « une étape importante dans la protection de la valeur des droits du football professionnel français et de ses contenus exclusifs ». La Ligue est particulièrement engagée dans ce domaine. On l’a encore vu le mois dernier, avec une condamnation ayant visé des utilisateurs finaux de boîtiers IPTV par le parquet d’Arras. Ces sanctions s’ajoutent aux nombreuses actions en justice menées par la Ligue ces dernières années pour faire bloquer les sites web diffusant illégalement des compétitions, y compris par les VPN.

Un an après sa mort, Val Kilmer (ou plutôt son clone IA) de retour au cinéma

20 avril 2026 à 07:09
Un rôle joué par personne
Un an après sa mort, Val Kilmer (ou plutôt son clone IA) de retour au cinéma

Val Kilmer, décédé l’an dernier, va faire son grand retour au cinéma… sous la forme d’un clone IA. L’acteur, connu pour ses rôles dans Top Gun, Heat ou encore The Doors, est en effet au casting de As Deep as the Grave, bien qu’il n’ait jamais été physiquement présent sur le tournage pour des raisons de santé.

Le film, réalisé par Coerte Voorhees et produit par son frère, John Voorhees, se déroule dans les années 20. Il s’inspire de l’histoire réelle d’un couple d’archéologues, Earl et Ann Morris, et de leur travail dans un canyon d’Arizona où ils mettent au jour une civilisation précolombienne du Sud-Ouest américain, les Anasazi. Val Kilmer joue le rôle du père Fintan, un prêtre catholique souffrant de tuberculose.

Une performance sans acteur

Intéressé par le sujet, l’acteur avait accepté de participer au film plusieurs années avant le premier tour de manivelle. Mais son état de santé ne lui a pas permis de tenir son rôle. Le tournage a été très compliqué : les premières scènes ont été mises en boîte fin 2020, en plein Covid, et se sont terminées l’année suivante tandis que la production s’est étirée sur un total de six ans. Devant l’impossibilité d’avoir Kilmer, le réalisateur et son équipe ont décidé de supprimer du scénario le rôle de Fintan.

Mais voilà : le réalisateur trouvait que sans Val Kilmer, il manquait quelque chose à l’histoire. « C’était l’acteur que je voulais pour incarner ce rôle », a-t-il expliqué à Variety. « Le personnage a vraiment été conçu autour de lui. Il s’inspirait de ses origines amérindiennes, ainsi que de son lien et de son attachement au Sud-Ouest ». Dans ce contexte, impossible donc de choisir un autre acteur…

C’est pourquoi lui et son équipe sont allés voir la famille de l’acteur pour leur demander l’autorisation d’utiliser l’apparence et la voix de Val Kilmer, générées par IA. « Il a toujours considéré les technologies émergentes avec optimisme », assure sa fille Mercedes Kilmer. « C’est cet esprit que nous honorons tous dans ce film en particulier, dont il faisait partie intégrante. »

La première bande-annonce dévoilée à l’occasion du CinemaCon de Los Angeles ne cache pas l’acteur, reproduit dans sa quarantaine. Les deux frères, répondant aux questions des professionnels sur place, sont évidemment au courant de la controverse autour de leur film. N’est-ce pas là ouvrir la boîte de Pandore, alors que de nombreux comédiens et comédiennes craignent que les studios ne « volent » leur apparence pour les reproduire avec l’IA ?

Les critiques « ont tout à fait le droit de le dire », a répondu John Voorhees auprès d’IGN. Les frères ont fait « ce que nous pensons être la seule manière vraiment éthique de procéder dans un cas comme celui-ci », en obtenant l’aval de la famille. Cette dernière a d’ailleurs participé à la re-création de l’acteur, en fournissant une grande quantité d’images personnelles comme référence.

Qui joue réellement à l’écran ?

La production a suivi les recommandations du syndicat des acteurs, le SAG, pour ce type de procédures : « consentement, compensation et collaboration ». Val Kilmer, ou plutôt son clone IA, ne fera pas qu’un simple caméo : dans le montage actuel du film (dont on ignore la durée totale), il apparait en effet pendant une heure et dix-sept minutes !

Cette « performance » IA n’est évidemment pas sans poser de très sérieuses questions sur la fabrication du cinéma et le travail des acteurs. Il ne s’agit pas d’un comédien sur lequel on aurait greffé le visage de Val Kilmer en post-production, ni même d’images de synthèse comme on l’entend traditionnellement. L’IA réalise un pastiche de l’acteur, en se basant sur ses précédentes apparitions. Elle ne sera jamais capable de « sentir » une scène, de proposer une interprétation réellement inédite.

On verra aussi le naturel (ou son absence) d’interactions entre ce Val Kilmer IA et les autres acteurs, ce d’autant que les scènes avec l’acteur ont été créées bien après le tournage proprement dit. Le producteur explique qu’il y a eu un gros travail de montage, « de magie du cinéma » comme il le décrit. « L’objectif est que le public croie à ce qu’il voit à l’écran. Nous utilisons tous les outils à notre disposition, et nous en avons désormais de nouveaux. »

John Voorhees a eu cette curieuse réflexion : la re-création IA de Val Kilmer dans le film serait l’équivalent de Val Kilmer incarnant Jim Morrison dans The Doors – ce n’est pas le véritable chanteur que l’on voit, c’est un acteur qui l’incarne. Alors pourquoi interdire à une IA de faire la même chose ? L’argument est biaisé : dans le film d’Oliver Stone, c’est un être humain qui en joue un autre, et le talent de Val Kilmer a emporté l’adhésion.

Dans la bande-annonce de 90 secondes, les quelques mots de la dernière séquence – prononcés par le clone IA de Val Kilmer à une petite fille – peuvent s’entendre de plusieurs manières : « N’aie pas peur des morts et n’aie pas peur de moi ».

La voix de Val Kilmer avait déjà été « restaurée » par IA

Ce n’est pas la première rencontre entre Val Kilmer et l’intelligence artificielle. Dans Top Gun : Maverick, l’acteur reprenait son rôle d’Iceman pour quelques secondes à l’écran, avec quelques lignes de dialogue. L’acteur était atteint d’un cancer de la gorge et avait subi une trachéotomie altérant fortement sa voix.

« En 2021, Val Kilmer annonçait un partenariat avec Sonantic, une compagnie spécialisée dans l’intelligence artificielle, afin de recréer sa voix. L’acteur a fourni à l’entreprise des heures de séquences d’archives avec sa voix parlée », expliquait Première. Val Kilmer affirmait alors être « reconnaissant envers toute l’équipe de Sonantic qui a magistralement restauré ma voix, d’une manière que je n’aurais jamais imaginée possible. En tant qu’êtres humains, la communication est au cœur de notre existence […] ». Ce n’est désormais plus seulement sa voix, mais l’acteur au complet.

Un an après sa mort, Val Kilmer (ou plutôt son clone IA) de retour au cinéma

20 avril 2026 à 07:09
Un rôle joué par personne
Un an après sa mort, Val Kilmer (ou plutôt son clone IA) de retour au cinéma

Val Kilmer, décédé l’an dernier, va faire son grand retour au cinéma… sous la forme d’un clone IA. L’acteur, connu pour ses rôles dans Top Gun, Heat ou encore The Doors, est en effet au casting de As Deep as the Grave, bien qu’il n’ait jamais été physiquement présent sur le tournage pour des raisons de santé.

Le film, réalisé par Coerte Voorhees et produit par son frère, John Voorhees, se déroule dans les années 20. Il s’inspire de l’histoire réelle d’un couple d’archéologues, Earl et Ann Morris, et de leur travail dans un canyon d’Arizona où ils mettent au jour une civilisation précolombienne du Sud-Ouest américain, les Anasazi. Val Kilmer joue le rôle du père Fintan, un prêtre catholique souffrant de tuberculose.

Une performance sans acteur

Intéressé par le sujet, l’acteur avait accepté de participer au film plusieurs années avant le premier tour de manivelle. Mais son état de santé ne lui a pas permis de tenir son rôle. Le tournage a été très compliqué : les premières scènes ont été mises en boîte fin 2020, en plein Covid, et se sont terminées l’année suivante tandis que la production s’est étirée sur un total de six ans. Devant l’impossibilité d’avoir Kilmer, le réalisateur et son équipe ont décidé de supprimer du scénario le rôle de Fintan.

Mais voilà : le réalisateur trouvait que sans Val Kilmer, il manquait quelque chose à l’histoire. « C’était l’acteur que je voulais pour incarner ce rôle », a-t-il expliqué à Variety. « Le personnage a vraiment été conçu autour de lui. Il s’inspirait de ses origines amérindiennes, ainsi que de son lien et de son attachement au Sud-Ouest ». Dans ce contexte, impossible donc de choisir un autre acteur…

C’est pourquoi lui et son équipe sont allés voir la famille de l’acteur pour leur demander l’autorisation d’utiliser l’apparence et la voix de Val Kilmer, générées par IA. « Il a toujours considéré les technologies émergentes avec optimisme », assure sa fille Mercedes Kilmer. « C’est cet esprit que nous honorons tous dans ce film en particulier, dont il faisait partie intégrante. »

La première bande-annonce dévoilée à l’occasion du CinemaCon de Los Angeles ne cache pas l’acteur, reproduit dans sa quarantaine. Les deux frères, répondant aux questions des professionnels sur place, sont évidemment au courant de la controverse autour de leur film. N’est-ce pas là ouvrir la boîte de Pandore, alors que de nombreux comédiens et comédiennes craignent que les studios ne « volent » leur apparence pour les reproduire avec l’IA ?

Les critiques « ont tout à fait le droit de le dire », a répondu John Voorhees auprès d’IGN. Les frères ont fait « ce que nous pensons être la seule manière vraiment éthique de procéder dans un cas comme celui-ci », en obtenant l’aval de la famille. Cette dernière a d’ailleurs participé à la re-création de l’acteur, en fournissant une grande quantité d’images personnelles comme référence.

Qui joue réellement à l’écran ?

La production a suivi les recommandations du syndicat des acteurs, le SAG, pour ce type de procédures : « consentement, compensation et collaboration ». Val Kilmer, ou plutôt son clone IA, ne fera pas qu’un simple caméo : dans le montage actuel du film (dont on ignore la durée totale), il apparait en effet pendant une heure et dix-sept minutes !

Cette « performance » IA n’est évidemment pas sans poser de très sérieuses questions sur la fabrication du cinéma et le travail des acteurs. Il ne s’agit pas d’un comédien sur lequel on aurait greffé le visage de Val Kilmer en post-production, ni même d’images de synthèse comme on l’entend traditionnellement. L’IA réalise un pastiche de l’acteur, en se basant sur ses précédentes apparitions. Elle ne sera jamais capable de « sentir » une scène, de proposer une interprétation réellement inédite.

On verra aussi le naturel (ou son absence) d’interactions entre ce Val Kilmer IA et les autres acteurs, ce d’autant que les scènes avec l’acteur ont été créées bien après le tournage proprement dit. Le producteur explique qu’il y a eu un gros travail de montage, « de magie du cinéma » comme il le décrit. « L’objectif est que le public croie à ce qu’il voit à l’écran. Nous utilisons tous les outils à notre disposition, et nous en avons désormais de nouveaux. »

John Voorhees a eu cette curieuse réflexion : la re-création IA de Val Kilmer dans le film serait l’équivalent de Val Kilmer incarnant Jim Morrison dans The Doors – ce n’est pas le véritable chanteur que l’on voit, c’est un acteur qui l’incarne. Alors pourquoi interdire à une IA de faire la même chose ? L’argument est biaisé : dans le film d’Oliver Stone, c’est un être humain qui en joue un autre, et le talent de Val Kilmer a emporté l’adhésion.

Dans la bande-annonce de 90 secondes, les quelques mots de la dernière séquence – prononcés par le clone IA de Val Kilmer à une petite fille – peuvent s’entendre de plusieurs manières : « N’aie pas peur des morts et n’aie pas peur de moi ».

La voix de Val Kilmer avait déjà été « restaurée » par IA

Ce n’est pas la première rencontre entre Val Kilmer et l’intelligence artificielle. Dans Top Gun : Maverick, l’acteur reprenait son rôle d’Iceman pour quelques secondes à l’écran, avec quelques lignes de dialogue. L’acteur était atteint d’un cancer de la gorge et avait subi une trachéotomie altérant fortement sa voix.

« En 2021, Val Kilmer annonçait un partenariat avec Sonantic, une compagnie spécialisée dans l’intelligence artificielle, afin de recréer sa voix. L’acteur a fourni à l’entreprise des heures de séquences d’archives avec sa voix parlée », expliquait Première. Val Kilmer affirmait alors être « reconnaissant envers toute l’équipe de Sonantic qui a magistralement restauré ma voix, d’une manière que je n’aurais jamais imaginée possible. En tant qu’êtres humains, la communication est au cœur de notre existence […] ». Ce n’est désormais plus seulement sa voix, mais l’acteur au complet.

☕️ Après le code, Claude génère des interfaces

20 avril 2026 à 06:16


Les designers d’interface qui se pensaient à l’abri du tsunami de l’IA générative peuvent trembler. Anthropic a en effet présenté Claude Design, un nouvel outil encore à l’état expérimental, qui génère des interfaces à partir d’une requête texte. Cela peut être pour une application, un site web, une présentation, des assets pour réseaux sociaux, des visuels pour une campagne, etc.

Claude, comme d’autres IA génératives, peut déjà générer et modifier des interfaces depuis longtemps, dont le design « par défaut » était facilement repérable. La différence ici est de prendre l’utilisateur davantage par la main en lui permettant de « tweaker » l’interface dans son ensemble ou de modifier certaines parties plus facilement.

L’entreprise donne un exemple parlant : « prototype une application mobile de méditation apaisante. Elle doit avoir une typographie douce, des couleurs subtiles inspirées de la nature, et une interface épurée ». La première version de l’interface générée par Claude peut ensuite être affinée en approfondissant la conversation avec le bot, avec les commentaires intégrés, ou en jouant avec des curseurs personnalisés. Claude Design peut également appliquer à chaque projet l’ensemble des règles graphiques, des couleurs, des typos, des composants d’interface et les bonnes pratiques de l’équipe.

Claude Design se destine principalement aux créateurs d’entreprises, aux chefs produit et aux responsables marketing pour créer et partager des idées de design. Sans formation, il est parfois difficile, voire intimidant, de se lancer tout seul dans l’UI. L’outil permet aussi de multiplier les itérations et de tester des versions.

Ce nouvel outil semble concurrencer frontalement Canva, mais il s’agit plutôt d’un complément. Il est d’ailleurs possible d’exporter les créations de Claude Design dans Canva, mais aussi en PDF ou PPTX (PowerPoint). L’annonce a néanmoins eu un impact à la baisse pour les actions d’Adobe et surtout de Figma, un atelier de création d’interfaces d’apps, de sites web ou de logiciels plus complet que Canva.

Claude Design, qui s’appuie sur Opus 4.7 est proposé aux clients Pro, Max, Team et Enterprise. Il complète d’autres services orientés vers les entreprises et les organisations, à l’instar de Claude Cowork, un agent pour traiter des tâches de bureau à sa place.

☕️ Après le code, Claude génère des interfaces

20 avril 2026 à 06:16


Les designers d’interface qui se pensaient à l’abri du tsunami de l’IA générative peuvent trembler. Anthropic a en effet présenté Claude Design, un nouvel outil encore à l’état expérimental, qui génère des interfaces à partir d’une requête texte. Cela peut être pour une application, un site web, une présentation, des assets pour réseaux sociaux, des visuels pour une campagne, etc.

Claude, comme d’autres IA génératives, peut déjà générer et modifier des interfaces depuis longtemps, dont le design « par défaut » était facilement repérable. La différence ici est de prendre l’utilisateur davantage par la main en lui permettant de « tweaker » l’interface dans son ensemble ou de modifier certaines parties plus facilement.

L’entreprise donne un exemple parlant : « prototype une application mobile de méditation apaisante. Elle doit avoir une typographie douce, des couleurs subtiles inspirées de la nature, et une interface épurée ». La première version de l’interface générée par Claude peut ensuite être affinée en approfondissant la conversation avec le bot, avec les commentaires intégrés, ou en jouant avec des curseurs personnalisés. Claude Design peut également appliquer à chaque projet l’ensemble des règles graphiques, des couleurs, des typos, des composants d’interface et les bonnes pratiques de l’équipe.

Claude Design se destine principalement aux créateurs d’entreprises, aux chefs produit et aux responsables marketing pour créer et partager des idées de design. Sans formation, il est parfois difficile, voire intimidant, de se lancer tout seul dans l’UI. L’outil permet aussi de multiplier les itérations et de tester des versions.

Ce nouvel outil semble concurrencer frontalement Canva, mais il s’agit plutôt d’un complément. Il est d’ailleurs possible d’exporter les créations de Claude Design dans Canva, mais aussi en PDF ou PPTX (PowerPoint). L’annonce a néanmoins eu un impact à la baisse pour les actions d’Adobe et surtout de Figma, un atelier de création d’interfaces d’apps, de sites web ou de logiciels plus complet que Canva.

Claude Design, qui s’appuie sur Opus 4.7 est proposé aux clients Pro, Max, Team et Enterprise. Il complète d’autres services orientés vers les entreprises et les organisations, à l’instar de Claude Cowork, un agent pour traiter des tâches de bureau à sa place.

☕️ La boutique de la console Playdate bannit les contenus générés par IA dans les jeux

20 avril 2026 à 06:03


La question de l’utilisation de l’IA générative continue d’agiter l’industrie du jeu vidéo et les joueurs. Une ligne semble toutefois se dessiner : si les contenus générés par IA – visuels, audio, textes… – sont de plus en plus rejetés par les joueurs, il existe une certaine tolérance pour le code, forcément moins visible.

Certains acteurs vont désormais plus loin, en posant des règles strictes, voire en fermant la porte à ces usages dans leurs boutiques.

Le studio Panic, qui conçoit des applications pour les développeurs Mac et publie des jeux vidéo, s’est aussi lancé dans le matériel avec la Playdate, une toute petite console portable très attachante, dotée d’un écran monochrome (et d’une manivelle !). Elle s’accompagne d’une boutique de jeux baptisée Catalog, que les développeurs alimentent régulièrement en nouveautés développées avec les outils du constructeur, ce qui est très commun.

Image : Panic

L’IA n’est pas joueuse

Ce qui l’est un peu moins, c’est que Panic a écrit noir sur blanc que le magasin de la Playdate n’acceptera plus de jeux utilisant l’IA générative pour leurs graphismes, audio, musique, texte ou dialogue. Cela inclut des outils comme ChatGPT, Gemini, Stable Diffusion, Midjourney, Suno, et d’autres encore.

L’entreprise laisse en revanche (pour le moment) la porte ouverte aux jeux dont le code a été généré en partie par IA, par exemple pour le déboggage. Cela sera indiqué dans la fiche du jeu, afin que le joueur puisse décider en toute conscience d’acheter le titre ou pas.

Panic ajoute que cette nouvelle politique est en « discussion constante » et pourra évoluer à l’avenir. Elle ne concerne pas les fonctions développées pour les comportements en jeu, comme l’IA des ennemis par exemple. Les jeux déjà présents dans Catalog et qui utilisent l’IA générative pour leurs assets restent disponibles, mais ils présenteront une alerte sur leur fiche.

Les développeurs devront renseigner leur usage de l’IA générative dans les jeux, via un questionnaire. Si la question n’a pas de réponse, ce sera indiqué dans la fiche (« Le développeur de ce jeu n’a pas communiqué sur son utilisation de l’IA générative »). Panic prend là une position plus radicale que d’autres boutiques de jeu. Depuis 2024, Steam exige des développeurs qu’ils indiquent s’ils utilisent l’IA générative, en particulier lorsque celle-ci sert à produire des contenus visibles par les joueurs.

Ces informations sont présentes dans la boutique, mais il n’est pas question d’interdire les jeux dont des assets ont été générés par IA. Il semble que la clientèle du Playdate – surtout composée d’amateurs de jeux indés – est plus sensible à ces questions qu’ailleurs. L’an dernier, un des jeux de la « saison 2 » du Playdate (une sélection de nouveautés fournies sur une base hebdomadaire) avait fait polémique : le développeur s’était servi de ChatGPT pour du texte.

La controverse a poussé Panic à mettre en place sa nouvelle politique. La saison 3, qui a été annoncée jeudi dernier, ne contiendra aucun jeu intégrant des contenus générés par IA. Pour autant, il reste possible de contourner la boutique, puisque le sideloading est possible. Les développeurs qui veulent proposer des jeux générés par IA peuvent continuer à le faire… mais ils n’auront plus accès à Catalog.

☕️ La boutique de la console Playdate bannit les contenus générés par IA dans les jeux

20 avril 2026 à 06:03


La question de l’utilisation de l’IA générative continue d’agiter l’industrie du jeu vidéo et les joueurs. Une ligne semble toutefois se dessiner : si les contenus générés par IA – visuels, audio, textes… – sont de plus en plus rejetés par les joueurs, il existe une certaine tolérance pour le code, forcément moins visible.

Certains acteurs vont désormais plus loin, en posant des règles strictes, voire en fermant la porte à ces usages dans leurs boutiques.

Le studio Panic, qui conçoit des applications pour les développeurs Mac et publie des jeux vidéo, s’est aussi lancé dans le matériel avec la Playdate, une toute petite console portable très attachante, dotée d’un écran monochrome (et d’une manivelle !). Elle s’accompagne d’une boutique de jeux baptisée Catalog, que les développeurs alimentent régulièrement en nouveautés développées avec les outils du constructeur, ce qui est très commun.

Image : Panic

L’IA n’est pas joueuse

Ce qui l’est un peu moins, c’est que Panic a écrit noir sur blanc que le magasin de la Playdate n’acceptera plus de jeux utilisant l’IA générative pour leurs graphismes, audio, musique, texte ou dialogue. Cela inclut des outils comme ChatGPT, Gemini, Stable Diffusion, Midjourney, Suno, et d’autres encore.

L’entreprise laisse en revanche (pour le moment) la porte ouverte aux jeux dont le code a été généré en partie par IA, par exemple pour le déboggage. Cela sera indiqué dans la fiche du jeu, afin que le joueur puisse décider en toute conscience d’acheter le titre ou pas.

Panic ajoute que cette nouvelle politique est en « discussion constante » et pourra évoluer à l’avenir. Elle ne concerne pas les fonctions développées pour les comportements en jeu, comme l’IA des ennemis par exemple. Les jeux déjà présents dans Catalog et qui utilisent l’IA générative pour leurs assets restent disponibles, mais ils présenteront une alerte sur leur fiche.

Les développeurs devront renseigner leur usage de l’IA générative dans les jeux, via un questionnaire. Si la question n’a pas de réponse, ce sera indiqué dans la fiche (« Le développeur de ce jeu n’a pas communiqué sur son utilisation de l’IA générative »). Panic prend là une position plus radicale que d’autres boutiques de jeu. Depuis 2024, Steam exige des développeurs qu’ils indiquent s’ils utilisent l’IA générative, en particulier lorsque celle-ci sert à produire des contenus visibles par les joueurs.

Ces informations sont présentes dans la boutique, mais il n’est pas question d’interdire les jeux dont des assets ont été générés par IA. Il semble que la clientèle du Playdate – surtout composée d’amateurs de jeux indés – est plus sensible à ces questions qu’ailleurs. L’an dernier, un des jeux de la « saison 2 » du Playdate (une sélection de nouveautés fournies sur une base hebdomadaire) avait fait polémique : le développeur s’était servi de ChatGPT pour du texte.

La controverse a poussé Panic à mettre en place sa nouvelle politique. La saison 3, qui a été annoncée jeudi dernier, ne contiendra aucun jeu intégrant des contenus générés par IA. Pour autant, il reste possible de contourner la boutique, puisque le sideloading est possible. Les développeurs qui veulent proposer des jeux générés par IA peuvent continuer à le faire… mais ils n’auront plus accès à Catalog.

Reçu — 17 avril 2026 Actualités numériques

☕️ Google : 1,6 milliard de publicités frauduleuses supprimées dans l’UE avec Gemini

17 avril 2026 à 14:12


Google ne cherche pas seulement à intégrer Gemini partout où c’est possible dans ses applications et services destinés au grand public. L’IA est également à pied d’œuvre dans les outils internes, comme celui qui fait la chasse aux mauvaises publicités.

L’an dernier, l’entreprise a bloqué (PDF) ou supprimé 8,3 milliards de publicités (dont 1,6 milliard dans l’Union européenne), un record : le nombre de suppressions s’était établi à 5,1 milliards en 2024. Google a également suspendu 24,9 millions de comptes (4 millions associés à des escroqueries) ; 2 millions de comptes ont été suspendus dans l’UE. 

Illustration : Flock

La principale raison pour laquelle les publicités sont supprimées en Europe est « l’abus du réseau publicitaire ». Google exclut toute annonce liée à des tentatives de manipulation ou de contournement des systèmes de vérification : les contenus concernant des logiciels malveillants, des sites infectés ou des programmes jugés trompeurs ou nuisibles sont interdits. Tout comme les pratiques visant à obtenir un avantage déloyal, à masquer la véritable nature d’une annonce ou à contourner les règles publicitaires.

Que vient faire Gemini là-dedans ? L’IA générative explique pourquoi le nombre de comptes suspendus est bien moins élevé en 2025 que l’année précédente (39,2 millions). Google affirme que Gemini peut détecter et bloquer plus tôt les publicités enfreignant ses règles en analysant des « milliards de signaux » (ancienneté des comptes, indices comportementaux, schémas de campagne), précise Keerat Sharma, directeur général confidentialité et sécurité des publicités.

Les derniers modèles Gemini comprennent « mieux » les intentions, contrairement aux précédents systèmes basés sur des mots-clés. L’IA serait donc capable de distinguer plus aisément une offre crédible d’une escroquerie, permettant de réduire les « suspensions injustifiées » d’annonceurs de 80 %.

Si les équipes chargées de la modération publicitaire utilisent depuis longtemps l’intelligence artificielle pour trier le bon grain de l’ivraie, les outils optimisés par Gemini ont permis d’intercepter 99 % des annonces enfreignant les règles « avant même qu’elles ne soient diffusées ». 

Les acteurs malveillants utilisent l’IA générative pour créer des publicités trompeuses. « À la fin de l’année dernière, la majorité des annonces responsives créées dans Google Ads étaient examinées instantanément, et les contenus préjudiciables étaient bloqués dès leur soumission », indique le responsable, avant d’annoncer que cette fonction allait être étendue à d’autres formats cette année. 

Le géant de la recherche en ligne veut donner la priorité à la suppression des contenus préjudiciables, et « [aider] les entreprises honnêtes à maintenir leurs publicités en ligne ». L’IA et Gemini ne font pas tout, c’est pourquoi Google a aussi en parallèle un programme de vérification des annonceurs chargé de la validation de l’identité des annonceurs afin de bloquer les acteurs malveillants avant diffusion de leurs publicités.

☕️ Google : 1,6 milliard de publicités frauduleuses supprimées dans l’UE avec Gemini

17 avril 2026 à 14:12


Google ne cherche pas seulement à intégrer Gemini partout où c’est possible dans ses applications et services destinés au grand public. L’IA est également à pied d’œuvre dans les outils internes, comme celui qui fait la chasse aux mauvaises publicités.

L’an dernier, l’entreprise a bloqué (PDF) ou supprimé 8,3 milliards de publicités (dont 1,6 milliard dans l’Union européenne), un record : le nombre de suppressions s’était établi à 5,1 milliards en 2024. Google a également suspendu 24,9 millions de comptes (4 millions associés à des escroqueries) ; 2 millions de comptes ont été suspendus dans l’UE. 

Illustration : Flock

La principale raison pour laquelle les publicités sont supprimées en Europe est « l’abus du réseau publicitaire ». Google exclut toute annonce liée à des tentatives de manipulation ou de contournement des systèmes de vérification : les contenus concernant des logiciels malveillants, des sites infectés ou des programmes jugés trompeurs ou nuisibles sont interdits. Tout comme les pratiques visant à obtenir un avantage déloyal, à masquer la véritable nature d’une annonce ou à contourner les règles publicitaires.

Que vient faire Gemini là-dedans ? L’IA générative explique pourquoi le nombre de comptes suspendus est bien moins élevé en 2025 que l’année précédente (39,2 millions). Google affirme que Gemini peut détecter et bloquer plus tôt les publicités enfreignant ses règles en analysant des « milliards de signaux » (ancienneté des comptes, indices comportementaux, schémas de campagne), précise Keerat Sharma, directeur général confidentialité et sécurité des publicités.

Les derniers modèles Gemini comprennent « mieux » les intentions, contrairement aux précédents systèmes basés sur des mots-clés. L’IA serait donc capable de distinguer plus aisément une offre crédible d’une escroquerie, permettant de réduire les « suspensions injustifiées » d’annonceurs de 80 %.

Si les équipes chargées de la modération publicitaire utilisent depuis longtemps l’intelligence artificielle pour trier le bon grain de l’ivraie, les outils optimisés par Gemini ont permis d’intercepter 99 % des annonces enfreignant les règles « avant même qu’elles ne soient diffusées ». 

Les acteurs malveillants utilisent l’IA générative pour créer des publicités trompeuses. « À la fin de l’année dernière, la majorité des annonces responsives créées dans Google Ads étaient examinées instantanément, et les contenus préjudiciables étaient bloqués dès leur soumission », indique le responsable, avant d’annoncer que cette fonction allait être étendue à d’autres formats cette année. 

Le géant de la recherche en ligne veut donner la priorité à la suppression des contenus préjudiciables, et « [aider] les entreprises honnêtes à maintenir leurs publicités en ligne ». L’IA et Gemini ne font pas tout, c’est pourquoi Google a aussi en parallèle un programme de vérification des annonceurs chargé de la validation de l’identité des annonceurs afin de bloquer les acteurs malveillants avant diffusion de leurs publicités.

La mise à jour de Codex pose les bases de la « superapp » d’OpenAI

17 avril 2026 à 10:01
Une app à tout faire peut-elle faire tout bien ?
La mise à jour de Codex pose les bases de la « superapp » d’OpenAI

Codex, l’application dédiée au code d’OpenAI, est la fondation de la « superapp » sur laquelle l’entreprise planche depuis plusieurs mois. Un premier pas qui se destine surtout aux développeurs, cible principale du logiciel. Mais on entrevoit déjà les usages grand public.

Codex en a fait du chemin, depuis ses débuts en février sur macOS (un mois plus tard, une version Windows faisait son apparition). L’application d’OpenAI permet aux développeurs d’utiliser l’agent IA spécialisé dans la programmation dans une interface dédiée (il se décline aussi en version CLI).

Déployez les agents

Ce logiciel phare du vibe-coding — n’oublions pas Claude Code — permet de prototyper rapidement une application (voire de la développer complètement) en laissant le plus gros du travail à l’agent Codex. Mais l’ambition d’OpenAI va bien plus loin : le client Codex n’est autre que la brique fondatrice de la fameuse « superapp » censée répondre à l’ensemble des requêtes des utilisateurs, qu’il s’agisse du grand public, des développeurs ou des professionnels.

« Nous procédons en réalité de façon un peu détournée », a révélé Thibault Sottiaux, responsable de Codex, à ArsTechnica, « nous construisons la superapp au grand jour, en la faisant évoluer à partir de Codex ». La grosse mise à jour livrée hier par l’entreprise le confirme.

On verra si cette stratégie « attrape-tout » ne reviendra pas à créer un véritable monstre ingérable. En attendant, OpenAI démultiplie les capacités de Codex, à commencer par la possibilité d’utiliser n’importe quelle app présente dans le Mac. Plusieurs agents peuvent se déployer et travailler en tâche de fond, sans interférer sur ce que fait l’utilisateur, promet l’entreprise.

Quand Codex s’embête, il lance une partie de Tic Tac Toe.

Codex étant d’abord et avant tout un outil pour les développeurs, cette nouveauté est présentée comme un moyen pour eux de tester leurs apps ou de multiplier les itérations. Le logiciel intègre également son propre navigateur web (ce qui est peut-être le premier pas vers la disparition d’Atlas, le propre navigateur d’OpenAI). 

Le navigateur intégré de Codex.

L’utilisateur peut commenter des éléments de la page web pour fournir des instructions précises à Codex. À terme, OpenAI a l’intention de permettre à Codex de prendre le contrôle complet du navigateur embarqué, au-delà des webapps tournant sur le serveur en local. Avec l’aide du modèle gpt-image-1.5, le nouveau Codex sait aussi générer des visuels d’interface, pour des maquettes ou des jeux.

Le générateur d’images de Codex.

Plus de 90 nouveaux modules d’extension s’ajoutent à la bibliothèque actuelle, qui permettent une intégration collée-serrée entre Codex et de nombreux services et outils comme Slack, Notion, GitLab, Jira, CodeRabbit… L’idée est de connecter Codex à l’environnement de travail et donc d’en faire une passerelle indispensable entre l’utilisateur et son environnement numérique.

Un intermédiaire nommé Codex

Sur les tâches longues, Codex propose de planifier des tâches et reprendre automatiquement un travail plus tard. Il peut aussi reprendre des conversations existantes et se souvenir de modifications demandées pour continuer une tâche. 

Ça peut servir dans le cadre du suivi d’un projet sur le long cours : dans le meilleur des mondes, Codex devrait être en mesure de repérer dans Slack qu’une décision a été prise, aller chercher les détails dans Notion, vérifier ce qui a déjà été implémenté dans le code et proposer à l’utilisateur une liste d’actions. L’agent n’a plus besoin qu’on lui redonne le contexte, il l’a en tête.

L’outil sait prendre en charge les commentaires de revue de code sur GitHub, exécuter des commandes dans plusieurs terminaux en simultané, se connecter à des environnements distants via SSH (encore en alpha). Un nouveau panneau de synthèse complète l’ensemble avec une vue d’ensemble sur les actions réalisées par l’agent, les sources utilisées et les résultats obtenus.

Tout cela parlera davantage aux développeurs. Mais le navigateur web intégré, la manipulation des apps, le suivi de tâches dans la durée, tout cela sera aussi utile à un utilisateur grand public. La mise à jour est en phase de déploiement chez les utilisateurs de l’app de bureau.

La mise à jour de Codex pose les bases de la « superapp » d’OpenAI

17 avril 2026 à 10:01
Une app à tout faire peut-elle faire tout bien ?
La mise à jour de Codex pose les bases de la « superapp » d’OpenAI

Codex, l’application dédiée au code d’OpenAI, est la fondation de la « superapp » sur laquelle l’entreprise planche depuis plusieurs mois. Un premier pas qui se destine surtout aux développeurs, cible principale du logiciel. Mais on entrevoit déjà les usages grand public.

Codex en a fait du chemin, depuis ses débuts en février sur macOS (un mois plus tard, une version Windows faisait son apparition). L’application d’OpenAI permet aux développeurs d’utiliser l’agent IA spécialisé dans la programmation dans une interface dédiée (il se décline aussi en version CLI).

Déployez les agents

Ce logiciel phare du vibe-coding — n’oublions pas Claude Code — permet de prototyper rapidement une application (voire de la développer complètement) en laissant le plus gros du travail à l’agent Codex. Mais l’ambition d’OpenAI va bien plus loin : le client Codex n’est autre que la brique fondatrice de la fameuse « superapp » censée répondre à l’ensemble des requêtes des utilisateurs, qu’il s’agisse du grand public, des développeurs ou des professionnels.

« Nous procédons en réalité de façon un peu détournée », a révélé Thibault Sottiaux, responsable de Codex, à ArsTechnica, « nous construisons la superapp au grand jour, en la faisant évoluer à partir de Codex ». La grosse mise à jour livrée hier par l’entreprise le confirme.

On verra si cette stratégie « attrape-tout » ne reviendra pas à créer un véritable monstre ingérable. En attendant, OpenAI démultiplie les capacités de Codex, à commencer par la possibilité d’utiliser n’importe quelle app présente dans le Mac. Plusieurs agents peuvent se déployer et travailler en tâche de fond, sans interférer sur ce que fait l’utilisateur, promet l’entreprise.

Quand Codex s’embête, il lance une partie de Tic Tac Toe.

Codex étant d’abord et avant tout un outil pour les développeurs, cette nouveauté est présentée comme un moyen pour eux de tester leurs apps ou de multiplier les itérations. Le logiciel intègre également son propre navigateur web (ce qui est peut-être le premier pas vers la disparition d’Atlas, le propre navigateur d’OpenAI). 

Le navigateur intégré de Codex.

L’utilisateur peut commenter des éléments de la page web pour fournir des instructions précises à Codex. À terme, OpenAI a l’intention de permettre à Codex de prendre le contrôle complet du navigateur embarqué, au-delà des webapps tournant sur le serveur en local. Avec l’aide du modèle gpt-image-1.5, le nouveau Codex sait aussi générer des visuels d’interface, pour des maquettes ou des jeux.

Le générateur d’images de Codex.

Plus de 90 nouveaux modules d’extension s’ajoutent à la bibliothèque actuelle, qui permettent une intégration collée-serrée entre Codex et de nombreux services et outils comme Slack, Notion, GitLab, Jira, CodeRabbit… L’idée est de connecter Codex à l’environnement de travail et donc d’en faire une passerelle indispensable entre l’utilisateur et son environnement numérique.

Un intermédiaire nommé Codex

Sur les tâches longues, Codex propose de planifier des tâches et reprendre automatiquement un travail plus tard. Il peut aussi reprendre des conversations existantes et se souvenir de modifications demandées pour continuer une tâche. 

Ça peut servir dans le cadre du suivi d’un projet sur le long cours : dans le meilleur des mondes, Codex devrait être en mesure de repérer dans Slack qu’une décision a été prise, aller chercher les détails dans Notion, vérifier ce qui a déjà été implémenté dans le code et proposer à l’utilisateur une liste d’actions. L’agent n’a plus besoin qu’on lui redonne le contexte, il l’a en tête.

L’outil sait prendre en charge les commentaires de revue de code sur GitHub, exécuter des commandes dans plusieurs terminaux en simultané, se connecter à des environnements distants via SSH (encore en alpha). Un nouveau panneau de synthèse complète l’ensemble avec une vue d’ensemble sur les actions réalisées par l’agent, les sources utilisées et les résultats obtenus.

Tout cela parlera davantage aux développeurs. Mais le navigateur web intégré, la manipulation des apps, le suivi de tâches dans la durée, tout cela sera aussi utile à un utilisateur grand public. La mise à jour est en phase de déploiement chez les utilisateurs de l’app de bureau.

Les ayants droit veulent augmenter la copie privée et lorgnent sur les ordinateurs

17 avril 2026 à 08:04
Pas touche au grisbi !
Les ayants droit veulent augmenter la copie privée et lorgnent sur les ordinateurs

Il n’y a pas que le prix des composants mémoire qui augmentent, il y a… le montant de la copie privée. Les représentants des ayants droit ont mis sur la table leurs propositions de nouveaux barèmes censés refléter l’évolution des usages. Au programme : forte hausse sur les produits déjà touchés, et extension aux ordinateurs qui étaient jusqu’à présent épargnés.

Les organismes de gestion collective, comme la SACEM et la SACD, ont la main sur le trésor de la rémunération de la copie privée (RCP), et elle est de plus en plus lourde. Les études d’usage réalisées fin 2024 par l’institut CSA concernant la pratique de copies d’œuvres (musique, films, photos, textes) servent de base à de nouveaux barèmes proposés mercredi 15 avril aux industriels de la tech et aux organisations de consommateurs, durant une réunion au ministère de la Culture révélée par L’Informé.

Fin du plafond à 128 Go

Le moins qu’on puisse dire, c’est que les ayants droit ont poussé fort sur la valorisation de la rémunération, qui se base en partie sur l’espace de stockage des appareils. Jusqu’à présent, sur les smartphones neufs de 128 Go ou plus, la redevance était plafonnée à 14 euros HT (16,80 euros TTC). De nouveaux paliers se mettraient en place. Quelques exemples :

  • sur un smartphone de 128 Go, la rémunération passerait à 18 euros HT (21,60 euros TTC), soit une hausse de 29 % ;
  • sur un smartphone de 256 Go : 20 euros HT (24 euros TTC),+ 43 % ;
  • sur un smartphone de 512 Go : 22 euros HT (26,40 euros TTC),+ 57 % ;
  • sur un smartphone de plus de 512 Go : 24 euros HT (28,80 euros TTC), ce qui représente une hausse vertigineuse de 71 %.

Même topo sur les tablettes, où la redevance se limitait à 14 euros HT pour les modèles dotés de 128 Go ou plus. Là aussi, des paliers supplémentaires seraient créés :

  • sur une tablette de 128 Go : 17 euros HT (20,40 euros TTC), soit 21 % de plus ;
  • sur une tablette de 256 Go : 18 euros HT (21,60 euros TTC),+ 29 % ;
  • sur une tablette de 512 Go : 20 euros HT (24 euros TTC),+ 43 % ;
  • sur une tablette de plus de 512 Go ou plus : 26 euros HT (31,20 euros TTC),+ 86 %.

Les smartphones et tablettes reconditionnés subiraient également une augmentation sensible de la rémunération. Elle s’établirait à 10,80 euros HT (12,96 euros TTC) sur un mobile de 128 Go, soit 28,57 % de plus. Un smartphone équipé de plus de 512 Go aurait droit à une redevance de 14,40 euros HT (17,28 euros TTC), soit 71,4 % de plus.

La copie privée aussi pour les PC

Et comme si cela ne suffisait pas, les ayants droit proposent d’appliquer la rémunération copie privée sur les ordinateurs portables/hybrides et les ordinateurs de bureau. Elle serait calculée sur une base forfaitaire : 30 euros HT (36 euros TTC) pour les premiers, 24 euros HT (28,80 euros TTC) pour les seconds. Les modèles reconditionnés seraient aussi concernés, respectivement 18 euros HT (21,60 euros TTC) et 14,40 euros HT (17,28 euros TTC).

Si ce barème était appliqué tel quel, les organismes de gestion collective récupèreraient, à quantités équivalentes, plus de 400 millions d’euros par an. En 2024, la collecte avait grimpé à 246 millions…

Reste cependant un obstacle à passer : les 12 représentants des ayants droit au sein de la commission copie privée font face à 6 représentants des constructeurs et des importateurs, et 6 organisations de consommateurs. Ces derniers vont faire des contre-propositions, qui déboucheront sur un arbitrage puis un vote. La commission, dont la dernière réunion remonte au 12 février (PDF), a écarté le streaming, considéré comme de la location et non comme une copie.

La rémunération pour la copie privée n’est pas un permis de pirater : c’est une exception au Code de la propriété intellectuelle qui autorise la reproduction d’une œuvre pour un usage strictement personnel, à condition que la source soit licite. La redevance, collectée par la société Copie France auprès des fabricants et des importateurs (et répercutée sur le prix payé par les consommateurs), finance en partie la création. 25 % des sommes sont consacrées à des actions culturelles : diffusion du spectacle vivant, développement de l’éducation artistique et culturelle, formation d’artistes.

La France au premier rang mondial de la copie privée

Fin observateur du sujet, Marc Rees de l’Informé remarque sur X que la France représente une part significative des montants collectés à l’échelle mondiale.

Les différentes pratiques mises en oeuvre en Europe et dans le reste du monde ont en effet fait l’objet d’une étude comparative portant sur la période 2019 – 2024, réalisée sous la houlette de la Confédération internationale des sociétés d’auteurs et compositeurs (Cisac).

Dans cette « étude mondiale sur la copie privée », publiée fin mars 2026, la Cisac évalue à 1,06 milliard d’euros les sommes collectées au nom de la copie privée au niveau de 32 pays qui pratiquent la fameuse exception depuis 2019.

Avec 246,4 millions d’euros collectés, la France arrive en tête du classement ainsi constitué, juste devant l’Allemagne (235,5 millions d’euros).

La France et l’Allemagne dominent largement le classement des montants collectés entre 2019 et 2024

« En valeur nominale, l’Allemagne et la France affichent de loin les recettes les plus importantes issues des redevances pour copie privée. Sur la période 2019 - 2024 cumulée, ces deux pays ont perçu 50 % du total des recettes déclarées », remarque la Cisac.

Les ayants droit veulent augmenter la copie privée et lorgnent sur les ordinateurs

17 avril 2026 à 08:04
Pas touche au grisbi !
Les ayants droit veulent augmenter la copie privée et lorgnent sur les ordinateurs

Il n’y a pas que le prix des composants mémoire qui augmentent, il y a… le montant de la copie privée. Les représentants des ayants droit ont mis sur la table leurs propositions de nouveaux barèmes censés refléter l’évolution des usages. Au programme : forte hausse sur les produits déjà touchés, et extension aux ordinateurs qui étaient jusqu’à présent épargnés.

Les organismes de gestion collective, comme la SACEM et la SACD, ont la main sur le trésor de la rémunération de la copie privée (RCP), et elle est de plus en plus lourde. Les études d’usage réalisées fin 2024 par l’institut CSA concernant la pratique de copies d’œuvres (musique, films, photos, textes) servent de base à de nouveaux barèmes proposés mercredi 15 avril aux industriels de la tech et aux organisations de consommateurs, durant une réunion au ministère de la Culture révélée par L’Informé.

Fin du plafond à 128 Go

Le moins qu’on puisse dire, c’est que les ayants droit ont poussé fort sur la valorisation de la rémunération, qui se base en partie sur l’espace de stockage des appareils. Jusqu’à présent, sur les smartphones neufs de 128 Go ou plus, la redevance était plafonnée à 14 euros HT (16,80 euros TTC). De nouveaux paliers se mettraient en place. Quelques exemples :

  • sur un smartphone de 128 Go, la rémunération passerait à 18 euros HT (21,60 euros TTC), soit une hausse de 29 % ;
  • sur un smartphone de 256 Go : 20 euros HT (24 euros TTC),+ 43 % ;
  • sur un smartphone de 512 Go : 22 euros HT (26,40 euros TTC),+ 57 % ;
  • sur un smartphone de plus de 512 Go : 24 euros HT (28,80 euros TTC), ce qui représente une hausse vertigineuse de 71 %.

Même topo sur les tablettes, où la redevance se limitait à 14 euros HT pour les modèles dotés de 128 Go ou plus. Là aussi, des paliers supplémentaires seraient créés :

  • sur une tablette de 128 Go : 17 euros HT (20,40 euros TTC), soit 21 % de plus ;
  • sur une tablette de 256 Go : 18 euros HT (21,60 euros TTC),+ 29 % ;
  • sur une tablette de 512 Go : 20 euros HT (24 euros TTC),+ 43 % ;
  • sur une tablette de plus de 512 Go ou plus : 26 euros HT (31,20 euros TTC),+ 86 %.

Les smartphones et tablettes reconditionnés subiraient également une augmentation sensible de la rémunération. Elle s’établirait à 10,80 euros HT (12,96 euros TTC) sur un mobile de 128 Go, soit 28,57 % de plus. Un smartphone équipé de plus de 512 Go aurait droit à une redevance de 14,40 euros HT (17,28 euros TTC), soit 71,4 % de plus.

La copie privée aussi pour les PC

Et comme si cela ne suffisait pas, les ayants droit proposent d’appliquer la rémunération copie privée sur les ordinateurs portables/hybrides et les ordinateurs de bureau. Elle serait calculée sur une base forfaitaire : 30 euros HT (36 euros TTC) pour les premiers, 24 euros HT (28,80 euros TTC) pour les seconds. Les modèles reconditionnés seraient aussi concernés, respectivement 18 euros HT (21,60 euros TTC) et 14,40 euros HT (17,28 euros TTC).

Si ce barème était appliqué tel quel, les organismes de gestion collective récupèreraient, à quantités équivalentes, plus de 400 millions d’euros par an. En 2024, la collecte avait grimpé à 246 millions…

Reste cependant un obstacle à passer : les 12 représentants des ayants droit au sein de la commission copie privée font face à 6 représentants des constructeurs et des importateurs, et 6 organisations de consommateurs. Ces derniers vont faire des contre-propositions, qui déboucheront sur un arbitrage puis un vote. La commission, dont la dernière réunion remonte au 12 février (PDF), a écarté le streaming, considéré comme de la location et non comme une copie.

La rémunération pour la copie privée n’est pas un permis de pirater : c’est une exception au Code de la propriété intellectuelle qui autorise la reproduction d’une œuvre pour un usage strictement personnel, à condition que la source soit licite. La redevance, collectée par la société Copie France auprès des fabricants et des importateurs (et répercutée sur le prix payé par les consommateurs), finance en partie la création. 25 % des sommes sont consacrées à des actions culturelles : diffusion du spectacle vivant, développement de l’éducation artistique et culturelle, formation d’artistes.

La France au premier rang mondial de la copie privée

Fin observateur du sujet, Marc Rees de l’Informé remarque sur X que la France représente une part significative des montants collectés à l’échelle mondiale.

Les différentes pratiques mises en oeuvre en Europe et dans le reste du monde ont en effet fait l’objet d’une étude comparative portant sur la période 2019 – 2024, réalisée sous la houlette de la Confédération internationale des sociétés d’auteurs et compositeurs (Cisac).

Dans cette « étude mondiale sur la copie privée », publiée fin mars 2026, la Cisac évalue à 1,06 milliard d’euros les sommes collectées au nom de la copie privée au niveau de 32 pays qui pratiquent la fameuse exception depuis 2019.

Avec 246,4 millions d’euros collectés, la France arrive en tête du classement ainsi constitué, juste devant l’Allemagne (235,5 millions d’euros).

La France et l’Allemagne dominent largement le classement des montants collectés entre 2019 et 2024

« En valeur nominale, l’Allemagne et la France affichent de loin les recettes les plus importantes issues des redevances pour copie privée. Sur la période 2019 - 2024 cumulée, ces deux pays ont perçu 50 % du total des recettes déclarées », remarque la Cisac.

Claude Opus 4.7 : le nouveau modèle d’Anthropic se veut plus performant et plus gourmand

17 avril 2026 à 05:51
Un effort qui se paie
Claude Opus 4.7 : le nouveau modèle d’Anthropic se veut plus performant et plus gourmand

À chaque jour son grand modèle de langage, ou presque. Anthropic a en effet dévoilé Claude Opus 4.7, son LLM le plus performant (en dehors de Mythos). Des performances qui se paient : le modèle peut se montrer plus gourmand.

Un peu plus de deux mois après Claude Opus 4.6, et une semaine après Mythos, Anthropic a lancé Claude Opus 4.7, présenté comme son modèle IA le plus performant à ce jour… pour le grand public. Mythos détient toujours la couronne du LLM le plus puissant au catalogue d’Anthropic, mais compte tenu de ses capacités en cybersécurité, il n’est déployé qu’au compte-goutte via le projet Glasswing.

Opus 4.7 est « moins capable » que Mythos, admet l’entreprise. Le modèle intègre en effet des garde-fous capables de détecter et de bloquer automatiquement les requêtes liées à « des usages de cybersécurité interdits ou à haut risque ». Si les modèles de classe Mythos ont vocation à être diffusés à grande échelle, il faudra pour le moment faire avec Opus, dont cette version 4.7 est maintenant disponible pour tous les utilisateurs de Claude, ainsi que dans l’API.

Gare aux tokens

Claude Opus 4.7 promet une vision améliorée avec la prise en charge d’images d’une résolution maximale de 2 576 pixels de long ou 3,75 mégapixels (à comparer avec le maximum précédent qui était de 1 568 px/1,15 mpx). Le modèle devrait donc être en mesure de mieux détecter les objets et mieux comprendre les documents et captures d’écran. 

Image : Anthropic

Par ailleurs, les coordonnées renvoyées correspondent directement aux pixels de l’image d’origine. Plus besoin de conversion comme par le passé, les positions peuvent être immédiatement exploitées. Cela peut être utile pour, par exemple, cliquer sur un bouton dans une interface graphique ou tout simplement pointer précisément sur un élément comme un texte ou un graphique.

Autre changement : un nouveau niveau d’effort « extra high » (xhigh) qui se positionne entre les paliers « high » et « max ». Anthropic recommande de basculer Claude en xhigh pour tout ce qui est programmation et agents autonomes, et high pour tous les cas d’usage sensibles à la qualité du raisonnement.

Les calculs IA coûtent cher, aussi bien pour Anthropic que pour les utilisateurs. Avoir sous la main des options supplémentaires pour contrôler son budget est donc indispensable, d’où ce niveau xhigh. C’est d’autant plus important qu’Opus 4.7 inaugure un nouveau tokenizer qui découpe le texte différemment : un même texte peut générer jusqu’à 35 % de tokens en plus qu’avant. Utiliser ce modèle est donc susceptible de coûter plus cher ou de faire atteindre plus vite les limites de son abonnement. 

Pour justifier cette inflation, Anthropic affirme que son nouveau découpage est plus efficace et qu’il permet au modèle de mieux comprendre certains contenus. Opus 4.7 réfléchit aussi davantage quand le niveau d’effort est élevé, notamment dans des contextes agentiques : la fiabilité s’améliore sur les requêtes complexes, mais le modèle dépense aussi davantage de tokens.

Ce graphique fourni par Anthropic montre qu’Opus 4.7 consomme plus de tokens, mais il atteint aussi des scores supérieurs.

Sur une évaluation interne dédiée au code, l’utilisation des tokens s’améliore « à tous les niveaux ». En pratique, Opus 4.7 consomme souvent davantage de tokens, mais il atteint des scores nettement supérieurs. À effort équivalent, le modèle semble donc obtenir de meilleurs résultats, quitte à « dépenser » davantage.

Afin de faire passer la pilule, Claude Opus 4.7 peut garder en mémoire jusqu’à 1 million de tokens pour une seule requête sans surcoût spécifique. Le modèle est donc en capacité de traiter beaucoup plus d’informations d’un coup, sans impact financier supplémentaire.

Quel budget pour quelle tâche ?

Pour aider les utilisateurs à ne pas exploser leur plafond de dépenses, Opus 4.7 inaugure (en bêta) une fonction « budget de tâche ». Il s’agit d’une enveloppe d’un volume minimal de 20 000 tokens, que le modèle peut dépenser en temps réel : il adapte son travail pour aller au bout de la boucle agentique complète, ce qui inclut la réflexion, les appels et les résultats d’outils, ainsi que la réponse finale. Il s’en sert comme compteur décroissant pour prioriser les tâches à mesure de la consommation du budget alloué.

Attention : un budget trop restrictif poussera Opus 4.7 à traiter la tâche de manière moins approfondie. Il pourra même tout simplement refuser de s’en charger. Anthropic recommande d’expérimenter avec différents budgets en fonction de l’usage. Cette nouveauté diffère de « max_tokens », une limite fixe par requête sur les tokens générés. Les budgets sont une limite indicative sur l’ensemble de la boucle de travail. 

Le pilotage du modèle avec l’API est simplifié. Exit les paramètres classiques (« temperature », « top_p »…), le contrôle se veut plus global pour réduire la complexité, mais aussi reprendre la main sur le comportement du modèle. « Utilisez les budgets pour inciter le modèle à s’auto-réguler, et la limite fixe de tokens comme plafond strict pour maîtriser la consommation », résume Anthropic. Un guide est en ligne pour épauler les utilisateurs dans la migration depuis Opus 4.6.

Claude Opus 4.7 : le nouveau modèle d’Anthropic se veut plus performant et plus gourmand

17 avril 2026 à 05:51
Un effort qui se paie
Claude Opus 4.7 : le nouveau modèle d’Anthropic se veut plus performant et plus gourmand

À chaque jour son grand modèle de langage, ou presque. Anthropic a en effet dévoilé Claude Opus 4.7, son LLM le plus performant (en dehors de Mythos). Des performances qui se paient : le modèle peut se montrer plus gourmand.

Un peu plus de deux mois après Claude Opus 4.6, et une semaine après Mythos, Anthropic a lancé Claude Opus 4.7, présenté comme son modèle IA le plus performant à ce jour… pour le grand public. Mythos détient toujours la couronne du LLM le plus puissant au catalogue d’Anthropic, mais compte tenu de ses capacités en cybersécurité, il n’est déployé qu’au compte-goutte via le projet Glasswing.

Opus 4.7 est « moins capable » que Mythos, admet l’entreprise. Le modèle intègre en effet des garde-fous capables de détecter et de bloquer automatiquement les requêtes liées à « des usages de cybersécurité interdits ou à haut risque ». Si les modèles de classe Mythos ont vocation à être diffusés à grande échelle, il faudra pour le moment faire avec Opus, dont cette version 4.7 est maintenant disponible pour tous les utilisateurs de Claude, ainsi que dans l’API.

Gare aux tokens

Claude Opus 4.7 promet une vision améliorée avec la prise en charge d’images d’une résolution maximale de 2 576 pixels de long ou 3,75 mégapixels (à comparer avec le maximum précédent qui était de 1 568 px/1,15 mpx). Le modèle devrait donc être en mesure de mieux détecter les objets et mieux comprendre les documents et captures d’écran. 

Image : Anthropic

Par ailleurs, les coordonnées renvoyées correspondent directement aux pixels de l’image d’origine. Plus besoin de conversion comme par le passé, les positions peuvent être immédiatement exploitées. Cela peut être utile pour, par exemple, cliquer sur un bouton dans une interface graphique ou tout simplement pointer précisément sur un élément comme un texte ou un graphique.

Autre changement : un nouveau niveau d’effort « extra high » (xhigh) qui se positionne entre les paliers « high » et « max ». Anthropic recommande de basculer Claude en xhigh pour tout ce qui est programmation et agents autonomes, et high pour tous les cas d’usage sensibles à la qualité du raisonnement.

Les calculs IA coûtent cher, aussi bien pour Anthropic que pour les utilisateurs. Avoir sous la main des options supplémentaires pour contrôler son budget est donc indispensable, d’où ce niveau xhigh. C’est d’autant plus important qu’Opus 4.7 inaugure un nouveau tokenizer qui découpe le texte différemment : un même texte peut générer jusqu’à 35 % de tokens en plus qu’avant. Utiliser ce modèle est donc susceptible de coûter plus cher ou de faire atteindre plus vite les limites de son abonnement. 

Pour justifier cette inflation, Anthropic affirme que son nouveau découpage est plus efficace et qu’il permet au modèle de mieux comprendre certains contenus. Opus 4.7 réfléchit aussi davantage quand le niveau d’effort est élevé, notamment dans des contextes agentiques : la fiabilité s’améliore sur les requêtes complexes, mais le modèle dépense aussi davantage de tokens.

Ce graphique fourni par Anthropic montre qu’Opus 4.7 consomme plus de tokens, mais il atteint aussi des scores supérieurs.

Sur une évaluation interne dédiée au code, l’utilisation des tokens s’améliore « à tous les niveaux ». En pratique, Opus 4.7 consomme souvent davantage de tokens, mais il atteint des scores nettement supérieurs. À effort équivalent, le modèle semble donc obtenir de meilleurs résultats, quitte à « dépenser » davantage.

Afin de faire passer la pilule, Claude Opus 4.7 peut garder en mémoire jusqu’à 1 million de tokens pour une seule requête sans surcoût spécifique. Le modèle est donc en capacité de traiter beaucoup plus d’informations d’un coup, sans impact financier supplémentaire.

Quel budget pour quelle tâche ?

Pour aider les utilisateurs à ne pas exploser leur plafond de dépenses, Opus 4.7 inaugure (en bêta) une fonction « budget de tâche ». Il s’agit d’une enveloppe d’un volume minimal de 20 000 tokens, que le modèle peut dépenser en temps réel : il adapte son travail pour aller au bout de la boucle agentique complète, ce qui inclut la réflexion, les appels et les résultats d’outils, ainsi que la réponse finale. Il s’en sert comme compteur décroissant pour prioriser les tâches à mesure de la consommation du budget alloué.

Attention : un budget trop restrictif poussera Opus 4.7 à traiter la tâche de manière moins approfondie. Il pourra même tout simplement refuser de s’en charger. Anthropic recommande d’expérimenter avec différents budgets en fonction de l’usage. Cette nouveauté diffère de « max_tokens », une limite fixe par requête sur les tokens générés. Les budgets sont une limite indicative sur l’ensemble de la boucle de travail. 

Le pilotage du modèle avec l’API est simplifié. Exit les paramètres classiques (« temperature », « top_p »…), le contrôle se veut plus global pour réduire la complexité, mais aussi reprendre la main sur le comportement du modèle. « Utilisez les budgets pour inciter le modèle à s’auto-réguler, et la limite fixe de tokens comme plafond strict pour maîtriser la consommation », résume Anthropic. Un guide est en ligne pour épauler les utilisateurs dans la migration depuis Opus 4.6.

Reçu — 16 avril 2026 Actualités numériques

Claude peut maintenant exiger une vérification d’identité

16 avril 2026 à 16:15
Vos papiers et que ça saute
Claude peut maintenant exiger une vérification d’identité

C’est une première pour les chatbots IA. Claude peut désormais réclamer une vérification de l’identité de l’utilisateur. Il faudra alors présenter un passeport, un permis de conduire ou une carte d’identité avec photo. Les photocopies, les captures d’écran ou « photos d’une photo » ne sont pas acceptées. Un selfie pourra aussi être demandé.

La demande de vérification de l’identité, repérée par Decrypt, a commencé à apparaitre chez de nouveaux abonnés de Claude. Ce qui ne manque pas d’étonner, sachant que pour le moment du moins, aucun législateur ou régulateur n’a exigé une telle opération. Dans une fiche d’assistance mise en ligne le 14 avril, Anthropic explique que « la vérification de l’identité nous aide à prévenir les abus, à appliquer nos politiques d’utilisation et à respecter nos obligations légales ». 

Une vérification de l’identité inédite pour un bot

La vérification de l’identité concerne « certains cas d’usage » non précisés, et lors de l’accès à « certaines fonctionnalités », le tout dans le cadre des vérifications régulières d’intégrité de la plateforme « ou d’autres mesures de sécurité et de conformité ». 

En cas d’échec de la vérification, il est toujours possible de contacter l’entreprise qui examinera alors le dossier. Persona Identities est le prestataire chargé de la vérification ; ce sous-traitant travaille aussi pour le compte de Roblox, DoorDash, LinkedIn, mais aussi… OpenAI, dans certains cas, pour contrôler l’âge des utilisateurs de ChatGPT.

La demande de vérification de l’identité de Claude. Image : @Kai

En février dernier, des chercheurs en sécurité ont découvert qu’une interface web appartenant à Persona était accessible publiquement. Ce frontend contenait 2 456 fichiers (du code et des outils internes) hébergés sur un serveur autorisé par le gouvernement américain, isolé de l’environnement de l’entreprise. 

Pas de données confidentielles ici, mais les fichiers exposés ont permis de mesurer l’ampleur des capacités du système Persona : il réalise jusqu’à 269 types de vérifications possibles, il compare les selfies à des listes de surveillance, détecte les profils à risque et calcule un score de risque. On a également appris à cette occasion que Persona conservait les données des utilisateurs jusqu’à 3 ans. 

Après avoir supprimé l’accès au frontend et assuré qu’aucune donnée personnelle n’avait fuité, l’entreprise a expliqué qu’elle ne travaillait avec aucune agence fédérale états-unienne, et qu’aucun de ses clients n’exploitait la totalité des 269 types de vérifications. 

L’ombre de Peter Thiel

Ce frontend avait été découvert à l’occasion de la mise en place par Discord de son système de vérification de l’âge. La plateforme a depuis révoqué le sous-traitant, suite à une autre polémique : Persona est en effet financé par Peter Thiel, cofondateur de Palantir. Une entreprise dont les outils sont très populaires chez les forces de l’ordre comme l’ICE, qui fait la chasse aux immigrés en situation irrégulière.

Anthropic n’a pas ces états d’âme, et rappelle que Persona traite les données de vérification « selon nos instructions ». Ces informations, chiffrées en transit et au repos, n’en restent pas moins collectées et stockées par Persona. Anthropic peut y accéder, ainsi qu’aux dossiers de vérification si nécessaire pour examiner un appel, par exemple. Les données sont conservées et supprimées « conformément aux limites de conservation » établies par Anthropic et à la loi applicable.

L’entreprise précise aussi, et c’est important vu le contexte, que les données d’identité ne sont pas utilisées pour entraîner ses modèles IA, mais « uniquement pour confirmer votre identité et pour respecter nos obligations légales et de sécurité ». Ces informations ne sont partagées avec personne, sauf en cas de demande légale valide. Enfin, Anthropic affirme ne collecter que les données minimales requises pour vérifier l’identité.

L’opacité avec laquelle Anthropic demande la vérification de l’identité, ainsi que le choix de ce sous-traitant, ne manquent pas d’inquiéter certains. ChatGPT ou Gemini n’en sont pas encore là, même si le premier peut effectuer des vérifications d’âge. Quant au deuxième, son opérateur Google connait déjà beaucoup de ses utilisateurs. Mais Anthropic pourrait bien être précurseur.

Claude peut maintenant exiger une vérification d’identité

16 avril 2026 à 16:15
Vos papiers et que ça saute
Claude peut maintenant exiger une vérification d’identité

C’est une première pour les chatbots IA. Claude peut désormais réclamer une vérification de l’identité de l’utilisateur. Il faudra alors présenter un passeport, un permis de conduire ou une carte d’identité avec photo. Les photocopies, les captures d’écran ou « photos d’une photo » ne sont pas acceptées. Un selfie pourra aussi être demandé.

La demande de vérification de l’identité, repérée par Decrypt, a commencé à apparaitre chez de nouveaux abonnés de Claude. Ce qui ne manque pas d’étonner, sachant que pour le moment du moins, aucun législateur ou régulateur n’a exigé une telle opération. Dans une fiche d’assistance mise en ligne le 14 avril, Anthropic explique que « la vérification de l’identité nous aide à prévenir les abus, à appliquer nos politiques d’utilisation et à respecter nos obligations légales ». 

Une vérification de l’identité inédite pour un bot

La vérification de l’identité concerne « certains cas d’usage » non précisés, et lors de l’accès à « certaines fonctionnalités », le tout dans le cadre des vérifications régulières d’intégrité de la plateforme « ou d’autres mesures de sécurité et de conformité ». 

En cas d’échec de la vérification, il est toujours possible de contacter l’entreprise qui examinera alors le dossier. Persona Identities est le prestataire chargé de la vérification ; ce sous-traitant travaille aussi pour le compte de Roblox, DoorDash, LinkedIn, mais aussi… OpenAI, dans certains cas, pour contrôler l’âge des utilisateurs de ChatGPT.

La demande de vérification de l’identité de Claude. Image : @Kai

En février dernier, des chercheurs en sécurité ont découvert qu’une interface web appartenant à Persona était accessible publiquement. Ce frontend contenait 2 456 fichiers (du code et des outils internes) hébergés sur un serveur autorisé par le gouvernement américain, isolé de l’environnement de l’entreprise. 

Pas de données confidentielles ici, mais les fichiers exposés ont permis de mesurer l’ampleur des capacités du système Persona : il réalise jusqu’à 269 types de vérifications possibles, il compare les selfies à des listes de surveillance, détecte les profils à risque et calcule un score de risque. On a également appris à cette occasion que Persona conservait les données des utilisateurs jusqu’à 3 ans. 

Après avoir supprimé l’accès au frontend et assuré qu’aucune donnée personnelle n’avait fuité, l’entreprise a expliqué qu’elle ne travaillait avec aucune agence fédérale états-unienne, et qu’aucun de ses clients n’exploitait la totalité des 269 types de vérifications. 

L’ombre de Peter Thiel

Ce frontend avait été découvert à l’occasion de la mise en place par Discord de son système de vérification de l’âge. La plateforme a depuis révoqué le sous-traitant, suite à une autre polémique : Persona est en effet financé par Peter Thiel, cofondateur de Palantir. Une entreprise dont les outils sont très populaires chez les forces de l’ordre comme l’ICE, qui fait la chasse aux immigrés en situation irrégulière.

Anthropic n’a pas ces états d’âme, et rappelle que Persona traite les données de vérification « selon nos instructions ». Ces informations, chiffrées en transit et au repos, n’en restent pas moins collectées et stockées par Persona. Anthropic peut y accéder, ainsi qu’aux dossiers de vérification si nécessaire pour examiner un appel, par exemple. Les données sont conservées et supprimées « conformément aux limites de conservation » établies par Anthropic et à la loi applicable.

L’entreprise précise aussi, et c’est important vu le contexte, que les données d’identité ne sont pas utilisées pour entraîner ses modèles IA, mais « uniquement pour confirmer votre identité et pour respecter nos obligations légales et de sécurité ». Ces informations ne sont partagées avec personne, sauf en cas de demande légale valide. Enfin, Anthropic affirme ne collecter que les données minimales requises pour vérifier l’identité.

L’opacité avec laquelle Anthropic demande la vérification de l’identité, ainsi que le choix de ce sous-traitant, ne manquent pas d’inquiéter certains. ChatGPT ou Gemini n’en sont pas encore là, même si le premier peut effectuer des vérifications d’âge. Quant au deuxième, son opérateur Google connait déjà beaucoup de ses utilisateurs. Mais Anthropic pourrait bien être précurseur.

❌