Vue lecture

☕️ Affaire du Great 78 Project : Internet Archive a conclu un accord avec Universal et Sony

En 2023, plusieurs des plus grandes maisons de disques mondiales, dont Universal Music Group et Sony Music Entertainment, attaquaient Internet Archive en visant son « Great 78 Project ».

Sur son blog, l’organisation à but non lucratif annonce qu’elle a scellé un accord avec ces maisons de disques. Le message est très bref et Internet Archive explique seulement que « les parties sont parvenues à un accord confidentiel concernant toutes les réclamations et ne feront plus aucune déclaration publique à ce sujet ».

On n’en saura donc pas plus sur la continuité du projet de mise en ligne de la numérisation de vinyls au format 78 tours publiés entre 1898 et les années 1950 qu’avait en tête Internet Archive. Les titres déjà mis en ligne peuvent toujours être écoutés, dont un « Don’t Blame Me » crachotant, interprété par Tab Smith et son orchestre.

On ne connait pas non plus l’éventuelle compensation versée par Internet Archive aux maisons de disques. Au dépôt de la plainte en 2023, on parlait de 412 millions de dollars réclamés. L’année dernière l’estimation faite par les maisons de disques était cependant montée à 621 millions de dollars.

  •  

☕️ Affaire du Great 78 Project : Internet Archive a conclu un accord avec Universal et Sony

En 2023, plusieurs des plus grandes maisons de disques mondiales, dont Universal Music Group et Sony Music Entertainment, attaquaient Internet Archive en visant son « Great 78 Project ».

Sur son blog, l’organisation à but non lucratif annonce qu’elle a scellé un accord avec ces maisons de disques. Le message est très bref et Internet Archive explique seulement que « les parties sont parvenues à un accord confidentiel concernant toutes les réclamations et ne feront plus aucune déclaration publique à ce sujet ».

On n’en saura donc pas plus sur la continuité du projet de mise en ligne de la numérisation de vinyls au format 78 tours publiés entre 1898 et les années 1950 qu’avait en tête Internet Archive. Les titres déjà mis en ligne peuvent toujours être écoutés, dont un « Don’t Blame Me » crachotant, interprété par Tab Smith et son orchestre.

On ne connait pas non plus l’éventuelle compensation versée par Internet Archive aux maisons de disques. Au dépôt de la plainte en 2023, on parlait de 412 millions de dollars réclamés. L’année dernière l’estimation faite par les maisons de disques était cependant montée à 621 millions de dollars.

  •  

AI Overviews : Penske, l’éditeur de Rolling Stone, attaque Google

Overdominant
AI Overviews : Penske, l’éditeur de Rolling Stone, attaque Google

Penske Media, l’éditeur de Rolling Stone, mais aussi de Billboard, Variety et Hollywood Reporter, a déposé une plainte contre la fonction AI Overviews de Google. Le groupe de médias étasunien accuse Google de republier ses contenus sans autorisation en abusant de sa position dominante sur le marché des moteurs de recherche.

C’est la première plainte d’un éditeur étasunien envers la fonction AI Overviews qu’a mis en place Google en haut des résultats de son moteur de recherche. Penske Media est un éditeur de presse étasunien qui possède plusieurs magazines comme Rolling Stone, Billboard, Variety ou encore Hollywood Reporter.

En Europe, des éditeurs indépendants s’étaient déjà unis pour attaquer cette fonctionnalité devant la Commission européenne pour abus de position dominante. Rappelons que les IA Overviews sont disponibles dans de nombreux pays, notamment européens, mais pas en France.

Pourquoi un tel traitement de faveur ? À cause notamment des difficiles négociations liées aux droits voisins, comme nous l’expliquions en juin dernier. Les éditeurs se tiennent d’ailleurs prêt à dégainer des actions en justice si besoin.

Google s’appuie sur son monopole pour imposer AI Overviews

Penske a déposé sa plainte [PDF] contre l’entreprise dirigée par Sundar Pichai auprès de la Cour du district de Columbia, là où le juge Amit P. Mehta a considéré l’année dernière que Google violait la loi étasunienne sur les monopoles et qui a récemment prononcé des mesures correctrices sur le sujet.

L’entreprise de presse considère que Google utilise son monopole « pour contraindre les éditeurs en ligne […] à fournir du contenu que Google republie sans autorisation dans des réponses générées par l’IA qui rivalisent de manière déloyale pour attirer l’attention des utilisateurs sur Internet, en violation des lois étasuniennes contre les monopoles ».

Pour Penske, « ce comportement menace de perpétuer le monopole de Google dans le domaine de la recherche générale à l’ère de la recherche générative et de l’étendre à l’édition en ligne, ce qui restreindrait la concurrence sur ces marchés et réduirait la production de contenu original pour les consommateurs ».

Depuis plusieurs mois, les éditeurs de presse pointent du doigt la fonctionnalité AI Overviews de Google alertant sur la perte de trafic vers leur site qu’elle engendre et les répercussions sur leur activité. Certains, comme Business Insider, ont décidé d’arrêter leurs activités éditoriales dont l’audience dépend fortement du search.

Dans sa plainte, Penske affirme que « le siphonnage et le détournement du trafic des sites Web de PMC [Penske Media Corporation, ndlr] et d’autres éditeurs auront des effets profondément néfastes sur la qualité et la quantité globales des informations accessibles sur Internet ».

L’éditeur y rappelle que la décision de justice sur le monopole de Google observait que la recherche qui s’appuie sur l’IA générative avait le potentiel pour « concurrencer dynamiquement et remplacer le monopole actuel de Google dans le domaine de la recherche ». Mais, selon l’éditeur, la création d’une concurrence dynamique dans le domaine de la recherche via l’IA générative ne peut se faire que si Google n’utilise pas son monopole illégal déjà acquis pour imposer ses conditions aux éditeurs.

Perte de revenus directement liée

Penske affirme qu’avec l’introduction des AI Overviews, ses sites ont perdu fin 2024 un tiers de leurs revenus comparé à leur pic. Et Google n’a pas encore généralisé ses AI Overviews en haut de toutes les recherches. Mais Penske explique qu’entre fin 2024 et début 2025, elle a observé une augmentation de 20 % des résultats comprenant des liens vers ses sites qui affichaient un résumé.

Dans sa plainte, l’éditeur affirme qu’« avec chaque article publié sur ses sites Web », il est contraint « de fournir à Google davantage de matériel d’entrainement et d’affinage pour que ses systèmes [d’IA] puissent générer des Overviews ou affiner ses modèles, ce qui alimente un feu qui menace l’ensemble [de son] activité éditoriale ».

« Grâce à AI Overviews, les utilisateurs trouvent la recherche plus utile et l’utilisent davantage, ce qui crée de nouvelles opportunités pour la découverte de contenu », déclare au Wall Street Journal le porte-parole de Google José Castañeda. Il ajoute que, « chaque jour, Google envoie des milliards de clics vers des sites web, et les aperçus générés par l’IA redirigent le trafic vers une plus grande diversité de sites. Nous nous défendrons contre ces accusations sans fondement ». Enfin, il affirme à nos confrères que les clics sur les liens qui accompagnent les IA Overviews sont de meilleure qualité pour les éditeurs, car les utilisateurs passent plus de temps sur le site.

  •  

AI Overviews : Penske, l’éditeur de Rolling Stone, attaque Google

Overdominant
AI Overviews : Penske, l’éditeur de Rolling Stone, attaque Google

Penske Media, l’éditeur de Rolling Stone, mais aussi de Billboard, Variety et Hollywood Reporter, a déposé une plainte contre la fonction AI Overviews de Google. Le groupe de médias étasunien accuse Google de republier ses contenus sans autorisation en abusant de sa position dominante sur le marché des moteurs de recherche.

C’est la première plainte d’un éditeur étasunien envers la fonction AI Overviews qu’a mis en place Google en haut des résultats de son moteur de recherche. Penske Media est un éditeur de presse étasunien qui possède plusieurs magazines comme Rolling Stone, Billboard, Variety ou encore Hollywood Reporter.

En Europe, des éditeurs indépendants s’étaient déjà unis pour attaquer cette fonctionnalité devant la Commission européenne pour abus de position dominante. Rappelons que les IA Overviews sont disponibles dans de nombreux pays, notamment européens, mais pas en France.

Pourquoi un tel traitement de faveur ? À cause notamment des difficiles négociations liées aux droits voisins, comme nous l’expliquions en juin dernier. Les éditeurs se tiennent d’ailleurs prêt à dégainer des actions en justice si besoin.

Google s’appuie sur son monopole pour imposer AI Overviews

Penske a déposé sa plainte [PDF] contre l’entreprise dirigée par Sundar Pichai auprès de la Cour du district de Columbia, là où le juge Amit P. Mehta a considéré l’année dernière que Google violait la loi étasunienne sur les monopoles et qui a récemment prononcé des mesures correctrices sur le sujet.

L’entreprise de presse considère que Google utilise son monopole « pour contraindre les éditeurs en ligne […] à fournir du contenu que Google republie sans autorisation dans des réponses générées par l’IA qui rivalisent de manière déloyale pour attirer l’attention des utilisateurs sur Internet, en violation des lois étasuniennes contre les monopoles ».

Pour Penske, « ce comportement menace de perpétuer le monopole de Google dans le domaine de la recherche générale à l’ère de la recherche générative et de l’étendre à l’édition en ligne, ce qui restreindrait la concurrence sur ces marchés et réduirait la production de contenu original pour les consommateurs ».

Depuis plusieurs mois, les éditeurs de presse pointent du doigt la fonctionnalité AI Overviews de Google alertant sur la perte de trafic vers leur site qu’elle engendre et les répercussions sur leur activité. Certains, comme Business Insider, ont décidé d’arrêter leurs activités éditoriales dont l’audience dépend fortement du search.

Dans sa plainte, Penske affirme que « le siphonnage et le détournement du trafic des sites Web de PMC [Penske Media Corporation, ndlr] et d’autres éditeurs auront des effets profondément néfastes sur la qualité et la quantité globales des informations accessibles sur Internet ».

L’éditeur y rappelle que la décision de justice sur le monopole de Google observait que la recherche qui s’appuie sur l’IA générative avait le potentiel pour « concurrencer dynamiquement et remplacer le monopole actuel de Google dans le domaine de la recherche ». Mais, selon l’éditeur, la création d’une concurrence dynamique dans le domaine de la recherche via l’IA générative ne peut se faire que si Google n’utilise pas son monopole illégal déjà acquis pour imposer ses conditions aux éditeurs.

Perte de revenus directement liée

Penske affirme qu’avec l’introduction des AI Overviews, ses sites ont perdu fin 2024 un tiers de leurs revenus comparé à leur pic. Et Google n’a pas encore généralisé ses AI Overviews en haut de toutes les recherches. Mais Penske explique qu’entre fin 2024 et début 2025, elle a observé une augmentation de 20 % des résultats comprenant des liens vers ses sites qui affichaient un résumé.

Dans sa plainte, l’éditeur affirme qu’« avec chaque article publié sur ses sites Web », il est contraint « de fournir à Google davantage de matériel d’entrainement et d’affinage pour que ses systèmes [d’IA] puissent générer des Overviews ou affiner ses modèles, ce qui alimente un feu qui menace l’ensemble [de son] activité éditoriale ».

« Grâce à AI Overviews, les utilisateurs trouvent la recherche plus utile et l’utilisent davantage, ce qui crée de nouvelles opportunités pour la découverte de contenu », déclare au Wall Street Journal le porte-parole de Google José Castañeda. Il ajoute que, « chaque jour, Google envoie des milliards de clics vers des sites web, et les aperçus générés par l’IA redirigent le trafic vers une plus grande diversité de sites. Nous nous défendrons contre ces accusations sans fondement ». Enfin, il affirme à nos confrères que les clics sur les liens qui accompagnent les IA Overviews sont de meilleure qualité pour les éditeurs, car les utilisateurs passent plus de temps sur le site.

  •  

La FTC enquête sur les conséquences des chatbots de Meta, OpenAI, etc. sur les mineurs

Tests après mise en prod ?
La FTC enquête sur les conséquences des chatbots de Meta, OpenAI, etc. sur les mineurs

Alors que plusieurs d’entre elles sont pointées du doigt pour leur manque de protection des enfants dans la mise en place de leurs chatbots, Google, Meta, Instagram, OpenAI, Snap, xAI et CharacterAI font face à une enquête de l’autorité de la concurrence étasunienne.

La Federal Trade Commission (FTC) a demandé à sept entreprises d’IA générative de l’informer sur les différentes procédures qu’elles ont mises en place avant de sortir leurs chatbots « compagnons » utilisant l’IA générative.

Demande des détails plusieurs mois après la mise sur le marché

L’autorité de la concurrence étasunienne a contacté officiellement Alphabet (maison mère de Google), Instagram, Meta (Maison mère de Facebook), OpenAI, Snap, xAI et CharacterAI pour enquêter en détail sur le business model de ces « compagnons » et comment elles encadrent leur utilisation. Ainsi, dans une lettre [PDF], la FTC leur demande de lui expliquer comment elles :

  • monétisent l’engagement des utilisateurs ;
  • traitent les contributions des utilisateurs ;
  • partagent les données des utilisateurs avec des tiers ;
  • génèrent des résultats ;
  • mesurent, testent et surveillent les impacts négatifs avant et après le déploiement ;
  • développent et approuvent les personnages (qu’ils soient créés par l’entreprise ou par les utilisateurs) ;
  • utilisent des messages, des publicités et d’autres représentations pour informer les utilisateurs sur les fonctionnalités, les capacités, le public visé, les impacts négatifs potentiels et les pratiques de collecte et de traitement des données ;
  • surveillent et font respecter les règles, les conditions d’utilisation ou d’autres politiques régissant l’utilisation de leur produit ou service.

Dans son communiqué annonçant cette enquête, l’autorité explique qu’elle veut « comprendre quelles mesures, le cas échéant, les entreprises ont prises pour évaluer la sécurité de leurs chatbots lorsqu’ils agissent en tant que compagnons, afin de limiter l’utilisation des produits par les enfants et les adolescents et leurs effets négatifs potentiels, et d’informer les utilisateurs et les parents des risques associés à ces produits ».

Plusieurs cas problématiques

La FTC réagit après plusieurs événements qui ont montré, au minimum, d’énormes trous dans la raquette de ces dispositifs pour protéger les mineurs d’effets délétères engendrés par l’utilisation de ce genre de « compagnon ».

Ainsi, fin aout, on apprenait qu’OpenAI était poursuivi en justice après le suicide d’un adolescent. Mais le créateur de ChatGPT n’est pas le seul à être pointé du doigt. Quelques jours avant, on découvrait que, parmi les règles mise en place par Meta pour canaliser ses bots utilisant l’IA générative introduits dans Facebook, WhatsApp et Instagram, l’entreprise permettait aux avatars de générer des messages qu’elle considérait comme « sensuels ». Cette enquête arrive aussi alors que certains États veulent interdire ou encadrer les IA qui se font passer pour des psys.

Un peu moins connu que les autres, CharacterAI est pionnière sur le sujet, mais aussi dans ses dérives. Ainsi, c’est au sujet du suicide d’un adolescent « devenu obsédé par un chatbot sur Character.AI avant sa mort », que le New York Times posait déjà en octobre 2024 la question : « Peut-on blâmer l’intelligence artificielle pour le suicide d’un adolescent ? ».

Contactées par Bloomberg au sujet de l’enquête de la FTC, Google, Snap, OpenAI, xAI et Meta n’ont pas répondu. Character.AI a expliqué avoir investi « d’énormes ressources » dans des fonctionnalités de sécurité, notamment une version distincte pour les utilisateurs de moins de 18 ans et avoir ajouté dans les discussions des disclaimers indiquant que les chatbots ne sont pas de vraies personnes et « doivent être considérés comme des personnages fictifs ».

Notre consœur explique que l’autorité peut obliger les entreprises à lui répondre dans le cadre d’études de marché, mais que celles-ci prennent généralement plusieurs années avant d’aboutir.

  •  

La FTC enquête sur les conséquences des chatbots de Meta, OpenAI, etc. sur les mineurs

Tests après mise en prod ?
La FTC enquête sur les conséquences des chatbots de Meta, OpenAI, etc. sur les mineurs

Alors que plusieurs d’entre elles sont pointées du doigt pour leur manque de protection des enfants dans la mise en place de leurs chatbots, Google, Meta, Instagram, OpenAI, Snap, xAI et CharacterAI font face à une enquête de l’autorité de la concurrence étasunienne.

La Federal Trade Commission (FTC) a demandé à sept entreprises d’IA générative de l’informer sur les différentes procédures qu’elles ont mises en place avant de sortir leurs chatbots « compagnons » utilisant l’IA générative.

Demande des détails plusieurs mois après la mise sur le marché

L’autorité de la concurrence étasunienne a contacté officiellement Alphabet (maison mère de Google), Instagram, Meta (Maison mère de Facebook), OpenAI, Snap, xAI et CharacterAI pour enquêter en détail sur le business model de ces « compagnons » et comment elles encadrent leur utilisation. Ainsi, dans une lettre [PDF], la FTC leur demande de lui expliquer comment elles :

  • monétisent l’engagement des utilisateurs ;
  • traitent les contributions des utilisateurs ;
  • partagent les données des utilisateurs avec des tiers ;
  • génèrent des résultats ;
  • mesurent, testent et surveillent les impacts négatifs avant et après le déploiement ;
  • développent et approuvent les personnages (qu’ils soient créés par l’entreprise ou par les utilisateurs) ;
  • utilisent des messages, des publicités et d’autres représentations pour informer les utilisateurs sur les fonctionnalités, les capacités, le public visé, les impacts négatifs potentiels et les pratiques de collecte et de traitement des données ;
  • surveillent et font respecter les règles, les conditions d’utilisation ou d’autres politiques régissant l’utilisation de leur produit ou service.

Dans son communiqué annonçant cette enquête, l’autorité explique qu’elle veut « comprendre quelles mesures, le cas échéant, les entreprises ont prises pour évaluer la sécurité de leurs chatbots lorsqu’ils agissent en tant que compagnons, afin de limiter l’utilisation des produits par les enfants et les adolescents et leurs effets négatifs potentiels, et d’informer les utilisateurs et les parents des risques associés à ces produits ».

Plusieurs cas problématiques

La FTC réagit après plusieurs événements qui ont montré, au minimum, d’énormes trous dans la raquette de ces dispositifs pour protéger les mineurs d’effets délétères engendrés par l’utilisation de ce genre de « compagnon ».

Ainsi, fin aout, on apprenait qu’OpenAI était poursuivi en justice après le suicide d’un adolescent. Mais le créateur de ChatGPT n’est pas le seul à être pointé du doigt. Quelques jours avant, on découvrait que, parmi les règles mise en place par Meta pour canaliser ses bots utilisant l’IA générative introduits dans Facebook, WhatsApp et Instagram, l’entreprise permettait aux avatars de générer des messages qu’elle considérait comme « sensuels ». Cette enquête arrive aussi alors que certains États veulent interdire ou encadrer les IA qui se font passer pour des psys.

Un peu moins connu que les autres, CharacterAI est pionnière sur le sujet, mais aussi dans ses dérives. Ainsi, c’est au sujet du suicide d’un adolescent « devenu obsédé par un chatbot sur Character.AI avant sa mort », que le New York Times posait déjà en octobre 2024 la question : « Peut-on blâmer l’intelligence artificielle pour le suicide d’un adolescent ? ».

Contactées par Bloomberg au sujet de l’enquête de la FTC, Google, Snap, OpenAI, xAI et Meta n’ont pas répondu. Character.AI a expliqué avoir investi « d’énormes ressources » dans des fonctionnalités de sécurité, notamment une version distincte pour les utilisateurs de moins de 18 ans et avoir ajouté dans les discussions des disclaimers indiquant que les chatbots ne sont pas de vraies personnes et « doivent être considérés comme des personnages fictifs ».

Notre consœur explique que l’autorité peut obliger les entreprises à lui répondre dans le cadre d’études de marché, mais que celles-ci prennent généralement plusieurs années avant d’aboutir.

  •  

☕️ Teams anticoncurrentiel ? L’Europe accepte les propositions de Microsoft

La Commission européenne a accepté les engagements de Microsoft concernant la distribution de Teams pour éviter l’abus de position dominante.

« Dans le cadre de ces engagements, Microsoft (i) proposera des versions de ces suites sans Teams et à prix réduit ; (ii) permettra aux clients disposant de licences à long terme de passer à des suites sans Teams ; (iii) assurera l’interopérabilité des fonctionnalités clés entre les outils de communication et de collaboration concurrents de Teams et certains produits Microsoft ; et (iv) permettra aux clients de transférer leurs données hors de Teams afin de faciliter l’utilisation de solutions concurrentes », explique le communiqué de l’administration européenne.

C’est ce que s’était engagée à faire l’entreprise en mai dernier alors que la Commission européenne enquêtait depuis juillet 2023 sur un éventuel abus de position dominante de Microsoft suite à une plainte de Slack.

Drapeaux de l’Union européenne

En promettant de respecter ces quatre engagements, Microsoft évite une amende de la Commission. Celle-ci précise quand même qu’elle pourra « lui infliger une amende pouvant atteindre 10 % de son chiffre d’affaires annuel mondial, sans avoir à prouver qu’il y a eu violation des lois sur la concurrence de l’UE, ou une astreinte de 5 % par jour de son chiffre d’affaires journalier pour chaque jour de non-respect » si l’entreprise n’honore pas ses engagements.

« Nous apprécions le dialogue avec la Commission qui a conduit à cet accord, et nous nous attachons désormais à mettre en œuvre ces nouvelles obligations rapidement et intégralement », a déclaré Nanna-Louise Linde, vice-présidente de Microsoft chargée des affaires gouvernementales européennes à Reuters.

« Avec la décision prise aujourd’hui, nous rendons contraignants pour sept ans ou plus les engagements pris par Microsoft de mettre fin à ses pratiques de vente liée qui pourraient empêcher ses concurrents de rivaliser efficacement avec Teams. La décision d’aujourd’hui ouvre donc la concurrence sur ce marché crucial et garantit que les entreprises peuvent choisir librement le produit de communication et de collaboration qui répond le mieux à leurs besoins » affirme Teresa Ribera, vice-présidente exécutive chargée de la transition propre, juste et compétitive, dans le communiqué de la Commission.

  •  

☕️ Teams anticoncurrentiel ? L’Europe accepte les propositions de Microsoft

La Commission européenne a accepté les engagements de Microsoft concernant la distribution de Teams pour éviter l’abus de position dominante.

« Dans le cadre de ces engagements, Microsoft (i) proposera des versions de ces suites sans Teams et à prix réduit ; (ii) permettra aux clients disposant de licences à long terme de passer à des suites sans Teams ; (iii) assurera l’interopérabilité des fonctionnalités clés entre les outils de communication et de collaboration concurrents de Teams et certains produits Microsoft ; et (iv) permettra aux clients de transférer leurs données hors de Teams afin de faciliter l’utilisation de solutions concurrentes », explique le communiqué de l’administration européenne.

C’est ce que s’était engagée à faire l’entreprise en mai dernier alors que la Commission européenne enquêtait depuis juillet 2023 sur un éventuel abus de position dominante de Microsoft suite à une plainte de Slack.

Drapeaux de l’Union européenne

En promettant de respecter ces quatre engagements, Microsoft évite une amende de la Commission. Celle-ci précise quand même qu’elle pourra « lui infliger une amende pouvant atteindre 10 % de son chiffre d’affaires annuel mondial, sans avoir à prouver qu’il y a eu violation des lois sur la concurrence de l’UE, ou une astreinte de 5 % par jour de son chiffre d’affaires journalier pour chaque jour de non-respect » si l’entreprise n’honore pas ses engagements.

« Nous apprécions le dialogue avec la Commission qui a conduit à cet accord, et nous nous attachons désormais à mettre en œuvre ces nouvelles obligations rapidement et intégralement », a déclaré Nanna-Louise Linde, vice-présidente de Microsoft chargée des affaires gouvernementales européennes à Reuters.

« Avec la décision prise aujourd’hui, nous rendons contraignants pour sept ans ou plus les engagements pris par Microsoft de mettre fin à ses pratiques de vente liée qui pourraient empêcher ses concurrents de rivaliser efficacement avec Teams. La décision d’aujourd’hui ouvre donc la concurrence sur ce marché crucial et garantit que les entreprises peuvent choisir librement le produit de communication et de collaboration qui répond le mieux à leurs besoins » affirme Teresa Ribera, vice-présidente exécutive chargée de la transition propre, juste et compétitive, dans le communiqué de la Commission.

  •  

Scraping IA : le protocole RSL propose d’automatiser l’octroi de licences

robots.txt 2.0 ?
Scraping IA : le protocole RSL propose d’automatiser l’octroi de licences

Plusieurs gros éditeurs de sites web étasuniens proposent un nouveau protocole, « Really Simple Licensing » (RSL). Celui-ci permet de préciser aux côtés du fichier robots.txt les conditions, notamment financières, dans lesquelles les contenus d’un site peuvent être utilisés par les entreprises d’IA génératives pour entrainer leurs modèles. Reste à voir si les entreprises d’IA génératives, nombreuses à passer outre les robots.txt, seront enclines à respecter RSL comme un standard.

La promesse de « Really Simple Licensing » (RSL) est de faire un protocole « vraiment simple » pour indiquer aux robots crawlers des entreprises d’IA générative ce qu’ils ont le droit de faire et de ne pas faire avec le contenu d’un site web et dans quelles conditions. Le protocole est soutenu par le RSL Collective, créé par l’ancien CEO de Ask.com Doug Leeds, le Français et ancien de Datadog Geraud Boyer et l’ancien vice-président des produits chez Yahoo, Eckart Walther.

Depuis l’arrivée des IA génératives, leur crawlers sont, de plus en plus, devenus un sérieux problème pour le web, allant jusqu’à mettre en péril des sites. Les responsables de petits sites comme de gros, ont du mal à faire respecter aux entreprises d’IA générative leurs conditions d’utilisation. Les trois créateurs du RSL Collective espèrent que RSL deviendra un standard pour « offrir une rémunération équitable et standardisée aux éditeurs et aux créateurs, ainsi qu’un système de licence simple et automatisé aux entreprises spécialisées dans l’IA », comme ils l’affirment dans leur communiqué de presse. RSL a obtenu le soutien d’éditeurs du web comme Reddit, Quora, O’Reilly ou encore Medium.

Évolution du RSS pour s’adapter aux IA génératives

Dans son guide, le collectif explique que « Really Simple Licensing (RSL) est une évolution des premières idées à l’origine de la norme RSS largement adoptée, qui fournissait un cadre lisible par machine permettant aux éditeurs de syndiquer du contenu à des clients tiers et à des robots d’indexation en échange de trafic ». Il faut préciser que des années avant d’être vice-président chez Yahoo, Eckart Walther a travaillé chez Netscape où il a, entre autres, co-créé le format de flux de données RSS.

L’idée est de mettre en place un protocole pour que, « lorsqu’un article, un ensemble de données ou une image est utilisé par un système d’IA pour générer une réponse à l’aide d’un modèle de base, alimenter une application RAG ou répondre à un agent IA, le propriétaire du contenu » reçoive une compensation « équitable » et qu’il soit cité.

Le RSL est donc un document au format XML qui permet « aux éditeurs, auteurs et développeurs d’applications :

  • De définir les conditions d’octroi de licence et de rémunération, y compris la gratuité, le paiement à la consultation et le paiement à l’inférence, pour utiliser les ressources numériques à des fins de formation en IA, de recherche sur le Web et d’autres applications
  • De créer des catalogues publics standardisés et des conditions d’octroi de licence pour les ressources numériques ;
  • De permettre aux clients d’automatiser l’octroi de licence et le paiement pour un accès légal aux ressources numériques ;
  • De définir et de mettre en œuvre des accords standardisés en matière de licence et de redevances ».

Il ne remplace pas le robots.txt, mais il l’enrichit. C’est d’ailleurs dans le fichier robots.txt qu’il faut spécifier l’url de la licence RSL.

Pas encore un standard

Le collectif RSL affiche une page qui s’adresse aux entreprises d’IA qui voudraient bien prendre en compte leur protocole. Car, si le collectif est soutenu par plusieurs éditeurs importants du web, aucune entreprise d’IA générative ne semble prête à l’adopter. Ainsi, interrogées par notre consœur d’Ars Technica, ni Google, Meta ou OpenAI n’ont voulu commenter et xAI n’a pas répondu.

Aussi, si le collectif RSL parle de « standard » pour son protocole, celui-ci n’est pas encore validé par la communauté. Il n’est d’ailleurs pas la première initiative en cours pour faire le ménage et proposer aux entreprises d’IA générative à respecter la volonté des auteurs et des éditeurs. Du côté de chez Cloudflare, l’entreprise propose déjà depuis juillet à ses clients des outils pour bloquer les crawlers des IA par défaut. L’entreprise essaye de devenir un intermédiaire entre ses clients et les entreprises d’IA pour assurer une négociation financière.

Début juillet aussi, Creative Commons a proposé CC Signals, un cadre pour l’utilisation des contenus par les IA qui s’appuie sur les fichiers robots.txt et les headers HTTP pour ajouter de nouvelles informations.

L’adoption d’un réel standard pour permettre l’automatisation de l’obtention d’une licence et d’une rétribution en contrepartie de l’utilisation de contenus du web par les IA génératives ne semble pas pour tout de suite. Il faudra ensuite que les entreprises du secteur acceptent de s’y plier, alors que certaines d’entre elles passent depuis longtemps outre les indications se trouvant dans les fichiers robots.txt.

  •  

Scraping IA : le protocole RSL propose d’automatiser l’octroi de licences

robots.txt 2.0 ?
Scraping IA : le protocole RSL propose d’automatiser l’octroi de licences

Plusieurs gros éditeurs de sites web étasuniens proposent un nouveau protocole, « Really Simple Licensing » (RSL). Celui-ci permet de préciser aux côtés du fichier robots.txt les conditions, notamment financières, dans lesquelles les contenus d’un site peuvent être utilisés par les entreprises d’IA génératives pour entrainer leurs modèles. Reste à voir si les entreprises d’IA génératives, nombreuses à passer outre les robots.txt, seront enclines à respecter RSL comme un standard.

La promesse de « Really Simple Licensing » (RSL) est de faire un protocole « vraiment simple » pour indiquer aux robots crawlers des entreprises d’IA générative ce qu’ils ont le droit de faire et de ne pas faire avec le contenu d’un site web et dans quelles conditions. Le protocole est soutenu par le RSL Collective, créé par l’ancien CEO de Ask.com Doug Leeds, le Français et ancien de Datadog Geraud Boyer et l’ancien vice-président des produits chez Yahoo, Eckart Walther.

Depuis l’arrivée des IA génératives, leur crawlers sont, de plus en plus, devenus un sérieux problème pour le web, allant jusqu’à mettre en péril des sites. Les responsables de petits sites comme de gros, ont du mal à faire respecter aux entreprises d’IA générative leurs conditions d’utilisation. Les trois créateurs du RSL Collective espèrent que RSL deviendra un standard pour « offrir une rémunération équitable et standardisée aux éditeurs et aux créateurs, ainsi qu’un système de licence simple et automatisé aux entreprises spécialisées dans l’IA », comme ils l’affirment dans leur communiqué de presse. RSL a obtenu le soutien d’éditeurs du web comme Reddit, Quora, O’Reilly ou encore Medium.

Évolution du RSS pour s’adapter aux IA génératives

Dans son guide, le collectif explique que « Really Simple Licensing (RSL) est une évolution des premières idées à l’origine de la norme RSS largement adoptée, qui fournissait un cadre lisible par machine permettant aux éditeurs de syndiquer du contenu à des clients tiers et à des robots d’indexation en échange de trafic ». Il faut préciser que des années avant d’être vice-président chez Yahoo, Eckart Walther a travaillé chez Netscape où il a, entre autres, co-créé le format de flux de données RSS.

L’idée est de mettre en place un protocole pour que, « lorsqu’un article, un ensemble de données ou une image est utilisé par un système d’IA pour générer une réponse à l’aide d’un modèle de base, alimenter une application RAG ou répondre à un agent IA, le propriétaire du contenu » reçoive une compensation « équitable » et qu’il soit cité.

Le RSL est donc un document au format XML qui permet « aux éditeurs, auteurs et développeurs d’applications :

  • De définir les conditions d’octroi de licence et de rémunération, y compris la gratuité, le paiement à la consultation et le paiement à l’inférence, pour utiliser les ressources numériques à des fins de formation en IA, de recherche sur le Web et d’autres applications
  • De créer des catalogues publics standardisés et des conditions d’octroi de licence pour les ressources numériques ;
  • De permettre aux clients d’automatiser l’octroi de licence et le paiement pour un accès légal aux ressources numériques ;
  • De définir et de mettre en œuvre des accords standardisés en matière de licence et de redevances ».

Il ne remplace pas le robots.txt, mais il l’enrichit. C’est d’ailleurs dans le fichier robots.txt qu’il faut spécifier l’url de la licence RSL.

Pas encore un standard

Le collectif RSL affiche une page qui s’adresse aux entreprises d’IA qui voudraient bien prendre en compte leur protocole. Car, si le collectif est soutenu par plusieurs éditeurs importants du web, aucune entreprise d’IA générative ne semble prête à l’adopter. Ainsi, interrogées par notre consœur d’Ars Technica, ni Google, Meta ou OpenAI n’ont voulu commenter et xAI n’a pas répondu.

Aussi, si le collectif RSL parle de « standard » pour son protocole, celui-ci n’est pas encore validé par la communauté. Il n’est d’ailleurs pas la première initiative en cours pour faire le ménage et proposer aux entreprises d’IA générative à respecter la volonté des auteurs et des éditeurs. Du côté de chez Cloudflare, l’entreprise propose déjà depuis juillet à ses clients des outils pour bloquer les crawlers des IA par défaut. L’entreprise essaye de devenir un intermédiaire entre ses clients et les entreprises d’IA pour assurer une négociation financière.

Début juillet aussi, Creative Commons a proposé CC Signals, un cadre pour l’utilisation des contenus par les IA qui s’appuie sur les fichiers robots.txt et les headers HTTP pour ajouter de nouvelles informations.

L’adoption d’un réel standard pour permettre l’automatisation de l’obtention d’une licence et d’une rétribution en contrepartie de l’utilisation de contenus du web par les IA génératives ne semble pas pour tout de suite. Il faudra ensuite que les entreprises du secteur acceptent de s’y plier, alors que certaines d’entre elles passent depuis longtemps outre les indications se trouvant dans les fichiers robots.txt.

  •  

TikTok et les réseaux sociaux se font dézinguer par des députés, qui veulent agir fort

Papa, c’est quoi cette… demande à TikTok
TikTok et les réseaux sociaux se font dézinguer par des députés, qui veulent agir fort

La commission d’enquête lancée par les députés à propos des effets psychologiques de TikTok sur les mineurs a rendu son rapport ce jeudi 11 septembre. Accablant pour la plateforme chinoise, le texte propose 43 recommandations dont l’interdiction des réseaux sociaux aux moins de 15 ans ainsi qu’un couvre-feu numérique pour les 15 - 18.

« Un des pires réseaux sociaux à l’assaut de notre jeunesse », « Fabrique du mal-être », « poison lent », « engrenage mortel », le rapport présenté par la Commission d’enquête sur les effets psychologiques de TikTok sur les mineurs lancée à l’Assemblée Nationale en mars dernier fait un constat désastreux des conséquences de l’utilisation de TikTok par les mineurs.

Les députés de la Commission font 43 recommandations concernant tous les réseaux sociaux. Celles-ci vont d’une « interdiction de l’accès aux services de réseaux sociaux en ligne […] aux mineurs de moins de 15 ans » à « un couvre-feu numérique de 22 heures à 8 heures pour les réseaux sociaux dotés de systèmes de recommandation de contenus ou de dispositifs visant à capter l’attention de l’utilisateur », en passant par l’introduction « dans le droit européen une obligation de pluralisme algorithmique, inspirée du principe de pluralisme des médias ».

« Force est d’admettre qu’après l’audition de 178 personnes, 163 à l’Assemblée nationale et 15 à Bruxelles, après plus de 90 heures d’auditions menées au pas de charge en à peine 3 mois du 12 avril au 26 juin 2025, le constat est encore pire qu’escompté », déplore le président de la Commission, le député PS Arthur Delaporte, dans le tome 1 du rapport (les auditions en elles-mêmes sont présentées dans son tome 2).

Après les constats cinglants sur la plateforme de vidéos en elle-même, les députés veulent réagir de façon plus globale par rapport à l’utilisation des réseaux sociaux par les mineurs et demandent un changement de législation au niveau européen.

La présidente de l’Union européenne Ursula von der Leyen annonçait hier qu’un groupe d’experts devait travailler sur le sujet et formuler des propositions : c’est « aux parents, et non aux algorithmes, d’élever nos enfants », affirme-t-elle. « En attendant ou à défaut », le rapport préconise de faire évoluer la législation nationale.

Ainsi, pour la rapporteuse du texte et députée Renaissance Laure Miller, « dans le cadre de la future adoption du Digital Fairness Act, la législation sur l’équité numérique, la France doit faire entendre sa voix, qui vise à protéger les mineurs. Enfin, introduire un pluralisme algorithmique est indispensable ».

Constats accablants sur les conséquences violentes de l’utilisation de TikTok sur les mineurs

La première partie du tome 1 du rapport est consacrée à l’enquête sur TikTok en elle-même. Titrée « TikTok, un des pires réseaux sociaux à l’assaut de notre jeunesse », elle compile tous les constats sur les conséquences violentes de l’utilisation de TikTok sur les mineurs.

Désinformation sur la santé (entre autres), glorifications du suicide et de l’automutilation, « lieu d’exposition à la violence sous toutes ses formes », « haine de l’autre sans complexe », « paradis pour les antisémites », « diffusion d’une idéologie masculiniste agrémentée de violences sexistes ». La liste de reproches contre la plateforme de ByteDance est très longue.

Le rapport explique aussi que « l’Office anti-cybercriminalité (OFAC), qui gère la plateforme PHAROS, note une hausse des signalements en lien avec des atteintes aux mineurs, qui représentent 7,5 % de l’ensemble des signalements en reçus entre le 1er janvier et le 22 mai 2025 contre 3,15 % l’année précédente. « Il ne s’agit pas de pédocriminalité « , précise Mme Cécile Augeraud, commissaire divisionnaire, chef‑adjoint à l’OFAC, « mais de contenus provenant de mineurs qui vont être détournés, comme des images détournées d’enfants jouant sur la plage, des contenus s’inscrivant dans des campagnes très spécifiques » ».

Les députés, dans leur rapport, affirment aussi que TikTok est « hors-la-loi s’agissant de la protection des données personnelles, et notamment de celles des utilisateurs mineurs » rappelant diverses violations du RGPD dont le transfert des données à caractère personnel des utilisateurs européens vers la Chine.

L’enquête des députés est un panorama très complet et accablant de la nocivité de la plateforme sur les jeunes.

Volonté d’imposer à tous les réseaux sociaux des mesures pour les mineurs

Dans son introduction, Arthur Delaporte explique que la commission s’est concentrée sur TikTok qui est « reconnue dans les témoignages reçus comme étant l’une des plus problématiques et la plus génératrice de dépendance et de consommation de temps d’écran par les mineurs » pour étudier plus globalement les réseaux sociaux et leur encadrement juridique notamment pour les mineurs. Il ajoute que « TikTok est donc l’objet, l’exemple, mais non un cas isolé ». Ainsi, aucune recommandation des députés ne se focalise sur la plateforme de ByteDance et les députés ne demandent pas son interdiction.

Par contre, ils listent 43 recommandations pour agir sur les réseaux sociaux et les mineurs en général. La première a déjà été plusieurs fois évoquée : l’interdiction de leur accès pour les mineurs de moins de 15 ans dans le droit de l’Union européenne. « En attendant ou à défaut », dans leur deuxième recommandation, ils proposent de l’inscrire le plus vite possible dans la législation nationale.

Le couvre-feu numérique pour les 15 - 18 ans de 22 heures à 8 heures « pour les réseaux sociaux dotés de systèmes de recommandation de contenus ou de dispositifs visant à capter l’attention de l’utilisateur » n’est que leur 32ᵉ recommandation, mais elle fait partie des mesures qui, une fois prises, seraient les plus visibles et contraignantes. Ils proposent aussi « que les paramètres adaptés à l’âge des utilisateurs mineurs ne puissent pas être désactivés ».

Les députés français proposent aussi « le renforcement des moyens financiers et humains alloués à la régulation des grandes plateformes numériques » dans l’Union européenne, mais aussi ceux de l’Arcom.

La proposition 12 du rapport veut « introduire dans le droit européen une obligation de pluralisme algorithmique, inspirée du principe de pluralisme des médias inscrit à l’article 34 de la Constitution, afin de garantir aux utilisateurs des plateformes, à travers la mise en place d’une interopérabilité des systèmes de recommandation et la possibilité de choisir entre plusieurs algorithmes, un réel pouvoir de décision sur leur expérience numérique – et en ce qui concerne les parents, sur celle de leurs enfants ».

Pour le reste, les députés veulent essentiellement renforcer les dispositifs d’information sur les effets néfastes des réseaux sociaux. Ainsi, ils proposent de « modifier les programmes d’enseignement moral et civique pour inclure une sensibilisation à l’usage raisonné des outils numériques » ou obliger que les emballages des téléphones mobiles et autres appareils « comportent un message de prévention visant à informer les consommateurs que ces produits sont déconseillés aux mineurs de moins de 13 ans ».

Après la remise du Rapport et avoir reposé sa casquette de président de la Commission, Arthur Delaporte a annoncé sur France Info avoir saisi la procureure de la République de Paris : pour lui, « le constat est sans appel : TikTok a délibérément mis en danger la santé, la vie de ses utilisateurs ». « Il me semble qu’il y a des infractions qui sont de nature pénale, de complicité active ». D’autre part, il estime que « c’est impossible quand on est dirigeants de TikTok Europe de ne pas avoir eu connaissance » de ce qu’il se passe de grave sur la plateforme et il les accuse de parjure devant la commission.

  •  

TikTok et les réseaux sociaux se font dézinguer par des députés, qui veulent agir fort

Papa, c’est quoi cette… demande à TikTok
TikTok et les réseaux sociaux se font dézinguer par des députés, qui veulent agir fort

La commission d’enquête lancée par les députés à propos des effets psychologiques de TikTok sur les mineurs a rendu son rapport ce jeudi 11 septembre. Accablant pour la plateforme chinoise, le texte propose 43 recommandations dont l’interdiction des réseaux sociaux aux moins de 15 ans ainsi qu’un couvre-feu numérique pour les 15 - 18.

« Un des pires réseaux sociaux à l’assaut de notre jeunesse », « Fabrique du mal-être », « poison lent », « engrenage mortel », le rapport présenté par la Commission d’enquête sur les effets psychologiques de TikTok sur les mineurs lancée à l’Assemblée Nationale en mars dernier fait un constat désastreux des conséquences de l’utilisation de TikTok par les mineurs.

Les députés de la Commission font 43 recommandations concernant tous les réseaux sociaux. Celles-ci vont d’une « interdiction de l’accès aux services de réseaux sociaux en ligne […] aux mineurs de moins de 15 ans » à « un couvre-feu numérique de 22 heures à 8 heures pour les réseaux sociaux dotés de systèmes de recommandation de contenus ou de dispositifs visant à capter l’attention de l’utilisateur », en passant par l’introduction « dans le droit européen une obligation de pluralisme algorithmique, inspirée du principe de pluralisme des médias ».

« Force est d’admettre qu’après l’audition de 178 personnes, 163 à l’Assemblée nationale et 15 à Bruxelles, après plus de 90 heures d’auditions menées au pas de charge en à peine 3 mois du 12 avril au 26 juin 2025, le constat est encore pire qu’escompté », déplore le président de la Commission, le député PS Arthur Delaporte, dans le tome 1 du rapport (les auditions en elles-mêmes sont présentées dans son tome 2).

Après les constats cinglants sur la plateforme de vidéos en elle-même, les députés veulent réagir de façon plus globale par rapport à l’utilisation des réseaux sociaux par les mineurs et demandent un changement de législation au niveau européen.

La présidente de l’Union européenne Ursula von der Leyen annonçait hier qu’un groupe d’experts devait travailler sur le sujet et formuler des propositions : c’est « aux parents, et non aux algorithmes, d’élever nos enfants », affirme-t-elle. « En attendant ou à défaut », le rapport préconise de faire évoluer la législation nationale.

Ainsi, pour la rapporteuse du texte et députée Renaissance Laure Miller, « dans le cadre de la future adoption du Digital Fairness Act, la législation sur l’équité numérique, la France doit faire entendre sa voix, qui vise à protéger les mineurs. Enfin, introduire un pluralisme algorithmique est indispensable ».

Constats accablants sur les conséquences violentes de l’utilisation de TikTok sur les mineurs

La première partie du tome 1 du rapport est consacrée à l’enquête sur TikTok en elle-même. Titrée « TikTok, un des pires réseaux sociaux à l’assaut de notre jeunesse », elle compile tous les constats sur les conséquences violentes de l’utilisation de TikTok sur les mineurs.

Désinformation sur la santé (entre autres), glorifications du suicide et de l’automutilation, « lieu d’exposition à la violence sous toutes ses formes », « haine de l’autre sans complexe », « paradis pour les antisémites », « diffusion d’une idéologie masculiniste agrémentée de violences sexistes ». La liste de reproches contre la plateforme de ByteDance est très longue.

Le rapport explique aussi que « l’Office anti-cybercriminalité (OFAC), qui gère la plateforme PHAROS, note une hausse des signalements en lien avec des atteintes aux mineurs, qui représentent 7,5 % de l’ensemble des signalements en reçus entre le 1er janvier et le 22 mai 2025 contre 3,15 % l’année précédente. « Il ne s’agit pas de pédocriminalité « , précise Mme Cécile Augeraud, commissaire divisionnaire, chef‑adjoint à l’OFAC, « mais de contenus provenant de mineurs qui vont être détournés, comme des images détournées d’enfants jouant sur la plage, des contenus s’inscrivant dans des campagnes très spécifiques » ».

Les députés, dans leur rapport, affirment aussi que TikTok est « hors-la-loi s’agissant de la protection des données personnelles, et notamment de celles des utilisateurs mineurs » rappelant diverses violations du RGPD dont le transfert des données à caractère personnel des utilisateurs européens vers la Chine.

L’enquête des députés est un panorama très complet et accablant de la nocivité de la plateforme sur les jeunes.

Volonté d’imposer à tous les réseaux sociaux des mesures pour les mineurs

Dans son introduction, Arthur Delaporte explique que la commission s’est concentrée sur TikTok qui est « reconnue dans les témoignages reçus comme étant l’une des plus problématiques et la plus génératrice de dépendance et de consommation de temps d’écran par les mineurs » pour étudier plus globalement les réseaux sociaux et leur encadrement juridique notamment pour les mineurs. Il ajoute que « TikTok est donc l’objet, l’exemple, mais non un cas isolé ». Ainsi, aucune recommandation des députés ne se focalise sur la plateforme de ByteDance et les députés ne demandent pas son interdiction.

Par contre, ils listent 43 recommandations pour agir sur les réseaux sociaux et les mineurs en général. La première a déjà été plusieurs fois évoquée : l’interdiction de leur accès pour les mineurs de moins de 15 ans dans le droit de l’Union européenne. « En attendant ou à défaut », dans leur deuxième recommandation, ils proposent de l’inscrire le plus vite possible dans la législation nationale.

Le couvre-feu numérique pour les 15 - 18 ans de 22 heures à 8 heures « pour les réseaux sociaux dotés de systèmes de recommandation de contenus ou de dispositifs visant à capter l’attention de l’utilisateur » n’est que leur 32ᵉ recommandation, mais elle fait partie des mesures qui, une fois prises, seraient les plus visibles et contraignantes. Ils proposent aussi « que les paramètres adaptés à l’âge des utilisateurs mineurs ne puissent pas être désactivés ».

Les députés français proposent aussi « le renforcement des moyens financiers et humains alloués à la régulation des grandes plateformes numériques » dans l’Union européenne, mais aussi ceux de l’Arcom.

La proposition 12 du rapport veut « introduire dans le droit européen une obligation de pluralisme algorithmique, inspirée du principe de pluralisme des médias inscrit à l’article 34 de la Constitution, afin de garantir aux utilisateurs des plateformes, à travers la mise en place d’une interopérabilité des systèmes de recommandation et la possibilité de choisir entre plusieurs algorithmes, un réel pouvoir de décision sur leur expérience numérique – et en ce qui concerne les parents, sur celle de leurs enfants ».

Pour le reste, les députés veulent essentiellement renforcer les dispositifs d’information sur les effets néfastes des réseaux sociaux. Ainsi, ils proposent de « modifier les programmes d’enseignement moral et civique pour inclure une sensibilisation à l’usage raisonné des outils numériques » ou obliger que les emballages des téléphones mobiles et autres appareils « comportent un message de prévention visant à informer les consommateurs que ces produits sont déconseillés aux mineurs de moins de 13 ans ».

Après la remise du Rapport et avoir reposé sa casquette de président de la Commission, Arthur Delaporte a annoncé sur France Info avoir saisi la procureure de la République de Paris : pour lui, « le constat est sans appel : TikTok a délibérément mis en danger la santé, la vie de ses utilisateurs ». « Il me semble qu’il y a des infractions qui sont de nature pénale, de complicité active ». D’autre part, il estime que « c’est impossible quand on est dirigeants de TikTok Europe de ne pas avoir eu connaissance » de ce qu’il se passe de grave sur la plateforme et il les accuse de parjure devant la commission.

  •  

☕️ Selon AI Overviews de Google, le DOGE n’a jamais existé

Et si le département de « l’efficacité gouvernementale », surnommé DOGE par Donald Trump et Elon Musk, n’avait jamais existé aux États-Unis ? C’est ce qu’affirmait le paragraphe généré par AI Overviews, l’IA générative mise en place par Google en haut de son moteur de recherche pour résumer les résultats, explique Gizmodo.

Pourtant, Donald Trump a bien, dès novembre 2024, annoncé sa création et les équipes du DOGE ont pu mettre la main sur bien des systèmes informatiques des agences étasuniennes, désorganisant la NASA, la NOAA ou encore la National Science Foundation. Elles ont aussi été accusées d’avoir, entre autres, violé l’accès ou même exfiltré des données de certaines agences.

Mais l’IA de Google ne semble pas avoir trouvé ces informations. Au lieu de ça, le résumé généré par AI Overviews affirmait, lorsque des utilisateurs étasuniens faisaient une requête sur le sujet, que l’agence était en fait « fictionnelle » et venait d’ « une satire politique ou une théorie du complot ».

Repéré par un utilisateur, ce texte généré par l’IA de Google affirmait :

« Il n’existe aucun département gouvernemental nommé DOGE, et ce terme est utilisé dans des contextes critiques ou satiriques pour faire référence aux politiques ou aux mesures prises par l’administration Trump. »

Mais ce n’est pas tout. Le texte insistait : « Il est essentiel de comprendre qu’il n’existe aucune entité gouvernementale nommée DOGE, et que les discussions à ce sujet font partie du discours politique ou de la satire, et ne reflètent pas une action gouvernementale réelle ».

Contactée par nos confrères de Gizmodo, Google n’a donné aucune explication mais affirme :

« Cet AI Overview est manifestement incorrect. Il enfreint nos politiques en matière d’informations civiques, et nous prenons des mesures pour remédier à ce problème »

Fin mai, Elon Musk a quitté la tête du DOGE, mais celui-ci est resté officiellement actif. On peut néanmoins observer sur son site un ralentissement de son activité : depuis le 13 aout, aucune action n’est listée.

  •  

☕️ Selon AI Overviews de Google, le DOGE n’a jamais existé

Et si le département de « l’efficacité gouvernementale », surnommé DOGE par Donald Trump et Elon Musk, n’avait jamais existé aux États-Unis ? C’est ce qu’affirmait le paragraphe généré par AI Overviews, l’IA générative mise en place par Google en haut de son moteur de recherche pour résumer les résultats, explique Gizmodo.

Pourtant, Donald Trump a bien, dès novembre 2024, annoncé sa création et les équipes du DOGE ont pu mettre la main sur bien des systèmes informatiques des agences étasuniennes, désorganisant la NASA, la NOAA ou encore la National Science Foundation. Elles ont aussi été accusées d’avoir, entre autres, violé l’accès ou même exfiltré des données de certaines agences.

Mais l’IA de Google ne semble pas avoir trouvé ces informations. Au lieu de ça, le résumé généré par AI Overviews affirmait, lorsque des utilisateurs étasuniens faisaient une requête sur le sujet, que l’agence était en fait « fictionnelle » et venait d’ « une satire politique ou une théorie du complot ».

Repéré par un utilisateur, ce texte généré par l’IA de Google affirmait :

« Il n’existe aucun département gouvernemental nommé DOGE, et ce terme est utilisé dans des contextes critiques ou satiriques pour faire référence aux politiques ou aux mesures prises par l’administration Trump. »

Mais ce n’est pas tout. Le texte insistait : « Il est essentiel de comprendre qu’il n’existe aucune entité gouvernementale nommée DOGE, et que les discussions à ce sujet font partie du discours politique ou de la satire, et ne reflètent pas une action gouvernementale réelle ».

Contactée par nos confrères de Gizmodo, Google n’a donné aucune explication mais affirme :

« Cet AI Overview est manifestement incorrect. Il enfreint nos politiques en matière d’informations civiques, et nous prenons des mesures pour remédier à ce problème »

Fin mai, Elon Musk a quitté la tête du DOGE, mais celui-ci est resté officiellement actif. On peut néanmoins observer sur son site un ralentissement de son activité : depuis le 13 aout, aucune action n’est listée.

  •  

Le Quai d’Orsay veut être plus offensif dans la guerre informationnelle

À désinformation, désinformation et demi ?
Le Quai d’Orsay veut être plus offensif dans la guerre informationnelle

Jean-Noël Barrot veut que la France lance une riposte « plus offensive, plus réactive et plus impactante » face aux manipulations de l’information venues de l’étranger, notamment sur les réseaux sociaux. Le Quai d’Orsay a ouvert le compte French Response sur X et imaginait une stratégie incluant l’utilisation d’influenceurs, potentiellement rémunérés. Mais la situation politique française actuelle pourrait faire capoter les plans du ministre de l’Europe et des affaires étrangères, désormais démissionnaire.

« French Response », c’est le nom du compte officiel de riposte du ministère de l’Europe et des Affaires étrangères lancé sur X ce vendredi 5 septembre. Son objectif, selon Jean-Noël Barrot, est de « riposter contre toutes celles et ceux qui veulent porter atteinte à l’image de la France ».

Factchecking officiellement assumé par le Quai d’Orsay sur X

Au journal Le Monde, le Quai d’Orsay explique que le compte vise « à apporter une réponse rapide aux allégations étrangères hostiles en rétablissant les faits » et à « se doter d’un canal d’expression complémentaire aux comptes institutionnels existants, adapté à la tonalité actuelle des interactions internationales ». Le premier (et seul) sujet pour l’instant évoqué par ce compte est une réfutation des propos du secrétaire d’État étasunien, Marco Rubio. Le compte propose un « factchecking » affirmant que « la reconnaissance de l’État palestinien n’a pas entraîné l’échec des négociations sur les otages ».

Ce compte fait partie d’un nouveau dispositif que veulent mettre en place les services Jean-Noël Barrot. En effet, comme l’explique notre consœur du média spécialisé La Lettre, le ministre de l’Europe et des affaires étrangères – désormais démissionnaire – a adressé en mai dernier une note à Emmanuel Macron et François Bayrou pour leur proposer la mise en place d’une stratégie plus offensive, avec ce qu’il appelle « un narratif clair, un alignement interministériel fort et un écosystème public-privé opérationnel ».

Des vidéos et fuites publiées de manière non officielles mais « assumables »

Cette note propose, selon La Lettre, que les ambassades françaises portent sur les divers réseaux sociaux un contre-discours plus offensif pour contrer les narratifs hostiles, en anglais, arabe ou russe. Mais, si le compte « French Response » sur X est bien assumé par le Quai d’Orsay et s’affiche comme tel (sans pour autant avoir de coche bleue ou grise), la note propose des comptes « démarqués » qui pourraient même « produire des vidéos non officielles sur des sujets sensibles pour nos compétiteurs » ou « organiser des fuites ciblées contre des dignitaires étrangers afin que leurs actions hostiles soient suivies d’un coût opérationnel ». Le Quai d’Orsay imagine des campagnes « non revendiquées mais assumables si leur origine venait à être divulguée ».

Selon La Lettre, le ministère aurait déjà approché une dizaine d’influenceurs pour ce genre d’opérations. Il aurait même mené une « vingtaine d’actions de communication offensives inédites depuis le printemps 2024 » grâce au « partage d’éléments par les services de renseignement », en collaboration avec l’Élysée et la Direction générale de la sécurité extérieure (DGSE).

Les services de Jean-Noël Barrot voudraient l’étendre dans le réseau des ambassades. Celles-ci pourraient mettre en place un réseau d’influenceurs et de producteurs de contenus locaux, avec potentiellement une rémunération à terme de certains « lorsque cela se justifie ».

Une collaboration imaginée avec des médias

Ignorant la différence entre communication gouvernementale et médias, la note suggère aussi « une coalition des rédactions de fact-checking » avec France Médias Monde (France 24, RFI et Monte Carlo Doualiya) et l’Agence France-Presse.

Cette note devait être présentée au conseil de défense prévu le 10 septembre, mais la présentation aurait été reportée au 18 septembre compte tenu du vote contre la confiance au gouvernement par l’Assemblée Nationale ce lundi 8 septembre. Difficile de savoir, à l’heure actuelle, si elle aura lieu et si ce projet de riposte plus offensive sera repris par le ou la successeur de Jean-Noël Barrot, s’il n’est pas reconduit.

  •  

Le Quai d’Orsay veut être plus offensif dans la guerre informationnelle

À désinformation, désinformation et demi ?
Le Quai d’Orsay veut être plus offensif dans la guerre informationnelle

Jean-Noël Barrot veut que la France lance une riposte « plus offensive, plus réactive et plus impactante » face aux manipulations de l’information venues de l’étranger, notamment sur les réseaux sociaux. Le Quai d’Orsay a ouvert le compte French Response sur X et imaginait une stratégie incluant l’utilisation d’influenceurs, potentiellement rémunérés. Mais la situation politique française actuelle pourrait faire capoter les plans du ministre de l’Europe et des affaires étrangères, désormais démissionnaire.

« French Response », c’est le nom du compte officiel de riposte du ministère de l’Europe et des Affaires étrangères lancé sur X ce vendredi 5 septembre. Son objectif, selon Jean-Noël Barrot, est de « riposter contre toutes celles et ceux qui veulent porter atteinte à l’image de la France ».

Factchecking officiellement assumé par le Quai d’Orsay sur X

Au journal Le Monde, le Quai d’Orsay explique que le compte vise « à apporter une réponse rapide aux allégations étrangères hostiles en rétablissant les faits » et à « se doter d’un canal d’expression complémentaire aux comptes institutionnels existants, adapté à la tonalité actuelle des interactions internationales ». Le premier (et seul) sujet pour l’instant évoqué par ce compte est une réfutation des propos du secrétaire d’État étasunien, Marco Rubio. Le compte propose un « factchecking » affirmant que « la reconnaissance de l’État palestinien n’a pas entraîné l’échec des négociations sur les otages ».

Ce compte fait partie d’un nouveau dispositif que veulent mettre en place les services Jean-Noël Barrot. En effet, comme l’explique notre consœur du média spécialisé La Lettre, le ministre de l’Europe et des affaires étrangères – désormais démissionnaire – a adressé en mai dernier une note à Emmanuel Macron et François Bayrou pour leur proposer la mise en place d’une stratégie plus offensive, avec ce qu’il appelle « un narratif clair, un alignement interministériel fort et un écosystème public-privé opérationnel ».

Des vidéos et fuites publiées de manière non officielles mais « assumables »

Cette note propose, selon La Lettre, que les ambassades françaises portent sur les divers réseaux sociaux un contre-discours plus offensif pour contrer les narratifs hostiles, en anglais, arabe ou russe. Mais, si le compte « French Response » sur X est bien assumé par le Quai d’Orsay et s’affiche comme tel (sans pour autant avoir de coche bleue ou grise), la note propose des comptes « démarqués » qui pourraient même « produire des vidéos non officielles sur des sujets sensibles pour nos compétiteurs » ou « organiser des fuites ciblées contre des dignitaires étrangers afin que leurs actions hostiles soient suivies d’un coût opérationnel ». Le Quai d’Orsay imagine des campagnes « non revendiquées mais assumables si leur origine venait à être divulguée ».

Selon La Lettre, le ministère aurait déjà approché une dizaine d’influenceurs pour ce genre d’opérations. Il aurait même mené une « vingtaine d’actions de communication offensives inédites depuis le printemps 2024 » grâce au « partage d’éléments par les services de renseignement », en collaboration avec l’Élysée et la Direction générale de la sécurité extérieure (DGSE).

Les services de Jean-Noël Barrot voudraient l’étendre dans le réseau des ambassades. Celles-ci pourraient mettre en place un réseau d’influenceurs et de producteurs de contenus locaux, avec potentiellement une rémunération à terme de certains « lorsque cela se justifie ».

Une collaboration imaginée avec des médias

Ignorant la différence entre communication gouvernementale et médias, la note suggère aussi « une coalition des rédactions de fact-checking » avec France Médias Monde (France 24, RFI et Monte Carlo Doualiya) et l’Agence France-Presse.

Cette note devait être présentée au conseil de défense prévu le 10 septembre, mais la présentation aurait été reportée au 18 septembre compte tenu du vote contre la confiance au gouvernement par l’Assemblée Nationale ce lundi 8 septembre. Difficile de savoir, à l’heure actuelle, si elle aura lieu et si ce projet de riposte plus offensive sera repris par le ou la successeur de Jean-Noël Barrot, s’il n’est pas reconduit.

  •  

La déléguée mondiale à la Protection des Données de Palantir est aussi porte-parole du PS

La déléguée mondiale à la Protection des Données de Palantir est aussi porte-parole du PS

Julie Martinez est, depuis un mois, porte-parole du Parti Socialiste. Mais elle exerce aussi les fonctions de Déléguée mondiale à la Protection des données au sein de Palantir, l’entreprise fondée notamment par Peter Thiel et Alexander Karp pour accomplir leur vision politique d’extrême droite.

Depuis un mois, Julie Martinez est une des porte-paroles du Parti Socialiste. Mais elle est aussi déléguée mondiale à la Protection des Données pour l’entreprise Palantir, co-fondée par Peter Thiel et Alexander Karp, révélait le journal l’Humanité vendredi 5 septembre. Cette juriste est entrée au PS en 2017.

Des tribunes sur la souveraineté et le sexisme dans l’IA

Julie Martinez est aussi Directrice Générale du think tank France Positive, présidé par Jacques Attali. Avec cette casquette, elle publie notamment des tribunes sur le numérique. Par exemple, en février dernier, elle co-signait dans La Tribune, que « l’IA ne nait pas sexiste, elle le devient. Nourrie par des données du passé, elle hérite des rapports de domination trop longtemps établis. Et comme 88 % des algorithmes sont créés par des hommes, elle reproduit leurs biais, diffuse et amplifie les clichés des inégalités de genre ».

À l’occasion de la sortie de DeepSeek-R1, elle publiait dans le Monde une tribune dans laquelle elle pointait des questions de souveraineté et d’intégrité des données si le modèle de l’entreprise chinoise était utilisé dans des secteurs stratégiques et publics : « L’adoption massive de DeepSeek-R1 dans des secteurs stratégiques et publics pose des questions de souveraineté et d’intégrité des données. Si ce reproche est souvent fait à l’encontre de nombreux géants américains, les entreprises technologiques chinoises opèrent, elles, dans un cadre de gouvernance étroitement supervisé par l’État. Sous le couvert d’innovation, ces technologies pourraient s’avérer être des chevaux de Troie numériques prêts à s’immiscer dans nos activités nationales », affirmait-elle.

Depuis 2022, « legal ninja » puis DPO chez Palantir

Mais Julie Martinez a aussi rejoint Palantir en 2022. En tant qu’avocate ( « legal ninja » sur son profil Linkedin) puis en tant que déléguée mondiale à la Protection des Données. Cette entreprise n’est pas n’importe quelle startup d’analyse de données. Elle a été fondée par les libertariens Peter Thiel, Stephen Cohen, Joe Lonsdale, et Alex Karp. Ce projet a été financé notamment par David Sacks.

Dès l’origine, Palantir a été pensée comme une entreprise qui récupère le plus de données possible pour mettre en place leur projet politique, notamment en aidant les agences de renseignement à faire proliférer leurs programmes de surveillance. Alex Karp, qui en est encore le CEO, assume toujours dans une publicité affichée sur des abribus et diffusée sur X : « Nous avons créé Palantir pour assurer l’avenir de l’Amérique, pas pour bricoler à la marge. […] Dans les usines, dans les salles d’opération, sur les champs de bataille, nous construisons pour dominer ».

Ses fondateurs ont réussi non seulement à mettre en place leurs solutions dans les administrations, mais aussi à entretenir des liens étroits avec les équipes de l’actuel président des États-Unis.

Ainsi, Peter Thiel est devenu dès le premier mandat de Donald Trump un de ses conseillers et David Sacks a été nommé « tsar » de la crypto et de l’IA à la Maison-Blanche au début de son deuxième mandat. C’est au cours d’un show co-animé par David Sacks que Donald Trump a signé ses décrets imposant son idéologie dans les modèles d’IA utilisés dans les agences étasuniennes.

Le deuxième mandat de Donald Trump marque aussi une accélération de l’utilisation des logiciels de Palantir dans les agences étasuniennes au risque d’une fusion des données, l’entreprise profitant à fond de cette élection. Elle a, par exemple, bénéficié d’un contrat de 30 millions de dollars avec le gouvernement étasunien pour mettre en place Immigration OS, un outil d’assistance à l’expulsion des étrangers du sol étasunien.

Palantir « accompagne la lutte contre les extrémismes », selon Julie Martinez

Mais pour Julie Martinez, son poste de déléguée mondiale à la Protection des Données chez Palantir n’est pas incompatible avec celui de porte-parole du PS. Interrogée par l’Humanité, elle affirme être chargée de « veiller à ce que nos valeurs européennes soient prises en compte » et avoir un poste « à impact ». Elle ajoute qu’elle est « coriace et redoutable » et qu’elle a l’impression d’être « efficace ».

À nos confrères, elle assure que travailler pour Palantir, ce n’est pas renier les « convictions de militante socialiste, antifasciste, anti-extrême droite » qui lui sont « chevillées au corps ». Ça serait même « défendre des convictions là où ça compte vraiment ». Toujours à l’Humanité, elle assure que les responsables de l’entreprise connaissent « parfaitement [ses] positions publiques ». Elle juge que Peter Thiel est « un libertarien qu’[elle] méprise », que son idéologie est « mortifère » mais qu’il n’a « plus aucun pouvoir opérationnel ».

Selon elle, toujours en réponse à l’Humanité, Palantir « accompagne la lutte contre les extrémismes », appuie les Ukrainiens et s’engage « contre le trafic de bébés » et elle balaie l’information sur le contrat Immigration OS d’un très trumpien « fake news ».

Interrogée par Next, Julie Martinez n’a pas répondu, notamment sur les prises de positions récentes de l’actuel CEO de Palantir, Alex Karp, affirmant que les entreprises d’informatique les plus importantes sont celles dont les produits « renforcent la supériorité évidente et innée de l’Occident » et « apportent violence et mort à nos ennemis ».

Le Parti socialiste ne s’en offusque pas auprès de l’Humanité. Si pour le directeur général du PS, Floran Vadillo, « travailler pour Palantir n’est pas un non-sujet », il ajoute que « les fonctions de Julie Martinez sont conformes à son engagement » et qu’ « elle porte un discours de régulation ».

Erratum : Nous avons corrigé une erreur suite à la confusion avec une homonyme engagée aussi au PS dans le Tarn.

  •  

La déléguée mondiale à la Protection des Données de Palantir est aussi porte-parole du PS

La déléguée mondiale à la Protection des Données de Palantir est aussi porte-parole du PS

Julie Martinez est, depuis un mois, porte-parole du Parti Socialiste. Mais elle exerce aussi les fonctions de Déléguée mondiale à la Protection des données au sein de Palantir, l’entreprise fondée notamment par Peter Thiel et Alexander Karp pour accomplir leur vision politique d’extrême droite.

Depuis un mois, Julie Martinez est une des porte-paroles du Parti Socialiste. Mais elle est aussi déléguée mondiale à la Protection des Données pour l’entreprise Palantir, co-fondée par Peter Thiel et Alexander Karp, révélait le journal l’Humanité vendredi 5 septembre. Cette juriste est entrée au PS en 2017.

Des tribunes sur la souveraineté et le sexisme dans l’IA

Julie Martinez est aussi Directrice Générale du think tank France Positive, présidé par Jacques Attali. Avec cette casquette, elle publie notamment des tribunes sur le numérique. Par exemple, en février dernier, elle co-signait dans La Tribune, que « l’IA ne nait pas sexiste, elle le devient. Nourrie par des données du passé, elle hérite des rapports de domination trop longtemps établis. Et comme 88 % des algorithmes sont créés par des hommes, elle reproduit leurs biais, diffuse et amplifie les clichés des inégalités de genre ».

À l’occasion de la sortie de DeepSeek-R1, elle publiait dans le Monde une tribune dans laquelle elle pointait des questions de souveraineté et d’intégrité des données si le modèle de l’entreprise chinoise était utilisé dans des secteurs stratégiques et publics : « L’adoption massive de DeepSeek-R1 dans des secteurs stratégiques et publics pose des questions de souveraineté et d’intégrité des données. Si ce reproche est souvent fait à l’encontre de nombreux géants américains, les entreprises technologiques chinoises opèrent, elles, dans un cadre de gouvernance étroitement supervisé par l’État. Sous le couvert d’innovation, ces technologies pourraient s’avérer être des chevaux de Troie numériques prêts à s’immiscer dans nos activités nationales », affirmait-elle.

Depuis 2022, « legal ninja » puis DPO chez Palantir

Mais Julie Martinez a aussi rejoint Palantir en 2022. En tant qu’avocate ( « legal ninja » sur son profil Linkedin) puis en tant que déléguée mondiale à la Protection des Données. Cette entreprise n’est pas n’importe quelle startup d’analyse de données. Elle a été fondée par les libertariens Peter Thiel, Stephen Cohen, Joe Lonsdale, et Alex Karp. Ce projet a été financé notamment par David Sacks.

Dès l’origine, Palantir a été pensée comme une entreprise qui récupère le plus de données possible pour mettre en place leur projet politique, notamment en aidant les agences de renseignement à faire proliférer leurs programmes de surveillance. Alex Karp, qui en est encore le CEO, assume toujours dans une publicité affichée sur des abribus et diffusée sur X : « Nous avons créé Palantir pour assurer l’avenir de l’Amérique, pas pour bricoler à la marge. […] Dans les usines, dans les salles d’opération, sur les champs de bataille, nous construisons pour dominer ».

Ses fondateurs ont réussi non seulement à mettre en place leurs solutions dans les administrations, mais aussi à entretenir des liens étroits avec les équipes de l’actuel président des États-Unis.

Ainsi, Peter Thiel est devenu dès le premier mandat de Donald Trump un de ses conseillers et David Sacks a été nommé « tsar » de la crypto et de l’IA à la Maison-Blanche au début de son deuxième mandat. C’est au cours d’un show co-animé par David Sacks que Donald Trump a signé ses décrets imposant son idéologie dans les modèles d’IA utilisés dans les agences étasuniennes.

Le deuxième mandat de Donald Trump marque aussi une accélération de l’utilisation des logiciels de Palantir dans les agences étasuniennes au risque d’une fusion des données, l’entreprise profitant à fond de cette élection. Elle a, par exemple, bénéficié d’un contrat de 30 millions de dollars avec le gouvernement étasunien pour mettre en place Immigration OS, un outil d’assistance à l’expulsion des étrangers du sol étasunien.

Palantir « accompagne la lutte contre les extrémismes », selon Julie Martinez

Mais pour Julie Martinez, son poste de déléguée mondiale à la Protection des Données chez Palantir n’est pas incompatible avec celui de porte-parole du PS. Interrogée par l’Humanité, elle affirme être chargée de « veiller à ce que nos valeurs européennes soient prises en compte » et avoir un poste « à impact ». Elle ajoute qu’elle est « coriace et redoutable » et qu’elle a l’impression d’être « efficace ».

À nos confrères, elle assure que travailler pour Palantir, ce n’est pas renier les « convictions de militante socialiste, antifasciste, anti-extrême droite » qui lui sont « chevillées au corps ». Ça serait même « défendre des convictions là où ça compte vraiment ». Toujours à l’Humanité, elle assure que les responsables de l’entreprise connaissent « parfaitement [ses] positions publiques ». Elle juge que Peter Thiel est « un libertarien qu’[elle] méprise », que son idéologie est « mortifère » mais qu’il n’a « plus aucun pouvoir opérationnel ».

Selon elle, toujours en réponse à l’Humanité, Palantir « accompagne la lutte contre les extrémismes », appuie les Ukrainiens et s’engage « contre le trafic de bébés » et elle balaie l’information sur le contrat Immigration OS d’un très trumpien « fake news ».

Interrogée par Next, Julie Martinez n’a pas répondu, notamment sur les prises de positions récentes de l’actuel CEO de Palantir, Alex Karp, affirmant que les entreprises d’informatique les plus importantes sont celles dont les produits « renforcent la supériorité évidente et innée de l’Occident » et « apportent violence et mort à nos ennemis ».

Le Parti socialiste ne s’en offusque pas auprès de l’Humanité. Si pour le directeur général du PS, Floran Vadillo, « travailler pour Palantir n’est pas un non-sujet », il ajoute que « les fonctions de Julie Martinez sont conformes à son engagement » et qu’ « elle porte un discours de régulation ».

Erratum : Nous avons corrigé une erreur suite à la confusion avec une homonyme engagée aussi au PS dans le Tarn.

  •  

☕️ IA : Apple face à une plainte pour violation du copyright

Jennifer Roberson et Grady Hendrix accusent Apple d’avoir entrainé illégalement ses modèles de langage sur leurs livres copyrightés. Comme l’explique Reuters, ils ont monté une action collective devant la justice étasunienne contre l’entreprise à la pomme.

« Apple n’a pas tenté de rémunérer ces auteurs pour leur contribution à cette entreprise potentiellement lucrative », reproche la plainte [PDF].

Cette plainte est déposée alors qu’Anthropic a accepté d’indemniser, à hauteur d’au moins 1,5 milliard de dollars, les auteurs et autrices des livres utilisés pour entrainer ses modèles, après les avoir téléchargés sur des librairies clandestines.

Rappelons aussi que d’autres entreprises comme OpenAI ou Meta font face à des attaques en justice similaires.

  •  

☕️ IA : Apple face à une plainte pour violation du copyright

Jennifer Roberson et Grady Hendrix accusent Apple d’avoir entrainé illégalement ses modèles de langage sur leurs livres copyrightés. Comme l’explique Reuters, ils ont monté une action collective devant la justice étasunienne contre l’entreprise à la pomme.

« Apple n’a pas tenté de rémunérer ces auteurs pour leur contribution à cette entreprise potentiellement lucrative », reproche la plainte [PDF].

Cette plainte est déposée alors qu’Anthropic a accepté d’indemniser, à hauteur d’au moins 1,5 milliard de dollars, les auteurs et autrices des livres utilisés pour entrainer ses modèles, après les avoir téléchargés sur des librairies clandestines.

Rappelons aussi que d’autres entreprises comme OpenAI ou Meta font face à des attaques en justice similaires.

  •