Plus d’un an après son investiture et après avoir maintes fois attaqué les agences scientifiques de son pays, Donald Trump a nommé les membres de son Comité présidentiel des conseillers en science et technologie (President’s Council of Advisors on Science and Technology PCAST).
Ce comité est présidé, comme annoncé en janvier 2025, par Michael Kratsios (conseiller de Donald Trump depuis son premier mandat) et l’investisseur David Sacks (PayPal, Facebook, Uber, SpaceX, Palantir…).
John Martinis (responsable du Google Quantum AI Lab et prix Nobel de physique 2025)
Bob Mumgaard (CEO de Commonwealth Fusion Systems)
Lisa Su (CEO d’AMD)
Mark Zuckerberg (CEO de Meta)
Si une bonne partie de ces personnalités ont fait des études longues, et parfois dans des universités prestigieuses, ArsTechnica pointe le fait qu’aucun n’est actuellement chercheur.
De fait, ce comité a été créé en 2001 sous George W. Bush et n’a pas une importance primordiale dans la gestion de la politique de la recherche aux États-Unis. Mais cette longue liste de responsables de la tech états-unienne marque en creux le manque de chercheuses et chercheurs sur tous les autres sujets que peuvent couvrir les différentes disciplines scientifiques.
Plus d’un an après son investiture et après avoir maintes fois attaqué les agences scientifiques de son pays, Donald Trump a nommé les membres de son Comité présidentiel des conseillers en science et technologie (President’s Council of Advisors on Science and Technology PCAST).
Ce comité est présidé, comme annoncé en janvier 2025, par Michael Kratsios (conseiller de Donald Trump depuis son premier mandat) et l’investisseur David Sacks (PayPal, Facebook, Uber, SpaceX, Palantir…).
John Martinis (responsable du Google Quantum AI Lab et prix Nobel de physique 2025)
Bob Mumgaard (CEO de Commonwealth Fusion Systems)
Lisa Su (CEO d’AMD)
Mark Zuckerberg (CEO de Meta)
Si une bonne partie de ces personnalités ont fait des études longues, et parfois dans des universités prestigieuses, ArsTechnica pointe le fait qu’aucun n’est actuellement chercheur.
De fait, ce comité a été créé en 2001 sous George W. Bush et n’a pas une importance primordiale dans la gestion de la politique de la recherche aux États-Unis. Mais cette longue liste de responsables de la tech états-unienne marque en creux le manque de chercheuses et chercheurs sur tous les autres sujets que peuvent couvrir les différentes disciplines scientifiques.
Le procès opposant Kaley G. M. et sa mère à Google et Meta se termine sur une condamnation des deux entreprises à quelques millions d’euros chacune. Le montant est moins élevé que d’autres affaires médiatiques concernant les GAFAM, mais cette décision pourrait faire jurisprudence dans de nombreux cas similaires, si elle est confirmée en appel.
Meta et YouTube ont mis en place des fonctionnalités conçues pour créer une dépendance à leurs réseaux sociaux et plateformes de vidéos, et celles-ci ont entraîné des troubles de santé mentale sur une jeune utilisatrice, a conclu le jury de la Cour supérieure de justice de Los Angeles.
Le procès opposait depuis un mois et demi Kaley G. M, une plaignante âgée actuellement de 20 ans accompagnée par sa mère, à Google et Meta.
Le jugement inclut des dommages-intérêts de 4,2 millions de dollars à verser par Meta et 1,8 million par YouTube. Kaley G. M les accusait d’avoir provoqué et entretenu son addiction à leur service alors qu’elle était mineure. Elle avait pu créer son compte Instagram à l’âge de 9 ans alors que l’application ne demandait pas encore la date de naissance de l’utilisateur à l’inscription.
« Je pense généralement qu’il existe un groupe de personnes, potentiellement assez important, qui mentent sur leur âge afin d’utiliser nos services », avait affirmé Mark Zuckerberg alors qu’il était pressé de justifier la politique de Meta relative aux préados au cours du procès.
L’avocat de Kaley G. M, Mark Lanier a montré que Meta a enterré une recherche menée en interne sur les conséquences de ses produits sur les adolescents qui ne lui convenait pas.
Le New York Times explique que, lors du procès, l’avocat a insisté sur les fonctionnalités de défilement infini, d’algorithmes de recommandation et de vidéos en autoplay, qui seraient conçues pour capter notamment les jeunes utilisateurs, et qu’ils utilisent Instagram, YouTube et autres plateformes de manière compulsive.
La jeune femme avait expliqué qu’elle était tous les jours sur les réseaux sociaux. « Je ne peux tout simplement pas m’en passer », répondait-elle à la question « Pourquoi n’arrêtez-vous pas ? ».
Son avocat avait insisté sur la politique interne de Meta pour attirer les ados, citant un document interne à l’entreprise datant de 2018 affirmant que « si nous voulons vraiment gagner auprès des adolescents, nous devons les attirer dès leur préadolescence ».
Si Meta et Google sont les deux seules entreprises à être condamnées, Snap et TikTok étaient aussi initialement visées. Mais celles-ci ont préféré négocier un accord confidentiel leur évitant que soient déballées au grand public des informations internes sur leur politique vis-à-vis des jeunes utilisateurs.
Le verdict de ce procès arrive juste après que l’entreprise de Mark Zuckerberg a été condamnée à 375 millions de dollars d’amende pour le déploiement d’outils dangereux pour la santé mentale des mineurs.
Si la somme versée ici à Kaley G. M est très inférieure à cette amende, cette décision pourrait faire tache d’huile. En effet, près de 2 500 autres procès attendent les quatre entreprises de réseaux sociaux aux États-Unis, selon le média spécialisé Courthouse News. Et le verdict pourrait faire jurisprudence si la décision est confirmée en appel.
Car les deux entreprises ont déjà planifié de faire appel, selon Reuters. « Cette affaire repose sur une mauvaise compréhension de YouTube, qui est une plateforme de streaming conçue de manière responsable, et non un réseau social », assure au New York Times le porte-parole de Google.
Les deux entreprises avaient mis en avant le fait que les poursuites étaient irrecevables selon l’article 230 du Communications Decency Act, qui protège les plateformes de la responsabilité des contenus publiés par leurs utilisateurs. Mais, comme l’explique Reuters, les juges avaient rejeté cet argument et avaient permis la poursuite de l’instruction. Il sera cependant sans doute réutilisé par les avocats de Google et Meta en appel.
À Courthouse News, l’une des jurées a affirmé : « Nous voulions que [Meta et Google] comprennent que cela n’était pas acceptable ». Mais, selon elle, le jury craignait de « remettre la totalité de la somme à une seule personne », avant d’ajouter : « Nous avons pensé que si cette somme pouvait être versée petit à petit, pour être dépensée à bon escient et durer longtemps, nous aurions probablement fixé un montant plus élevé. »
Le procès opposant Kaley G. M. et sa mère à Google et Meta se termine sur une condamnation des deux entreprises à quelques millions d’euros chacune. Le montant est moins élevé que d’autres affaires médiatiques concernant les GAFAM, mais cette décision pourrait faire jurisprudence dans de nombreux cas similaires, si elle est confirmée en appel.
Meta et YouTube ont mis en place des fonctionnalités conçues pour créer une dépendance à leurs réseaux sociaux et plateformes de vidéos, et celles-ci ont entraîné des troubles de santé mentale sur une jeune utilisatrice, a conclu le jury de la Cour supérieure de justice de Los Angeles.
Le procès opposait depuis un mois et demi Kaley G. M, une plaignante âgée actuellement de 20 ans accompagnée par sa mère, à Google et Meta.
Le jugement inclut des dommages-intérêts de 4,2 millions de dollars à verser par Meta et 1,8 million par YouTube. Kaley G. M les accusait d’avoir provoqué et entretenu son addiction à leur service alors qu’elle était mineure. Elle avait pu créer son compte Instagram à l’âge de 9 ans alors que l’application ne demandait pas encore la date de naissance de l’utilisateur à l’inscription.
« Je pense généralement qu’il existe un groupe de personnes, potentiellement assez important, qui mentent sur leur âge afin d’utiliser nos services », avait affirmé Mark Zuckerberg alors qu’il était pressé de justifier la politique de Meta relative aux préados au cours du procès.
L’avocat de Kaley G. M, Mark Lanier a montré que Meta a enterré une recherche menée en interne sur les conséquences de ses produits sur les adolescents qui ne lui convenait pas.
Le New York Times explique que, lors du procès, l’avocat a insisté sur les fonctionnalités de défilement infini, d’algorithmes de recommandation et de vidéos en autoplay, qui seraient conçues pour capter notamment les jeunes utilisateurs, et qu’ils utilisent Instagram, YouTube et autres plateformes de manière compulsive.
La jeune femme avait expliqué qu’elle était tous les jours sur les réseaux sociaux. « Je ne peux tout simplement pas m’en passer », répondait-elle à la question « Pourquoi n’arrêtez-vous pas ? ».
Son avocat avait insisté sur la politique interne de Meta pour attirer les ados, citant un document interne à l’entreprise datant de 2018 affirmant que « si nous voulons vraiment gagner auprès des adolescents, nous devons les attirer dès leur préadolescence ».
Si Meta et Google sont les deux seules entreprises à être condamnées, Snap et TikTok étaient aussi initialement visées. Mais celles-ci ont préféré négocier un accord confidentiel leur évitant que soient déballées au grand public des informations internes sur leur politique vis-à-vis des jeunes utilisateurs.
Le verdict de ce procès arrive juste après que l’entreprise de Mark Zuckerberg a été condamnée à 375 millions de dollars d’amende pour le déploiement d’outils dangereux pour la santé mentale des mineurs.
Si la somme versée ici à Kaley G. M est très inférieure à cette amende, cette décision pourrait faire tache d’huile. En effet, près de 2 500 autres procès attendent les quatre entreprises de réseaux sociaux aux États-Unis, selon le média spécialisé Courthouse News. Et le verdict pourrait faire jurisprudence si la décision est confirmée en appel.
Car les deux entreprises ont déjà planifié de faire appel, selon Reuters. « Cette affaire repose sur une mauvaise compréhension de YouTube, qui est une plateforme de streaming conçue de manière responsable, et non un réseau social », assure au New York Times le porte-parole de Google.
Les deux entreprises avaient mis en avant le fait que les poursuites étaient irrecevables selon l’article 230 du Communications Decency Act, qui protège les plateformes de la responsabilité des contenus publiés par leurs utilisateurs. Mais, comme l’explique Reuters, les juges avaient rejeté cet argument et avaient permis la poursuite de l’instruction. Il sera cependant sans doute réutilisé par les avocats de Google et Meta en appel.
À Courthouse News, l’une des jurées a affirmé : « Nous voulions que [Meta et Google] comprennent que cela n’était pas acceptable ». Mais, selon elle, le jury craignait de « remettre la totalité de la somme à une seule personne », avant d’ajouter : « Nous avons pensé que si cette somme pouvait être versée petit à petit, pour être dépensée à bon escient et durer longtemps, nous aurions probablement fixé un montant plus élevé. »
Le Pentagone a décidé de mettre au cœur de sa stratégie militaire le système Maven de Palantir. En parallèle, l’entreprise dirigée par Alex Karp a décroché un contrat avec l’autorité financière britannique lui donnant accès à des données très sensibles concernant le pays.
Le département étatsunien de la Défense (ou de la Guerre, selon la nouvelle appellation trumpiste) a décidé d’accélérer l’introduction dans son processus décisionnel de la solution logicielle Maven de Palantir.
Le secrétaire adjoint de la Défense des États-Unis, Steve Feinberg, a officialisé dans un mémo interne qu’a pu consulter Reuters que le système Maven devient un programme officiel du Pentagone, ce qui garantit à Palantir l’utilisation à long terme de sa technologie au sein de l’armée américaine.
Investissement massif de l’armée américaine dans l’IA et dans les solutions de Palantir en particulier
Comme nous l’expliquions l’année dernière, ce logiciel est déjà utilisé par le Pentagone, l’armée israélienne et par l’OTAN depuis l’année dernière. Ce programme utilise des données massivement agrégées pour alimenter la prise de décision sur les terrains d’opérations et notamment la reconnaissance automatique de véhicules ou de cibles observées par des drones ou des satellites.
Steve Feinberg affirme dans son mémo que Maven fournira aux combattants américains « les outils les plus récents nécessaires pour détecter, dissuader et dominer [leurs] adversaires dans tous les domaines ».
« Il est impératif que nous investissions dès maintenant et de manière ciblée pour renforcer l’intégration de l’IA au sein de la Force interarmées et faire de la prise de décision fondée sur l’IA la pierre angulaire de notre stratégie », y affirme-t-il encore.
Cette décision renforce encore la position de Palantir au sein du système de décision militaire étatsunien et dans l’administration américaine en général. Comme nous l’expliquions déjà en août dernier, Palantir a profité à fond de l’élection de Donald Trump.
Cette intégration de Maven se met en place alors que le budget prévu pour « l’autonomie et les systèmes autonomes » au sein du département de la Défense par l’administration Trump est de 13,4 milliards de dollars, dont 9,4 milliards pour les drones, 1,7 milliard pour les systèmes maritimes autonomes, 210 millions pour les véhicules terrestres, 7,34 millions pour les capacités sous-marines et 1,2 milliard de dollars pour les logiciels de supervision de l’IA chargés de sous-tendre le fonctionnement de ces différents systèmes.
Analyser la criminalité financière britannique et accès aux données sensibles
En parallèle, Palantir a obtenu un contrat avec la Financial Conduct Authority (FCA) pour analyser, sur une période d’essai, ses données et l’aider dans sa lutte contre la criminalité financière, dont la fraude, le blanchiment d’argent et les délits d’initiés. Le Guardian explique que l’entreprise d’Alex Karp doit toucher 30 000 livres sterling (34 670 euros) par semaine pour cet essai.
Si le montant peut paraitre comme un enjeu beaucoup plus faible que le contrat avec le Pentagone, certains membres du parlement britannique ont soulevé des questions de souveraineté. « Des entreprises comme Palantir n’ont pas leur place au sein des systèmes gouvernementaux britanniques lorsqu’elles sont étroitement impliquées dans les guerres illégales du président Trump » affirme ainsi l’écologiste Siân Berry, qui a appelé le gouvernement à « intervenir immédiatement et à protéger notre sécurité nationale et économique en bloquant l’attribution de ce contrat ».
Questionné sur le fait que le Royaume-Uni devienne « dangereusement dépendant » des entreprises américaines et notamment de Palantir, le premier ministre travailliste Keir Starmer a répondu : « Je ne pense pas que nous soyons trop dépendants ».
L’immersion de Palantir dans le système britannique ne se résume pourtant pas à cet essai. Elle a déjà remporté un contrat auprès du NHS, le système de santé britannique, en 2023. Celui-ci est encore décrié au Royaume-Uni. « Il existe un risque qu’un gouvernement actuel ou futur utilise la plateforme de données fédérées système de planification (FDP) gérée par Palantir pour commettre des abus de pouvoir fondés sur les données, d’une manière qui serait impossible avec les systèmes de données actuels du NHS », expliquait le 12 mars dernier l’ONG britannique Medact.
Le Guardian expliquait récemment que Scotland Yard utilise aussi des logiciels de Palantir pour surveiller le comportement de son personnel.
En France, rappelons que la DGSI a renouvelé encore son contrat avec l’entreprise d’Alex Karp en décembre dernier.
Le Pentagone a décidé de mettre au cœur de sa stratégie militaire le système Maven de Palantir. En parallèle, l’entreprise dirigée par Alex Karp a décroché un contrat avec l’autorité financière britannique lui donnant accès à des données très sensibles concernant le pays.
Le département étatsunien de la Défense (ou de la Guerre, selon la nouvelle appellation trumpiste) a décidé d’accélérer l’introduction dans son processus décisionnel de la solution logicielle Maven de Palantir.
Le secrétaire adjoint de la Défense des États-Unis, Steve Feinberg, a officialisé dans un mémo interne qu’a pu consulter Reuters que le système Maven devient un programme officiel du Pentagone, ce qui garantit à Palantir l’utilisation à long terme de sa technologie au sein de l’armée américaine.
Investissement massif de l’armée américaine dans l’IA et dans les solutions de Palantir en particulier
Comme nous l’expliquions l’année dernière, ce logiciel est déjà utilisé par le Pentagone, l’armée israélienne et par l’OTAN depuis l’année dernière. Ce programme utilise des données massivement agrégées pour alimenter la prise de décision sur les terrains d’opérations et notamment la reconnaissance automatique de véhicules ou de cibles observées par des drones ou des satellites.
Steve Feinberg affirme dans son mémo que Maven fournira aux combattants américains « les outils les plus récents nécessaires pour détecter, dissuader et dominer [leurs] adversaires dans tous les domaines ».
« Il est impératif que nous investissions dès maintenant et de manière ciblée pour renforcer l’intégration de l’IA au sein de la Force interarmées et faire de la prise de décision fondée sur l’IA la pierre angulaire de notre stratégie », y affirme-t-il encore.
Cette décision renforce encore la position de Palantir au sein du système de décision militaire étatsunien et dans l’administration américaine en général. Comme nous l’expliquions déjà en août dernier, Palantir a profité à fond de l’élection de Donald Trump.
Cette intégration de Maven se met en place alors que le budget prévu pour « l’autonomie et les systèmes autonomes » au sein du département de la Défense par l’administration Trump est de 13,4 milliards de dollars, dont 9,4 milliards pour les drones, 1,7 milliard pour les systèmes maritimes autonomes, 210 millions pour les véhicules terrestres, 7,34 millions pour les capacités sous-marines et 1,2 milliard de dollars pour les logiciels de supervision de l’IA chargés de sous-tendre le fonctionnement de ces différents systèmes.
Analyser la criminalité financière britannique et accès aux données sensibles
En parallèle, Palantir a obtenu un contrat avec la Financial Conduct Authority (FCA) pour analyser, sur une période d’essai, ses données et l’aider dans sa lutte contre la criminalité financière, dont la fraude, le blanchiment d’argent et les délits d’initiés. Le Guardian explique que l’entreprise d’Alex Karp doit toucher 30 000 livres sterling (34 670 euros) par semaine pour cet essai.
Si le montant peut paraitre comme un enjeu beaucoup plus faible que le contrat avec le Pentagone, certains membres du parlement britannique ont soulevé des questions de souveraineté. « Des entreprises comme Palantir n’ont pas leur place au sein des systèmes gouvernementaux britanniques lorsqu’elles sont étroitement impliquées dans les guerres illégales du président Trump » affirme ainsi l’écologiste Siân Berry, qui a appelé le gouvernement à « intervenir immédiatement et à protéger notre sécurité nationale et économique en bloquant l’attribution de ce contrat ».
Questionné sur le fait que le Royaume-Uni devienne « dangereusement dépendant » des entreprises américaines et notamment de Palantir, le premier ministre travailliste Keir Starmer a répondu : « Je ne pense pas que nous soyons trop dépendants ».
L’immersion de Palantir dans le système britannique ne se résume pourtant pas à cet essai. Elle a déjà remporté un contrat auprès du NHS, le système de santé britannique, en 2023. Celui-ci est encore décrié au Royaume-Uni. « Il existe un risque qu’un gouvernement actuel ou futur utilise la plateforme de données fédérées système de planification (FDP) gérée par Palantir pour commettre des abus de pouvoir fondés sur les données, d’une manière qui serait impossible avec les systèmes de données actuels du NHS », expliquait le 12 mars dernier l’ONG britannique Medact.
Le Guardian expliquait récemment que Scotland Yard utilise aussi des logiciels de Palantir pour surveiller le comportement de son personnel.
En France, rappelons que la DGSI a renouvelé encore son contrat avec l’entreprise d’Alex Karp en décembre dernier.
La liste des sites bloqués à la demande de l’Arcom s’allonge de jour en jour depuis que l’autorité a mis en place la possibilité pour les chaînes de signaler de nouvelles adresses. Elle se concentre notamment sur les sites sportifs à la demande des chaînes, alors que, dans ses chiffres, la pratique du live streaming est moins importante que d’autres comme le streaming ou le téléchargement de films ou de séries.
Fraîche de la fusion entre le CSA et l’Hadopi, en 2022, l’Arcom mettait en place un formulaire pour signaler les miroirs à bloquer concernant le streaming illicite de compétitions sportives. Trois ans après, l’autorité se targue d’avoir fait bloquer près de 15 200 sites.
Une augmentation significative des blocages en 2025
L’Arcom a publié, ce lundi 23 mars, un bilan de sa lutte contre le piratage des contenus culturels et sportifs [PDF]. L’autorité y met notamment en avant l’intensification de ce nombre de noms de domaines bloqués à sa demande. Ainsi, alors que le chiffre concernant le blocage de sites sportifs était de 772 en 2022, l’autorité revendique près de 6 500 noms de domaines bloqués à sa demande en 2025 :
Ce chiffre serait notamment dû à une prise en main plus importante des ayants droit du secteur de son outil puisque l’autorité affiche que leurs demandes ont augmentées significativement en 2024. Ainsi, l’autorité peut leur montrer que, lorsqu’ils s’en emparent, le dispositif semble fonctionner.
Ce lundi 23 mars, avait lieu le forum de l’Association pour la Protection des Programmes Sportifs (APPS), le lobby regroupant des chaînes comme beIN SPORTS, Canal+ ou Eurosport, mais aussi des fédérations sportives comme la Ligue de Football Professionnel, la Ligue Nationale de Handball, la Ligue Nationale de Rugby ou encore la Fédération Française de Tennis.
Devant ce parterre, le président de l’Arcom, Martin Ajdari affirme que « le premier constat, c’est que la lutte contre le piratage, ça fonctionne : depuis que la mission confiée à l’Arcom a été étendue en 2021, elle est devenue à la fois beaucoup plus efficace, mais aussi plus consensuelle ». Et le responsable de l’autorité d’affirmer une baisse « de 70 % depuis 2021 » du live-streaming notamment utilisé pour le piratage sportif, avec, selon lui, un nombre de visites mensuelles sur ce genre de sites par habitant en France de 20 % inférieur à la moyenne dans l’UE.
Dans son bilan, l’Arcom veut montrer qu’elle prend en considération les différents acteurs et rappelle que depuis juin 2024, elle fait aussi des demandes de blocage aux fournisseurs de DNS alternatifs (Google, Cloudflare, Quad9, Comodo, Whalebone et NextDNS sont dans son viseur) et depuis juin 2025 aux fournisseurs commerciaux de VPN (NordVPN, ExpressVPN, CyberGhost, SurfShark et ProtonVPN sont cités) :
Le représentant de l’autorité affiche la capacité de celle-ci à « s’adapter aux évolutions du marché : d’abord, par l’action sur les intermédiaires, y compris les nouveaux acteurs : en 2025, nous avons notifié 1 800 moteurs de recherche, mais également 5 300 services de DNS alternatifs, et, nouveauté en 2025, près de 600 services de VPN. Ensuite, celle des nouveaux modèles de piratage : en 2026, sur les 6500 notifications, 4 000 concernent des services d’IPTV ».
Une concentration sur le piratage de contenus sportifs
Depuis quelque temps, la lutte contre le piratage en ligne de l’Arcom semble répondre essentiellement à ce lobby alors que, d’après les propres chiffres de l’Arcom, le live streaming et l’IPTV ne sont pas les pratiques de piratage illicite les plus courantes en France. Ainsi, toujours selon le bilan de l’Arcom, le streaming et le téléchargement représentent 79 % de ces pratiques alors que le live streaming n’en représente que 12 % comme l’IPTV.
Quand on regarde la courbe de ces pratiques sur le long terme, on remarque que, si le live streaming a eu un frémissement en 2021, il n’a jamais vraiment décollé. Toujours selon les chiffres de l’Arcom, la progression de l’IPTV existe mais cette pratique resterait marginale.
Alors que les institutions semblent se concentrer sur ces pratiques à la demande des acteurs du secteur sportif, on peut constater une inflexion de la baisse des pratiques de streaming et de téléchargement illicites d’autres contenus (films ou séries notamment) depuis 2022.
Mais la seule action de l’Arcom ne semble pas encore satisfaire la LFP qui s’est félicitée la semaine dernière de la sanction, par le parquet d’Arras, d’une vingtaine d’utilisateurs de boîtiers IPTV permettant d’accéder gratuitement aux chaines payantes.
L’Arcom a aussi indiqué à l’AFP qu’elle prévoyait de demander le blocage du site pornographique xGroovy car il n’aurait pas mis en place de contrôle d’âge pour ses utilisateurs, ce qui lui permettrait d’augmenter son utilisation chez les plus jeunes.
Interrogé par Le Figaro, Martin Ajdari expliquait que la fréquentation des mineurs des sites pornos les plus connus aurait baissé d’environ 40% entre août et novembre 2025. Mais, « manifestement, il y a un phénomène de report » sur des sites comme xGroovy qui serait « assez utilisé » alors qu’il n’a pas d’adresse postale dans l’Union européenne ni d’actionnariat identifié par l’autorité. « XGroovy est le site pornographique sur lequel les mineurs passent actuellement le plus de temps, mais il représente à peine 10% de celui qu’ils passaient sur Pornhub », assure-t-il à nos confrères.
La liste des sites bloqués à la demande de l’Arcom s’allonge de jour en jour depuis que l’autorité a mis en place la possibilité pour les chaînes de signaler de nouvelles adresses. Elle se concentre notamment sur les sites sportifs à la demande des chaînes, alors que, dans ses chiffres, la pratique du live streaming est moins importante que d’autres comme le streaming ou le téléchargement de films ou de séries.
Fraîche de la fusion entre le CSA et l’Hadopi, en 2022, l’Arcom mettait en place un formulaire pour signaler les miroirs à bloquer concernant le streaming illicite de compétitions sportives. Trois ans après, l’autorité se targue d’avoir fait bloquer près de 15 200 sites.
Une augmentation significative des blocages en 2025
L’Arcom a publié, ce lundi 23 mars, un bilan de sa lutte contre le piratage des contenus culturels et sportifs [PDF]. L’autorité y met notamment en avant l’intensification de ce nombre de noms de domaines bloqués à sa demande. Ainsi, alors que le chiffre concernant le blocage de sites sportifs était de 772 en 2022, l’autorité revendique près de 6 500 noms de domaines bloqués à sa demande en 2025 :
Ce chiffre serait notamment dû à une prise en main plus importante des ayants droit du secteur de son outil puisque l’autorité affiche que leurs demandes ont augmentées significativement en 2024. Ainsi, l’autorité peut leur montrer que, lorsqu’ils s’en emparent, le dispositif semble fonctionner.
Ce lundi 23 mars, avait lieu le forum de l’Association pour la Protection des Programmes Sportifs (APPS), le lobby regroupant des chaînes comme beIN SPORTS, Canal+ ou Eurosport, mais aussi des fédérations sportives comme la Ligue de Football Professionnel, la Ligue Nationale de Handball, la Ligue Nationale de Rugby ou encore la Fédération Française de Tennis.
Devant ce parterre, le président de l’Arcom, Martin Ajdari affirme que « le premier constat, c’est que la lutte contre le piratage, ça fonctionne : depuis que la mission confiée à l’Arcom a été étendue en 2021, elle est devenue à la fois beaucoup plus efficace, mais aussi plus consensuelle ». Et le responsable de l’autorité d’affirmer une baisse « de 70 % depuis 2021 » du live-streaming notamment utilisé pour le piratage sportif, avec, selon lui, un nombre de visites mensuelles sur ce genre de sites par habitant en France de 20 % inférieur à la moyenne dans l’UE.
Dans son bilan, l’Arcom veut montrer qu’elle prend en considération les différents acteurs et rappelle que depuis juin 2024, elle fait aussi des demandes de blocage aux fournisseurs de DNS alternatifs (Google, Cloudflare, Quad9, Comodo, Whalebone et NextDNS sont dans son viseur) et depuis juin 2025 aux fournisseurs commerciaux de VPN (NordVPN, ExpressVPN, CyberGhost, SurfShark et ProtonVPN sont cités) :
Le représentant de l’autorité affiche la capacité de celle-ci à « s’adapter aux évolutions du marché : d’abord, par l’action sur les intermédiaires, y compris les nouveaux acteurs : en 2025, nous avons notifié 1 800 moteurs de recherche, mais également 5 300 services de DNS alternatifs, et, nouveauté en 2025, près de 600 services de VPN. Ensuite, celle des nouveaux modèles de piratage : en 2026, sur les 6500 notifications, 4 000 concernent des services d’IPTV ».
Une concentration sur le piratage de contenus sportifs
Depuis quelque temps, la lutte contre le piratage en ligne de l’Arcom semble répondre essentiellement à ce lobby alors que, d’après les propres chiffres de l’Arcom, le live streaming et l’IPTV ne sont pas les pratiques de piratage illicite les plus courantes en France. Ainsi, toujours selon le bilan de l’Arcom, le streaming et le téléchargement représentent 79 % de ces pratiques alors que le live streaming n’en représente que 12 % comme l’IPTV.
Quand on regarde la courbe de ces pratiques sur le long terme, on remarque que, si le live streaming a eu un frémissement en 2021, il n’a jamais vraiment décollé. Toujours selon les chiffres de l’Arcom, la progression de l’IPTV existe mais cette pratique resterait marginale.
Alors que les institutions semblent se concentrer sur ces pratiques à la demande des acteurs du secteur sportif, on peut constater une inflexion de la baisse des pratiques de streaming et de téléchargement illicites d’autres contenus (films ou séries notamment) depuis 2022.
Mais la seule action de l’Arcom ne semble pas encore satisfaire la LFP qui s’est félicitée la semaine dernière de la sanction, par le parquet d’Arras, d’une vingtaine d’utilisateurs de boîtiers IPTV permettant d’accéder gratuitement aux chaines payantes.
L’Arcom a aussi indiqué à l’AFP qu’elle prévoyait de demander le blocage du site pornographique xGroovy car il n’aurait pas mis en place de contrôle d’âge pour ses utilisateurs, ce qui lui permettrait d’augmenter son utilisation chez les plus jeunes.
Interrogé par Le Figaro, Martin Ajdari expliquait que la fréquentation des mineurs des sites pornos les plus connus aurait baissé d’environ 40% entre août et novembre 2025. Mais, « manifestement, il y a un phénomène de report » sur des sites comme xGroovy qui serait « assez utilisé » alors qu’il n’a pas d’adresse postale dans l’Union européenne ni d’actionnariat identifié par l’autorité. « XGroovy est le site pornographique sur lequel les mineurs passent actuellement le plus de temps, mais il représente à peine 10% de celui qu’ils passaient sur Pornhub », assure-t-il à nos confrères.
Après 35 ans au sein du laboratoire de Los Alamos puis de l’université Cornell, la plateforme de preprint s’institutionnalise pour diversifier ses sources budgétaires mais aussi avoir une organisation des ressources humaines plus claires.
Fini la dépendance totale à l’université Cornell : arXiv prévoit de devenir une structure à part entière avec son CEO, son propre budget et son indépendance officielle à partir de juillet 2026.
C’est via une petite annonce pour le poste de CEO que des chercheurs ont repéré le changement. Il y a une dizaine de jours, le mathématicien de l’université d’Édimbourg, John Baez a remarqué sur Mastodon l’annonce de l’ouverture du poste le 11 mai prochain.
Le texte explique qu’ « après des décennies de collaboration fructueuse avec l’université Cornell, et grâce au soutien de la Fondation Simons, arXiv s’établit désormais comme une organisation indépendante à but non lucratif, marquant ainsi une nouvelle étape dans son histoire de 35 ans en tant que pionnier de la science en libre accès ».
Depuis 1991 et de simples échanges par mails à la banalisation au-delà du domaine académique
Effectivement, c’est en 1991 qu’est né le serveur pionnier de la prépublication scientifique, et même un peu avant. L’astrophysicienne Joanne Cohn a déjà raconté qu’elle a petit à petit mis en place un système d’échange de fichiers TeX de preprints par emails à partir de l’automne 1989. Mais c’est elle qui centralisait tous les échanges.
Finalement, à l’été 1991, son collègue Paul Ginsparg lui a proposé d’automatiser le fonctionnement avec quelques scripts et a commencé le serveur de preprint arXiv au sein du fameux laboratoire américain de Los Alamos. 10 ans après, Paul Ginsparg changeait de laboratoire pour rejoindre l’université de Cornell, avec arXiv dans ses bagages.
Mais 35 ans après sa création, arXiv n’est plus un petit serveur qui permet à quelques chercheurs de s’échanger les prépublications pour une prochaine conférence. Comme le dit l’annonce pour la recherche d’un nouveau CEO, 27 personnes travaillent actuellement sur le projet et son budget annuel est d’environ 6 millions de dollars par an.
Une bonne partie de la recherche en physique, mathématiques, informatique, ingénierie électrique et des systèmes et bien d’autres disciplines est déposée sur les serveurs d’arXiv avant d’être éventuellement publiée dans une revue scientifique ou présentée lors d’une conférence.
En parallèle, des outils comme les modèles de langage ont été notamment entrainés sur ces articles qui représentent des données de très haute qualité.
Diversification des donateurs et besoin d’une structure de direction
Interrogé par Science, Greg Morrisett, le responsable du Centre de recherche Cornell Tech qui s’occupe actuellement du serveur, explique que la modification de statut va permettre de lever « davantage de fonds auprès d’un éventail plus large de donateurs afin de financer les ressources humaines et les technologies nécessaires pour prendre en charge le nombre croissant de prépublications sur le site, qui devrait dépasser les 300 000 cette année ». Jusque-là, arXiv était surtout financé par Cornell et par la fondation Simons.
« Son indépendance permettra à arXiv de suivre tous les aspects de son évolution, de moderniser son infrastructure, d’élargir la couverture thématique et de renforcer ses liens avec les acteurs internationaux », est-il précisé dans l’annonce.
Greg Morrisett explique aussi qu’au sein de Cornell, le serveur de preprint est aussi en concurrence budgétaire avec d’autres projets : « Lorsque nous avons discuté [du serveur de prépublications] avec certaines organisations, celles-ci craignaient que Cornell n’exerce une influence trop importante. Elles redoutaient un peu de verser un chèque à l’université Cornell en espérant que celui-ci finisse dans les caisses d’arXiv. »
« Une certaine structure est nécessaire pour assurer une fonction de direction. Comme l’ont mentionné d’autres intervenants, la configuration « 501c3 [le texte qui encadre les structures non lucratives aux États-Unis] + CEO » est courante chez nous, et étant donné que nous travaillons avec un centre géographique à New York, un CEO peut accomplir beaucoup de choses, non seulement au sein d’arXiv, mais aussi à l’extérieur », explique aussi Deyan Ginev, un ingénieur qui travaille pour le projet en réponse au post de John Baez.
Le mathématicien relevait aussi le salaire pour ce poste de CEO qui « devrait se situer autour de 300 000 $ ». Rappelons que, Sudip S Parikh, le CEO de la structure à but non lucratif American Association For The Advancement Of Science (AAAS), qui édite la revue scientifique Science, émarge, lui, à plus de trois fois plus avec 983 185 dollars en 2024.
Après 35 ans au sein du laboratoire de Los Alamos puis de l’université Cornell, la plateforme de preprint s’institutionnalise pour diversifier ses sources budgétaires mais aussi avoir une organisation des ressources humaines plus claires.
Fini la dépendance totale à l’université Cornell : arXiv prévoit de devenir une structure à part entière avec son CEO, son propre budget et son indépendance officielle à partir de juillet 2026.
C’est via une petite annonce pour le poste de CEO que des chercheurs ont repéré le changement. Il y a une dizaine de jours, le mathématicien de l’université d’Édimbourg, John Baez a remarqué sur Mastodon l’annonce de l’ouverture du poste le 11 mai prochain.
Le texte explique qu’ « après des décennies de collaboration fructueuse avec l’université Cornell, et grâce au soutien de la Fondation Simons, arXiv s’établit désormais comme une organisation indépendante à but non lucratif, marquant ainsi une nouvelle étape dans son histoire de 35 ans en tant que pionnier de la science en libre accès ».
Depuis 1991 et de simples échanges par mails à la banalisation au-delà du domaine académique
Effectivement, c’est en 1991 qu’est né le serveur pionnier de la prépublication scientifique, et même un peu avant. L’astrophysicienne Joanne Cohn a déjà raconté qu’elle a petit à petit mis en place un système d’échange de fichiers TeX de preprints par emails à partir de l’automne 1989. Mais c’est elle qui centralisait tous les échanges.
Finalement, à l’été 1991, son collègue Paul Ginsparg lui a proposé d’automatiser le fonctionnement avec quelques scripts et a commencé le serveur de preprint arXiv au sein du fameux laboratoire américain de Los Alamos. 10 ans après, Paul Ginsparg changeait de laboratoire pour rejoindre l’université de Cornell, avec arXiv dans ses bagages.
Mais 35 ans après sa création, arXiv n’est plus un petit serveur qui permet à quelques chercheurs de s’échanger les prépublications pour une prochaine conférence. Comme le dit l’annonce pour la recherche d’un nouveau CEO, 27 personnes travaillent actuellement sur le projet et son budget annuel est d’environ 6 millions de dollars par an.
Une bonne partie de la recherche en physique, mathématiques, informatique, ingénierie électrique et des systèmes et bien d’autres disciplines est déposée sur les serveurs d’arXiv avant d’être éventuellement publiée dans une revue scientifique ou présentée lors d’une conférence.
En parallèle, des outils comme les modèles de langage ont été notamment entrainés sur ces articles qui représentent des données de très haute qualité.
Diversification des donateurs et besoin d’une structure de direction
Interrogé par Science, Greg Morrisett, le responsable du Centre de recherche Cornell Tech qui s’occupe actuellement du serveur, explique que la modification de statut va permettre de lever « davantage de fonds auprès d’un éventail plus large de donateurs afin de financer les ressources humaines et les technologies nécessaires pour prendre en charge le nombre croissant de prépublications sur le site, qui devrait dépasser les 300 000 cette année ». Jusque-là, arXiv était surtout financé par Cornell et par la fondation Simons.
« Son indépendance permettra à arXiv de suivre tous les aspects de son évolution, de moderniser son infrastructure, d’élargir la couverture thématique et de renforcer ses liens avec les acteurs internationaux », est-il précisé dans l’annonce.
Greg Morrisett explique aussi qu’au sein de Cornell, le serveur de preprint est aussi en concurrence budgétaire avec d’autres projets : « Lorsque nous avons discuté [du serveur de prépublications] avec certaines organisations, celles-ci craignaient que Cornell n’exerce une influence trop importante. Elles redoutaient un peu de verser un chèque à l’université Cornell en espérant que celui-ci finisse dans les caisses d’arXiv. »
« Une certaine structure est nécessaire pour assurer une fonction de direction. Comme l’ont mentionné d’autres intervenants, la configuration « 501c3 [le texte qui encadre les structures non lucratives aux États-Unis] + CEO » est courante chez nous, et étant donné que nous travaillons avec un centre géographique à New York, un CEO peut accomplir beaucoup de choses, non seulement au sein d’arXiv, mais aussi à l’extérieur », explique aussi Deyan Ginev, un ingénieur qui travaille pour le projet en réponse au post de John Baez.
Le mathématicien relevait aussi le salaire pour ce poste de CEO qui « devrait se situer autour de 300 000 $ ». Rappelons que, Sudip S Parikh, le CEO de la structure à but non lucratif American Association For The Advancement Of Science (AAAS), qui édite la revue scientifique Science, émarge, lui, à plus de trois fois plus avec 983 185 dollars en 2024.
La plateforme d’hébergement aux près de 2 millions de sites et blogs renforce encore les possibilités d’utiliser des agents IA pour ses utilisateurs : via son serveur MCP, Claude, ChatGPT, OpenClaw et Cursor peuvent maintenant publier automatiquement des contenus ouvrant la voie à encore plus de contenus GenAI sur la plateforme.
WordPress.com plonge totalement dans l’IA, au risque de faire plonger encore plus facilement le web dans un magma de contenus générés et publiés automatiquement.
La plateforme d’hébergement de blogs et sites web (à ne pas confondre avec le logiciel libre WordPress qu’elle utilise, comme Next et une très grande partie des sites web) a décidé de permettre à ses utilisateurs de pouvoir utiliser des agents IA pour à peu près tout ce qui est possible dessus.
En octobre dernier, la plateforme annonçait déjà le support du Model Context Protocol (MCP). Celui-ci, lancé il y a un peu plus d’un an par Anthropic, propose une interface universelle entre un environnement informatique (logiciel, serveur, service) et les modèles de langage et agents IA. Le protocole est de plus en plus utilisé.
Ainsi, data.gouv.fr a lancé son serveur MCP pour permettre aux agents d’IA d’accéder directement aux données publiques françaises. OVH, par exemple, a aussi lancé son serveur MCP permettant de gérer un compte, mais aussi des services et infrastructures de l’hébergeur.
Comme son concurrent israélien Wix, qui propose aussi le support de MCP, WordPress.com a poussé ses utilisateurs à configurer l’entièreté de leurs sites via ses outils d’IA pour se passer de son interface et accéder par exemple à leurs statistiques. Mais depuis vendredi dernier, l’entreprise a lâché la bride. Plus question de bloquer le MCP en « read only ».
Possibilité de tout laisser dans les mains de l’agent IA
L’assistant IA des utilisateurs de la plateforme peut rédiger et publier des articles de blog, créer et mettre à jour des pages, gérer les commentaires, organiser le contenu ou encore mettre à jour les métadonnées des médias, et « corriger les textes alternatifs, les légendes et les titres pour améliorer l’accessibilité et le référencement naturel (SEO) », comme l’affirme WordPress.com.
Il suffit aux utilisateurs d’aller sur wordpress.com/me/mcp pour activer l’accès et de le configurer avec leur compte Claude et ChatGPT, et leur blog est prêt pour publier en ligne des billets rédigés automatiquement par ces outils. Remarquons que la simple activation de cet accès active, par défaut, toutes les possibilités de la liste ci-dessous. Il faut ensuite décocher à la main chaque action qu’on ne voudrait pas autoriser à son agent IA.
Ainsi l’agent IA pourra rédiger, étiqueter, catégoriser et publier des billets/articles, ou encore modérer les commentaires et y répondre.
WordPress fournit même un tuto pour configurer l’utilisation avec ChatGPT ou avec Claude.
Une accélération des contenus générés par IA sur le web à prévoir ?
Le billet met en avant comme « l’un des principaux atouts » de ce système l’ « intégration au thème de votre site ». Ajoutant, « avant de créer du contenu, votre agent IA peut analyser la mise en page de votre thème et en comprendre les couleurs, les polices, l’espacement et la disposition des blocs ». Il nous parait étonnant de souligner l’intégration stylistique de tels outils alors que l’éditeur de WordPress (qui utilise des styles d’édition et le CSS) la permet depuis longtemps.
« Avant de créer, de mettre à jour ou de supprimer quoi que ce soit, votre agent IA vous explique précisément ce qu’il compte faire et vous demande votre confirmation explicite », assure WordPress.com et les billets sont enregistrés par défaut en brouillon.
Par contre, on imagine que ça va encore accélérer la création de sites où les contenus sont de moins en moins liés à la création humaine et où les articles générés par IA sont publiés en masse, sans qu’ils ne soient relus réellement par les utilisateurs de WordPress.com.
La plateforme d’hébergement aux près de 2 millions de sites et blogs renforce encore les possibilités d’utiliser des agents IA pour ses utilisateurs : via son serveur MCP, Claude, ChatGPT, OpenClaw et Cursor peuvent maintenant publier automatiquement des contenus ouvrant la voie à encore plus de contenus GenAI sur la plateforme.
WordPress.com plonge totalement dans l’IA, au risque de faire plonger encore plus facilement le web dans un magma de contenus générés et publiés automatiquement.
La plateforme d’hébergement de blogs et sites web (à ne pas confondre avec le logiciel libre WordPress qu’elle utilise, comme Next et une très grande partie des sites web) a décidé de permettre à ses utilisateurs de pouvoir utiliser des agents IA pour à peu près tout ce qui est possible dessus.
En octobre dernier, la plateforme annonçait déjà le support du Model Context Protocol (MCP). Celui-ci, lancé il y a un peu plus d’un an par Anthropic, propose une interface universelle entre un environnement informatique (logiciel, serveur, service) et les modèles de langage et agents IA. Le protocole est de plus en plus utilisé.
Ainsi, data.gouv.fr a lancé son serveur MCP pour permettre aux agents d’IA d’accéder directement aux données publiques françaises. OVH, par exemple, a aussi lancé son serveur MCP permettant de gérer un compte, mais aussi des services et infrastructures de l’hébergeur.
Comme son concurrent israélien Wix, qui propose aussi le support de MCP, WordPress.com a poussé ses utilisateurs à configurer l’entièreté de leurs sites via ses outils d’IA pour se passer de son interface et accéder par exemple à leurs statistiques. Mais depuis vendredi dernier, l’entreprise a lâché la bride. Plus question de bloquer le MCP en « read only ».
Possibilité de tout laisser dans les mains de l’agent IA
L’assistant IA des utilisateurs de la plateforme peut rédiger et publier des articles de blog, créer et mettre à jour des pages, gérer les commentaires, organiser le contenu ou encore mettre à jour les métadonnées des médias, et « corriger les textes alternatifs, les légendes et les titres pour améliorer l’accessibilité et le référencement naturel (SEO) », comme l’affirme WordPress.com.
Il suffit aux utilisateurs d’aller sur wordpress.com/me/mcp pour activer l’accès et de le configurer avec leur compte Claude et ChatGPT, et leur blog est prêt pour publier en ligne des billets rédigés automatiquement par ces outils. Remarquons que la simple activation de cet accès active, par défaut, toutes les possibilités de la liste ci-dessous. Il faut ensuite décocher à la main chaque action qu’on ne voudrait pas autoriser à son agent IA.
Ainsi l’agent IA pourra rédiger, étiqueter, catégoriser et publier des billets/articles, ou encore modérer les commentaires et y répondre.
WordPress fournit même un tuto pour configurer l’utilisation avec ChatGPT ou avec Claude.
Une accélération des contenus générés par IA sur le web à prévoir ?
Le billet met en avant comme « l’un des principaux atouts » de ce système l’ « intégration au thème de votre site ». Ajoutant, « avant de créer du contenu, votre agent IA peut analyser la mise en page de votre thème et en comprendre les couleurs, les polices, l’espacement et la disposition des blocs ». Il nous parait étonnant de souligner l’intégration stylistique de tels outils alors que l’éditeur de WordPress (qui utilise des styles d’édition et le CSS) la permet depuis longtemps.
« Avant de créer, de mettre à jour ou de supprimer quoi que ce soit, votre agent IA vous explique précisément ce qu’il compte faire et vous demande votre confirmation explicite », assure WordPress.com et les billets sont enregistrés par défaut en brouillon.
Par contre, on imagine que ça va encore accélérer la création de sites où les contenus sont de moins en moins liés à la création humaine et où les articles générés par IA sont publiés en masse, sans qu’ils ne soient relus réellement par les utilisateurs de WordPress.com.
Une semaine après Microsoft et un mois après OpenAI, Perplexity lance son chatbot au nom peu original : Perplexity Health.
Comme ses concurrents, Perplexity explique que son service est connecté avec Apple Health et des services de fitness et de santé comme Fitbit, Ultrahuman, Withings et surtout permet de connecter les « dossiers médicaux électroniques de plus de 1,7 million de prestataires de soins », et de prendre en compte « vos résultats d’analyses ».
Illustration : Flock
La startup assure s’appuyer sur « de la littérature médicale premium, notamment des recommandations cliniques et des revues à comité de lecture » sans pour autant détailler lesquelles et quel a été le processus de sélection. « Chaque réponse inclut des citations reliées directement aux documents sources afin que vous puissiez lire sur quoi la réponse est fondée », assure-t-elle.
Perplexity évoque le problème de l’utilisation des moteurs de recherche actuellement concernant les informations sur la santé : « À l’heure actuelle, la plupart des réponses en ligne sur la santé reposent sur des contenus optimisés pour le SEO et rédigés pour être bien classés ». Soulignons que le marketing numérique a déjà fait naitre le Generative Engine Optimization (GEO, l’Optimisation pour les moteurs génératifs).
« Les réponses de Perplexity Health incluent de véritables garde-fous, notamment des indications claires sur le moment où il faut consulter », assure l’entreprise sans aller plus loin sur le sujet. Une étude pointait justement le mois dernier des problèmes dans les recommandations de consultation de ChatGPT Health.
Perplexity assure que les données de santé « sont protégées par un chiffrement en transit et au repos, par des contrôles d’accès stricts et par des outils permettant de gérer ou de supprimer des informations à tout moment », et que « les informations ne sont jamais utilisées pour entraîner des modèles d’IA ni vendues à des tiers ».
Comme ses concurrents, la startup précise que son chatbot santé n’est pas « destiné à diagnostiquer, traiter ou prévenir des maladies ou d’autres affections et ne remplace pas un avis médical professionnel », et demande de « parler à votre médecin avant d’utiliser Perplexity Health » si « vous allaitez, si vous avez des antécédents de troubles du comportement alimentaireou toute autre affection médicale ».
Rappelons qu’en janvier dernier, la Food and Drug Administration, l’agence états-unienne responsable de la régulation concernant les médicaments et les produits alimentaires, a réduit sa surveillance des dispositifs de santé portables ou s’appuyant sur l’IA.
Une semaine après Microsoft et un mois après OpenAI, Perplexity lance son chatbot au nom peu original : Perplexity Health.
Comme ses concurrents, Perplexity explique que son service est connecté avec Apple Health et des services de fitness et de santé comme Fitbit, Ultrahuman, Withings et surtout permet de connecter les « dossiers médicaux électroniques de plus de 1,7 million de prestataires de soins », et de prendre en compte « vos résultats d’analyses ».
Illustration : Flock
La startup assure s’appuyer sur « de la littérature médicale premium, notamment des recommandations cliniques et des revues à comité de lecture » sans pour autant détailler lesquelles et quel a été le processus de sélection. « Chaque réponse inclut des citations reliées directement aux documents sources afin que vous puissiez lire sur quoi la réponse est fondée », assure-t-elle.
Perplexity évoque le problème de l’utilisation des moteurs de recherche actuellement concernant les informations sur la santé : « À l’heure actuelle, la plupart des réponses en ligne sur la santé reposent sur des contenus optimisés pour le SEO et rédigés pour être bien classés ». Soulignons que le marketing numérique a déjà fait naitre le Generative Engine Optimization (GEO, l’Optimisation pour les moteurs génératifs).
« Les réponses de Perplexity Health incluent de véritables garde-fous, notamment des indications claires sur le moment où il faut consulter », assure l’entreprise sans aller plus loin sur le sujet. Une étude pointait justement le mois dernier des problèmes dans les recommandations de consultation de ChatGPT Health.
Perplexity assure que les données de santé « sont protégées par un chiffrement en transit et au repos, par des contrôles d’accès stricts et par des outils permettant de gérer ou de supprimer des informations à tout moment », et que « les informations ne sont jamais utilisées pour entraîner des modèles d’IA ni vendues à des tiers ».
Comme ses concurrents, la startup précise que son chatbot santé n’est pas « destiné à diagnostiquer, traiter ou prévenir des maladies ou d’autres affections et ne remplace pas un avis médical professionnel », et demande de « parler à votre médecin avant d’utiliser Perplexity Health » si « vous allaitez, si vous avez des antécédents de troubles du comportement alimentaireou toute autre affection médicale ».
Rappelons qu’en janvier dernier, la Food and Drug Administration, l’agence états-unienne responsable de la régulation concernant les médicaments et les produits alimentaires, a réduit sa surveillance des dispositifs de santé portables ou s’appuyant sur l’IA.
L’environnement de bureau GNOME arrive aujourd’hui dans sa version 50, nom de code « Tokyo ». Au menu, comme nous l’expliquions lors de la sortie alpha en janvier, la suppression totale de X11 au profit de Wayland.
Cette nouvelle version active par défaut le taux de rafraîchissement variable (ou Variable Refresh Rate, VRR, en anglais) et le « fractional scaling » après « des corrections de bogues, des améliorations en matière de stabilité et d’expérience utilisateur », explique l’équipe de GNOME dans sa note présentant les nouveautés.
GNOME 50 améliore aussi l’utilisation de la fonction de bureau à distance en s’appuyant sur le GPU pour « une amélioration significative des performances ». La note de l’équipe met aussi en avant l’ajout, dans la visionneuse de documents, de la possibilité de créer des annotations :
L’équipe souligne aussi son effort sur le contrôle parental avec la possibilité de régler des horaires de coucher et la définition d’un temps limite qui verrouille l’écran quand les limites sont dépassées. L’équipe explique qu’elle a mis en place les fondements pour un filtrage web « sans compromettre la sécurité du Web ni s’appuyer sur des listes préétablies » qui seront utilisables via l’interface dans de futures mises à jour. Elle précise que ce travail a été financé par la fondation Endless.
Les fonctionnalités d’accessibilité ont aussi été améliorées, notamment le lecteur d’écran Orca, mais aussi l’ajout d’une option « mouvements réduits » qui permet de réduire la gêne et les distractions causées par les animations de l’interface.
Côté outils de développeurs, l’équipe a amélioré l’éditeur de Builder mais aussi Mutter Devkit avec la possibilité de simuler des configurations matérielles et des workflows complexes. GNOME 50 utilise maintenant la dernière version de GTK (4.22) qui supporte nativement le SVG. Cela permet notamment de créer directement des icônes :
L’équipe annonce enfin que « GNOME 50 sera bientôt disponible dans de nombreuses distributions, telles que Fedora 44 et Ubuntu 26.04 ». La prochaine version, GNOME 51, est prévue pour septembre 2026.
L’environnement de bureau GNOME arrive aujourd’hui dans sa version 50, nom de code « Tokyo ». Au menu, comme nous l’expliquions lors de la sortie alpha en janvier, la suppression totale de X11 au profit de Wayland.
Cette nouvelle version active par défaut le taux de rafraîchissement variable (ou Variable Refresh Rate, VRR, en anglais) et le « fractional scaling » après « des corrections de bogues, des améliorations en matière de stabilité et d’expérience utilisateur », explique l’équipe de GNOME dans sa note présentant les nouveautés.
GNOME 50 améliore aussi l’utilisation de la fonction de bureau à distance en s’appuyant sur le GPU pour « une amélioration significative des performances ». La note de l’équipe met aussi en avant l’ajout, dans la visionneuse de documents, de la possibilité de créer des annotations :
L’équipe souligne aussi son effort sur le contrôle parental avec la possibilité de régler des horaires de coucher et la définition d’un temps limite qui verrouille l’écran quand les limites sont dépassées. L’équipe explique qu’elle a mis en place les fondements pour un filtrage web « sans compromettre la sécurité du Web ni s’appuyer sur des listes préétablies » qui seront utilisables via l’interface dans de futures mises à jour. Elle précise que ce travail a été financé par la fondation Endless.
Les fonctionnalités d’accessibilité ont aussi été améliorées, notamment le lecteur d’écran Orca, mais aussi l’ajout d’une option « mouvements réduits » qui permet de réduire la gêne et les distractions causées par les animations de l’interface.
Côté outils de développeurs, l’équipe a amélioré l’éditeur de Builder mais aussi Mutter Devkit avec la possibilité de simuler des configurations matérielles et des workflows complexes. GNOME 50 utilise maintenant la dernière version de GTK (4.22) qui supporte nativement le SVG. Cela permet notamment de créer directement des icônes :
L’équipe annonce enfin que « GNOME 50 sera bientôt disponible dans de nombreuses distributions, telles que Fedora 44 et Ubuntu 26.04 ». La prochaine version, GNOME 51, est prévue pour septembre 2026.
Introduite par quatre chercheuses en 2021, la notion de « perroquets stochastiques » est critiquée cinq ans après. Elle ne représenterait pas ce qu’est l’état de l’art actuel et bloquerait les réflexions critiques sur l’IA générative. Le travail de ces chercheuses sur les dangers des grands modèles de langage et leur métaphore reste, cependant, toujours valide concernant les modèles de langage.
Depuis quelques semaines, plusieurs critiques fleurissent à propos de l’article scientifique fondateur pour la réflexion sur les modèles de langage et l’IA générative qui introduisait la notion de « perroquets stochastiques » (ou, en termes plus accessibles, « perroquets probabilistes »).
Certains demandent carrément aux autrices de revenir dessus, alors que d’autres soulignent surtout sa « réception publique paresseuse » dans les argumentations anti-IA bloquant toute réflexion autour des transformations que l’IA générative implique dans nos vies.
Les perroquets stochastiques ont plus de cinq ans
Comme nous l’expliquions il y a déjà trois ans, les chercheuses Emily Bender, Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell ont mené cette réflexion sur les modèles de langage (LLM) en 2020 (l’article a été publié en 2021), alors que ChatGPT n’était pas encore sorti.
L’article ne minimisait pas la puissance des LLM mais il prévenait des dangers des grands modèles de langage, des risques de dissémination des biais et de désinformation aux coûts environnementaux.
Elles y reconnaissaient les « qualités de plus en plus fluides du texte généré automatiquement ». Mais elles alertaient justement sur le fait qu’ils pouvaient facilement nous faire croire, « en apparence », à une réflexion et une interaction humaine.
C’est là où elles mobilisaient leur notion de « perroquets stochastiques » pour expliquer que, même si c’est contre-intuitif, c’est « notre perception du texte en langage naturel [qui] est médiée par notre propre compétence linguistique et notre prédisposition à interpréter les actes de communication comme véhiculant un sens et une intention cohérents ».
Des demandes insistantes pour gagner un point
Il reste 72% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
L’AI Act est entré en vigueur en août 2024 mais sa mise en application est progressive. Alors que les règles relatives aux systèmes d’intelligence artificielle à haut risque devaient s’appliquer à partir du 2 août 2026, des députés européens se sont prononcés pour le report de près d’un an et demi de ces mesures.
Comme nous l’expliquions, le règlement européen a défini certaines utilisations de l’IA comme « à haut risque » – notamment la biométrie, la gestion d’infrastructures (numériques, routières, d’eau, de gaz, de chauffage ou d’électricité) critiques, l’éducation… Le texte prévoyait que ces systèmes soient plus régulés à partir du 2 août 2026.
Mais les commissions du marché intérieur et des libertés civiles du Parlement européen ont adopté une position commune à intégrer à l’omnibus numérique repoussant cette date au 2 décembre 2027, « étant donné que les normes principales pourraient ne pas être finalisées avant l’échéance actuelle », affirme le communiqué du Parlement européen.
Pour les systèmes d’IA couverts par la législation sectorielle de l’UE sur la sécurité et la surveillance du marché (ou utilisés comme composants de sécurité dans des produits couverts par cette législation), les députés européens proposent même de repousser la date au 2 aout 2028.
Enfin, ils proposent de repousser au 2 novembre 2026 l’obligation faite aux fournisseurs d’IA que leurs sorties soient « marquées dans un format lisible par machine et identifiables comme ayant été générées ou manipulées par une IA ». Elle devait aussi initialement s’appliquer au 2 aout 2026.
Ces deux commissions ont aussi ajouté l’interdiction explicite de « systèmes dits de nudification » sans le consentement de cette personne. Rappelons que Grok a permis la génération de millions de deepfakes à ses utilisateurs. L’entreprise d’Elon Musk, xAI, est déjà visée par de multiples enquêtes sur le sujet.
L’AI Act est entré en vigueur en août 2024 mais sa mise en application est progressive. Alors que les règles relatives aux systèmes d’intelligence artificielle à haut risque devaient s’appliquer à partir du 2 août 2026, des députés européens se sont prononcés pour le report de près d’un an et demi de ces mesures.
Comme nous l’expliquions, le règlement européen a défini certaines utilisations de l’IA comme « à haut risque » – notamment la biométrie, la gestion d’infrastructures (numériques, routières, d’eau, de gaz, de chauffage ou d’électricité) critiques, l’éducation… Le texte prévoyait que ces systèmes soient plus régulés à partir du 2 août 2026.
Mais les commissions du marché intérieur et des libertés civiles du Parlement européen ont adopté une position commune à intégrer à l’omnibus numérique repoussant cette date au 2 décembre 2027, « étant donné que les normes principales pourraient ne pas être finalisées avant l’échéance actuelle », affirme le communiqué du Parlement européen.
Pour les systèmes d’IA couverts par la législation sectorielle de l’UE sur la sécurité et la surveillance du marché (ou utilisés comme composants de sécurité dans des produits couverts par cette législation), les députés européens proposent même de repousser la date au 2 aout 2028.
Enfin, ils proposent de repousser au 2 novembre 2026 l’obligation faite aux fournisseurs d’IA que leurs sorties soient « marquées dans un format lisible par machine et identifiables comme ayant été générées ou manipulées par une IA ». Elle devait aussi initialement s’appliquer au 2 aout 2026.
Ces deux commissions ont aussi ajouté l’interdiction explicite de « systèmes dits de nudification » sans le consentement de cette personne. Rappelons que Grok a permis la génération de millions de deepfakes à ses utilisateurs. L’entreprise d’Elon Musk, xAI, est déjà visée par de multiples enquêtes sur le sujet.
Devant la commission d’enquête sur la souveraineté numérique de l’Assemblée nationale, le directeur par intérim du Health Data Hub, Laurent Vilboeuf, chiffre à 10 millions le coût global de l’hébergement sur Microsoft Azure depuis le début du projet en 2019. La plateforme de santé a dépensé la même somme dans les conseils apportés par Capgemini.
Le projet de Health Data Hub était une nouvelle fois scruté par des députés ce mardi 17 mars. En effet, le directeur par intérim de la plateforme de données de santé, Laurent Vilboeuf, était auditionné (après notamment Henri Verdier, ancien ambassadeur pour le numérique) dans le cadre d’une commission d’enquête « sur les dépendances structurelles et les vulnérabilités systémiques dans le secteur du numérique et les risques pour l’indépendance de la France » lancée notamment par la députée Cyrielle Chatelain (Les Écologistes) et présidée par le député Philippe Latombe (ModeM).
Alors que la mise en place de la plateforme de santé a été officiellement permise par une loi de juillet 2019, le choix Microsoft Azure pour l’hébergement a été critiqué dès mars 2020. Les députés s’interrogent donc notamment sur ce choix et sur l’évolution que la plateforme est en train de prendre avec, finalement, une bascule sur SecNumCloud d’ici fin 2026 et donc un nouvel appel d’offres en cours.
Il reste 76% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.