Vue normale
What's Driving the SaaSpocalypse
Read more of this story at Slashdot.
Les Ryzen AI 400 débarquent sur socket AM5, dans des versions G et GE
-
Next - Articles gratuits
- Des chercheurs alertent sur les dangers de la généralisation de la vérification d’âge
Des chercheurs alertent sur les dangers de la généralisation de la vérification d’âge
Fausse bonne idée
Dans une lettre ouverte, 371 chercheuses et chercheurs de 30 pays s’opposent à la généralisation de la vérification d’âge imposée aux différents services en ligne par de nombreuses législations dans le monde sans que les implications sur la sécurité, la vie privée, l’égalité et la liberté aient été prises en compte.
Plusieurs centaines de chercheuses et chercheurs, notamment en informatique, ont signé une lettre ouverte demandant un moratoire sur le déploiement des solutions de vérification d’âge dans le monde numérique. On peut retrouver aussi bien les signatures de la chercheuse en droit du numérique du CNAM Suzanne Vergnolle que celles des cryptologues Ronald Linn Rivest (le « R » de l’algorithme RSA) et Bart Preneel.
Rappelons que, suivant l’Australie de près, la France est l’un des pays qui a pris rapidement la direction d’interdire les réseaux sociaux aux moins de 15 ans. L’Assemblée nationale a voté la loi qui doit maintenant être débattue au Sénat. Next avait évoqué les problèmes que le texte soulève.
Et le gouvernement français semble vouloir se montrer à la pointe du sujet en lançant plusieurs travaux sur les effets des usages de l’IA générative et des jeux vidéo sur les mineurs.
Le Royaume-Uni a lui aussi beaucoup avancé sur le sujet. Depuis l’été 2025, la loi sur « la sécurité en ligne » oblige certains sites à mettre en place un système de vérification d’identité pour leurs utilisateurs, ce qui a inquiété la Fondation Wikimedia. Pour l’instant, Wikipédia reste accessible outre-Manche sans système de ce genre.
Un contrôle allant beaucoup plus loin que ce qu’on connait hors ligne
Dans leur texte, les chercheuses et chercheurs expliquent que ces systèmes ont besoin d’aller beaucoup plus loin que ce qui a déjà été mis en place dans le monde hors ligne pour filtrer l’accès des casinos, de l’alcool ou des contenus pornographiques.
« Les discussions actuelles concernant la nécessité de réglementer les réseaux sociaux, les chatbots IA ou les messageries instantanées exigeraient que tous les utilisateurs, mineurs et adultes, prouvent leur âge pour discuter avec leurs amis et leur famille, lire l’actualité ou rechercher des informations, ce qui va bien au-delà de ce qui s’est jamais produit dans nos vies hors ligne », décrivent-ils dans leur lettre [PDF].
Ils pointent aussi que certaines recherches montrent l’utilité des plateformes en ligne et réseaux sociaux pour que les jeunes puissent s’informer, trouver des conseils et s’appuyer sur des communautés pour casser leur isolement.
Besoin d’un consensus scientifique avant de s’y aventurer
Leur idée n’est pas de s’opposer à toute solution de vérification d’âge. Ainsi, parmi les signataires, on retrouve le chercheur de l’École polytechnique, Olivier Blazy, qui avait collaboré avec la CNIL sur un démonstrateur du mécanisme de vérification de l’âge respectueux de la vie privée. Mais ils demandent qu’elle soit mise en place une fois qu’un consensus scientifique sera établi « sur les avantages et les inconvénients que peuvent apporter les technologies de préservation de la jeunesse, ainsi que sur la faisabilité technique d’un tel déploiement ». Et pour eux, il reste des « questions ouvertes sur la faisabilité d’un déploiement efficace ».
« Mentir sur son âge n’est pas difficile », rappelle la lettre qui mentionne la facilité de contournement des solutions actuellement mises en place via l’utilisation de VPN, l’achat d’identifiants validés ou même la simple fabrication de fausses pièces, comme Next l’a déjà montré.
Les systèmes d’estimation d’âge, trop intrusifs
Mais ils ajoutent que la mise en place de ces outils « peut en réalité nuire à la sécurité en ligne en exposant les utilisateurs à des logiciels malveillants et à des escroqueries lorsqu’ils ont recours à des services alternatifs qui ne mettent pas en œuvre de vérification — et les utilisateurs se tourneront sans aucun doute vers ces sources alternatives ».
Ils écartent dans leur texte les systèmes d’estimation d’âge, comme celui mis en place par OpenAI sur ChatGPT, qui manquent de fiabilité et qui sont « très intrusifs pour la vie privée » : « Ils reposent sur la collecte et le traitement de données sensibles et privées telles que les données biométriques ou les informations comportementales ou contextuelles (par exemple, l’utilisation de la langue). Par conséquent, le déploiement à grande échelle de ces méthodes de vérification de l’âge facilite la collecte et l’exploitation des données (des enfants) ».
Une infrastructure mondiale ?
Ces chercheurs et chercheuses l’assurent : « la mise en place d’une infrastructure mondiale fiable pour la vérification de l’âge n’est pas triviale ». Pour eux, avec les connaissances actuelles, cela demande de fait de s’appuyer sur des projets de vérification d’identité gouvernementaux s’appuyant sur des solutions de chiffrement très robuste pour chaque interrogation du service. « Cela entraînerait un usage difficile et l’exclusion de tous les utilisateurs ne disposant pas de papiers », commentent-ils.
De plus, ils expliquent qu’un tel système s’appuyant sur la vérification d’une preuve d’identité est « non seulement sujette à erreur, mais nécessite l’existence d’une infrastructure de confiance à l’échelle d’Internet », ce qui n’existe pas actuellement pour ça.
« Cela nécessite, entre autres, la mise en place d’émetteurs de confiance capables de fournir des certificats numériques à grande échelle, la mise en place de moyens permettant de fournir aux vérificateurs les clés de l’émetteur afin qu’ils puissent effectuer la vérification, et la mise en place de moyens permettant de révoquer les certificats », expliquent-ils. Pour mettre en place ce genre de chose pour sécuriser le HTTP (et le transformer en HTTPS), ça a mis plusieurs dizaines d’années.
Des dangers sur le contrôle de l’information et de l’expression en ligne
La lettre pointe enfin la problématique du choix des contenus qui sont accessibles sur Internet par certains et pas par d’autres : « Entre de mauvaises mains, comme celles d’un gouvernement autoritaire, cette influence pourrait être utilisée pour censurer des informations et empêcher les utilisateurs d’accéder à certains services, par exemple en bloquant l’accès à des contenus LGBTQ+ ».
Des chercheurs alertent sur les dangers de la généralisation de la vérification d’âge
Fausse bonne idée
Dans une lettre ouverte, 371 chercheuses et chercheurs de 30 pays s’opposent à la généralisation de la vérification d’âge imposée aux différents services en ligne par de nombreuses législations dans le monde sans que les implications sur la sécurité, la vie privée, l’égalité et la liberté aient été prises en compte.
Plusieurs centaines de chercheuses et chercheurs, notamment en informatique, ont signé une lettre ouverte demandant un moratoire sur le déploiement des solutions de vérification d’âge dans le monde numérique. On peut retrouver aussi bien les signatures de la chercheuse en droit du numérique du CNAM Suzanne Vergnolle que celles des cryptologues Ronald Linn Rivest (le « R » de l’algorithme RSA) et Bart Preneel.
Rappelons que, suivant l’Australie de près, la France est l’un des pays qui a pris rapidement la direction d’interdire les réseaux sociaux aux moins de 15 ans. L’Assemblée nationale a voté la loi qui doit maintenant être débattue au Sénat. Next avait évoqué les problèmes que le texte soulève.
Et le gouvernement français semble vouloir se montrer à la pointe du sujet en lançant plusieurs travaux sur les effets des usages de l’IA générative et des jeux vidéo sur les mineurs.
Le Royaume-Uni a lui aussi beaucoup avancé sur le sujet. Depuis l’été 2025, la loi sur « la sécurité en ligne » oblige certains sites à mettre en place un système de vérification d’identité pour leurs utilisateurs, ce qui a inquiété la Fondation Wikimedia. Pour l’instant, Wikipédia reste accessible outre-Manche sans système de ce genre.
Un contrôle allant beaucoup plus loin que ce qu’on connait hors ligne
Dans leur texte, les chercheuses et chercheurs expliquent que ces systèmes ont besoin d’aller beaucoup plus loin que ce qui a déjà été mis en place dans le monde hors ligne pour filtrer l’accès des casinos, de l’alcool ou des contenus pornographiques.
« Les discussions actuelles concernant la nécessité de réglementer les réseaux sociaux, les chatbots IA ou les messageries instantanées exigeraient que tous les utilisateurs, mineurs et adultes, prouvent leur âge pour discuter avec leurs amis et leur famille, lire l’actualité ou rechercher des informations, ce qui va bien au-delà de ce qui s’est jamais produit dans nos vies hors ligne », décrivent-ils dans leur lettre [PDF].
Ils pointent aussi que certaines recherches montrent l’utilité des plateformes en ligne et réseaux sociaux pour que les jeunes puissent s’informer, trouver des conseils et s’appuyer sur des communautés pour casser leur isolement.
Besoin d’un consensus scientifique avant de s’y aventurer
Leur idée n’est pas de s’opposer à toute solution de vérification d’âge. Ainsi, parmi les signataires, on retrouve le chercheur de l’École polytechnique, Olivier Blazy, qui avait collaboré avec la CNIL sur un démonstrateur du mécanisme de vérification de l’âge respectueux de la vie privée. Mais ils demandent qu’elle soit mise en place une fois qu’un consensus scientifique sera établi « sur les avantages et les inconvénients que peuvent apporter les technologies de préservation de la jeunesse, ainsi que sur la faisabilité technique d’un tel déploiement ». Et pour eux, il reste des « questions ouvertes sur la faisabilité d’un déploiement efficace ».
« Mentir sur son âge n’est pas difficile », rappelle la lettre qui mentionne la facilité de contournement des solutions actuellement mises en place via l’utilisation de VPN, l’achat d’identifiants validés ou même la simple fabrication de fausses pièces, comme Next l’a déjà montré.
Les systèmes d’estimation d’âge, trop intrusifs
Mais ils ajoutent que la mise en place de ces outils « peut en réalité nuire à la sécurité en ligne en exposant les utilisateurs à des logiciels malveillants et à des escroqueries lorsqu’ils ont recours à des services alternatifs qui ne mettent pas en œuvre de vérification — et les utilisateurs se tourneront sans aucun doute vers ces sources alternatives ».
Ils écartent dans leur texte les systèmes d’estimation d’âge, comme celui mis en place par OpenAI sur ChatGPT, qui manquent de fiabilité et qui sont « très intrusifs pour la vie privée » : « Ils reposent sur la collecte et le traitement de données sensibles et privées telles que les données biométriques ou les informations comportementales ou contextuelles (par exemple, l’utilisation de la langue). Par conséquent, le déploiement à grande échelle de ces méthodes de vérification de l’âge facilite la collecte et l’exploitation des données (des enfants) ».
Une infrastructure mondiale ?
Ces chercheurs et chercheuses l’assurent : « la mise en place d’une infrastructure mondiale fiable pour la vérification de l’âge n’est pas triviale ». Pour eux, avec les connaissances actuelles, cela demande de fait de s’appuyer sur des projets de vérification d’identité gouvernementaux s’appuyant sur des solutions de chiffrement très robuste pour chaque interrogation du service. « Cela entraînerait un usage difficile et l’exclusion de tous les utilisateurs ne disposant pas de papiers », commentent-ils.
De plus, ils expliquent qu’un tel système s’appuyant sur la vérification d’une preuve d’identité est « non seulement sujette à erreur, mais nécessite l’existence d’une infrastructure de confiance à l’échelle d’Internet », ce qui n’existe pas actuellement pour ça.
« Cela nécessite, entre autres, la mise en place d’émetteurs de confiance capables de fournir des certificats numériques à grande échelle, la mise en place de moyens permettant de fournir aux vérificateurs les clés de l’émetteur afin qu’ils puissent effectuer la vérification, et la mise en place de moyens permettant de révoquer les certificats », expliquent-ils. Pour mettre en place ce genre de chose pour sécuriser le HTTP (et le transformer en HTTPS), ça a mis plusieurs dizaines d’années.
Des dangers sur le contrôle de l’information et de l’expression en ligne
La lettre pointe enfin la problématique du choix des contenus qui sont accessibles sur Internet par certains et pas par d’autres : « Entre de mauvaises mains, comme celles d’un gouvernement autoritaire, cette influence pourrait être utilisée pour censurer des informations et empêcher les utilisateurs d’accéder à certains services, par exemple en bloquant l’accès à des contenus LGBTQ+ ».
New Zlib-rs Delivers More Performance With AVX-512 VNNI Adler32 Implementation
-
Next - Articles gratuits
- ☕️ Data centers : le DG d’iliad (Free) veut accélérer les procédures sur les friches industrielles
☕️ Data centers : le DG d’iliad (Free) veut accélérer les procédures sur les friches industrielles
« Refuser de surtransposer le droit européen ; créer une procédure environnementale accélérée pour les projets installés sur des friches industrielles déjà artificialisées ; autoriser la réutilisation des études environnementales déjà réalisées afin d’éviter des redondances inutiles. »
Telles sont les requêtes de Thomas Reynaud, directeur général d’Iliad-Free, qu’il les formule dans une tribune publiée dans Les Échos. Le dirigeant s’indigne du temps que prend l’étude faune-flore (.pdf) à laquelle doit se soumettre tout projet industriel, et ce pendant « plusieurs mois (jusqu’à un an dans le cadre d’une étude dite "4 saisons" », selon la documentation (.pdf) de la Direction générale des Entreprises.
Concrètement, il s’agace de devoir y passer douze mois, alors que le projet de centre de données construit par OpCore (filiale à 50 % d’iliad et 50 % du fonds InfraVia) en Seine-et-Marne doit être construit sur le site de l’ancienne centrale à charbon de Montereau.

En l’espèce, Thomas Reynaud se fait l’écho à des requêtes de simplification de l’implantation de centres de données en France – promues par exemple via le soutien de l’article 15 de la loi de simplification de la vie économique, qui doit encore être votée par les parlementaires –, quoique de manière plus ciblée.
Soulignant que des centres de données sont construits très rapidement aux États-Unis ou en Chine, au prix de « non-sens écologiques », il décrit une France en train de perdre du temps « d’observation d’un sol stérile » alors même qu’elle « dispose d’un des mix électriques les plus décarbonés de la planète et des ingénieurs d’exception qui doivent faire de la France la première terre d’accueil des infrastructures d’IA en Europe et une des premières au monde ».
Et d’appeler à simplifier les procédures pour les fermes de serveurs dédiées à s’implanter sur des friches déjà artificialisées.
-
Next.ink
- ☕️ Data centers : le DG d’iliad (Free) veut accélérer les procédures sur les friches industrielles
☕️ Data centers : le DG d’iliad (Free) veut accélérer les procédures sur les friches industrielles
« Refuser de surtransposer le droit européen ; créer une procédure environnementale accélérée pour les projets installés sur des friches industrielles déjà artificialisées ; autoriser la réutilisation des études environnementales déjà réalisées afin d’éviter des redondances inutiles. »
Telles sont les requêtes de Thomas Reynaud, directeur général d’Iliad-Free, qu’il les formule dans une tribune publiée dans Les Échos. Le dirigeant s’indigne du temps que prend l’étude faune-flore (.pdf) à laquelle doit se soumettre tout projet industriel, et ce pendant « plusieurs mois (jusqu’à un an dans le cadre d’une étude dite "4 saisons" », selon la documentation (.pdf) de la Direction générale des Entreprises.
Concrètement, il s’agace de devoir y passer douze mois, alors que le projet de centre de données construit par OpCore (filiale à 50 % d’iliad et 50 % du fonds InfraVia) en Seine-et-Marne doit être construit sur le site de l’ancienne centrale à charbon de Montereau.

En l’espèce, Thomas Reynaud se fait l’écho à des requêtes de simplification de l’implantation de centres de données en France – promues par exemple via le soutien de l’article 15 de la loi de simplification de la vie économique, qui doit encore être votée par les parlementaires –, quoique de manière plus ciblée.
Soulignant que des centres de données sont construits très rapidement aux États-Unis ou en Chine, au prix de « non-sens écologiques », il décrit une France en train de perdre du temps « d’observation d’un sol stérile » alors même qu’elle « dispose d’un des mix électriques les plus décarbonés de la planète et des ingénieurs d’exception qui doivent faire de la France la première terre d’accueil des infrastructures d’IA en Europe et une des premières au monde ».
Et d’appeler à simplifier les procédures pour les fermes de serveurs dédiées à s’implanter sur des friches déjà artificialisées.
Partage audio sous Windows 11 ? Il faudra bouffer de l’IA
![]()
Dans sa grande stratégie de service et d’excellence, Microsoft a décidé d’améliorer son partage audio sans fil avec Windows 11. Mais pour en profiter, il faudra non seulement posséder les casques Bluetooth présents dans une liste assez étroite, mais surtout faire avec la présence de Copilot+ sur votre machine.
Partage audio sous Windows 11 via Neowin
Pour le résumer rapidement, les machines sous Windows 11 proposent désormais d’une fonction de partage du son sans fil vers plusieurs casques Bluetooth. L’idée est d’avoir un seul poste qui diffuse de la musique ou le son d’un film vers différentes personnes. Aujourd’hui, l’ensemble des liaisons Bluetooth se base sur un seul volume. Ce qui fait que si vous voulez augmenter le son, l’ensemble du volume augmentera chez tout le monde. C’est un problème parce que tout le monde n’a pas la même audition et les casques eux-mêmes ne proposent pas le même volume sonore à partir de la même source. Et cela malgré une liste assez limitée de produits compatibles.
![]()
Le partage audio comme méthode de vente
Vous avez peut-être déjà été démarché au téléphone par des vendeurs de canapés ou de tapis. Des magasins éphémères qui vous promettent un mirifique cadeau. Vous avez gagné un service à thé ou un peu de vaisselle et si vous venez le chercher au magasin, vous repartirez avec sans obligation d’achat. Une fois sur place, deux ou trois vendeurs vous font la réclame et vous tiennent pendant tout le temps nécessaire pour vous faire craquer et acheter un truc dont vous n’avez pas besoin. Jouant une pression énorme sur les plus fragiles afin de prendre l’avantage. En général le « cadeau » est médiocre pour ceux qui partent les mains vides et juste correct pour ceux qui achètent. Bref, une méthode classique de carotte pour vous faire accepter un truc.
Chez Microsoft on en est réduit exactement à cela. Vous voulez profiter du partage audio pour le système d’exploitation que vous avez acheté ? Il faudra accepter un truc qui n’a absolument rien à voir. Si votre PC n’est pas équipé d’un NPU et d’une estampille Copilot+, alors vous ne pourrez pas installer la mise à jour.
Ce qui est bien pratique pour deux choses. D’abord Microsoft peut très bien recenser toutes les machines ayant installé cette option et donc savoir si votre ordinateur sous Windows 11 est capable de piloter Copilot+ avec son NPU. Ce qui permet de profiler un matraquage publicitaire en bonne et due forme. Mais cela permet aussi de créer de l’intérêt pour la présence d’un NPU et donc pour l’IA et cela même si le rapport entre celle-ci et la gestion de l’audio est difficile à défendre.
Je ne donne pas longtemps avant qu’un logiciel existe pour faire croire au système Windows 11 qu’un NPU est bien présent à bord, juste pour le leurrer. Parce que si Microsoft continue sur sa lancée, après le partage audio, ce sera autour de certaines définitions d’être réservées au PC Copilot+…
Si vous voulez essayer l’option, vous pouvez suivre les versions de développement ou Beta de Windows 11. Il vous faudra évidemment une machine compatible, la liste est ici et elle est essentiellement composée d’engins sous SoC Qualcomm Snapdragon X :
Surface Laptop, 13.8″ et 15″ | Qualcomm Snapdragon X
Surface Laptop for Business, 13.8″ and 15″ | Qualcomm Snapdragon X
Surface Pro, 13″ | Qualcomm Snapdragon X
Surface Pro for Business, 13″| Qualcomm Snapdragon X
Surface Laptop, 13″| Qualcomm Snapdragon X
Surface Laptop for Business, 13″| Qualcomm Snapdragon X
Surface Pro, 12″ | Qualcomm Snapdragon X
Surface Pro for Business, 12″| Qualcomm Snapdragon X
Samsung Galaxy Book4 Edge | Qualcomm Snapdragon X
et
Samsung Galaxy Book5 360 | Intel Core Ultra Series 200
Samsung Galaxy Book5 Pro | Intel Core Ultra Series 200
Samsung Galaxy Book5 Pro 360 | Intel Core Ultra Series 200
Partage audio sous Windows 11 ? Il faudra bouffer de l’IA © MiniMachines.net. 2026
-
Next.ink
- Data gouv lance son serveur MCP, les IA accèdent directement aux données publiques françaises
Data gouv lance son serveur MCP, les IA accèdent directement aux données publiques françaises
De MCP.data.gouv.fr à Sorry.data.gouv.fr/
La plateforme data.gouv.fr permet de rechercher et récupérer des données publiques françaises en open data. Elle vient de lancer un serveur MCP afin de permettre à des IA d’effectuer automatiquement des recherches puis de récupérer et d’utiliser des données. Une première étape sous la forme d’une expérimentation, avant une ouverture plus large.
La semaine dernière, la plateforme des données publiques françaises – data.gouv.fr – a lancé son « serveur MCP expérimental pour interagir avec les données françaises depuis son chatbot ». MCP signifie, pour rappel, Model Context Protocol. C’est un standard ouvert lancé par Anthropic (Claude) fin 2024 puis confié à la Linux Foundation. Il permet de connecter des modèles d’intelligence artificielle.
Lecture seule pour le moment
Cette première expérimentation « vise à tester, de manière encadrée, de nouvelles façons d’interroger et de valoriser les données publiques via des interfaces conversationnelles », explique data.gouv.fr. Le code du serveur MCP est disponible dans ce dépôt GitHub (licence MIT), avec des explications pour le connecter à différentes IA génératives. Un appel à contribution et à des retours (positifs comme négatifs) est lancé.
Des limitations sont présentes pour le moment : « À ce stade, le serveur MCP de datagouv fonctionne uniquement pour explorer les données publiques ouvertes en lecture, sans autoriser de modification. À terme, l’ambition est de tester également des usages pour éditer et publier de nouvelles données sur datagouv, toujours avec prudence, et en s’appuyant sur des modèles souverains ».
Nous avons testé l’expérience avec Claude, en version web et via Claude Code. Une seule adresse est à connaitre : celle du endpoint du serveur MCP de datagouv : https://mcp.data.gouv.fr/mcp. Dans Claude Code, il faut saisir la ligne suivante : claude mcp add --transport http data-gouv https://mcp.data.gouv.fr/mcp pour ajouter le serveur. Vous devez ensuite fermer (exit) et relancer Claude Code. Vous pouvez utiliser la commande claude -c, avec « c » comme continu pour reprendre la session précédente.
10 « outils » pour des jeux de données et des services
Dans la version web, rendez-vous dans les Paramètres puis Connecteurs. Cliquez sur Ajouter un connecteur personnalisé, donnez-lui un nom comme datagouv France et l’adresse https://mcp.data.gouv.fr/mcp.
Pour chaque « outil » (ou commande) du serveur MCP, il est possible de définir différents niveaux d’autorisations dans la version web : toujours autoriser, nécessite une approbation, bloqué.
- search_datasets : rechercher des jeux de données par mots-clés
- get_dataset_info : obtenir les métadonnées détaillées d’un jeu de données
- list_dataset_resources : lister les données d’un dataset
- get_resource_info : obtenir des infos détaillées sur une ressource
- query_resource_data : interroger un dataset sans téléchargement
- download_and_parse_resource : télécharger et parser une ressource
- search_dataservices : rechercher des APIs sur data.gouv.fr
- get_dataservice_info : infos détaillées sur une API
- get_dataservice_openapi_spec : récupérer les specs OpenAPI d’une API
- get_metrics : statistiques de visites et téléchargements d’un dataset ou ressource

Une fois connectée, l’IA peut utiliser le serveur MCP pour interagir avec les jeux de données de data.gouv.fr. Vous pouvez rechercher des ensembles de données par mots-clé (y compris avec des paramètres personnalisés si besoin), obtenir des informations sur les jeux de données, lister les ressources, télécharger les données, etc. Vous pouvez aussi rechercher des API sur data.gouv.fr et les utiliser. Enfin, des métriques sur les visites et les téléchargements sont également disponibles.
Par exemple, une recherche MCP depuis Claude Code pour les jeux de données sur la consommation électrique passera par la commande mcp__data-gouv__search_datasets query: "consommation électrique". Vous n’avez généralement rien à faire de votre côté, c’est l’IA qui se charge d’aller chercher les données.

Pour chaque jeu de données, le serveur MCP donne des informations avec un ID, l’origine des données, une URL, des commentaires, etc. Vous pouvez ensuite récupérer et utiliser les jeux de données, directement dans l’interface d’une IA.
Quelques exemples sont donnés par les développeurs du serveur MCP : « Au lieu de naviguer manuellement sur le site, vous pouvez simplement poser des questions comme « Quels jeux de données sont disponibles sur les prix de l’immobilier ? » « ou "Montre-moi les dernières données de population pour Paris" et obtenir des réponses instantanées ».
Sorry.gouv.fr : «
Site en cours de maintenance »
Nous ne pouvons actuellement pas pousser beaucoup plus loin les tests puisque le site https://mcp.data.gouv.fr/ renvoie bien trop régulièrement vers https://sorry.data.gouv.fr/ avec un message d’erreur : « Site en cours de maintenance, nous faisons le maximum pour revenir en ligne rapidement ».
Ce problème est présent depuis le lancement la semaine dernière, comme le reconnait Antonin Garrone, responsable produit – pôle ouverture des données publiques (data.gouv.fr), sur X. Vendredi, il expliquait que « c’était lié au scaling à cause de la forte affluence d’aujourd’hui, c’est bon désormais ». Force est de constater que non…

Prudence : « Ce type de dispositif est difficile à auditer »
Pour résumer, le serveur MCP permet à des IA d’accéder aux jeux de données déjà publiés par datagouv, ce ne sont pas de nouvelles données. Les intelligences artificielles peuvent ensuite les utiliser pour créer des applications, des statistiques, des analyses, etc. Évidemment avec tous les risques d’erreurs et d’hallucinations liés à leur nature profonde (elles sont statistiques). L’avantage est que l’IA utilise automatiquement les dernières données disponibles à chaque fois.
Datagouv appelle à la prudence : « Ce type de dispositif est difficile à auditer. Les modèles de langage peuvent produire des réponses incomplètes, approximatives ou erronées. Ils ne constituent en aucun cas une source officielle ou fiable en tant que telle. Par ailleurs, il existe de nombreux serveurs MCP se présentant comme liés à data.gouv.fr sans être officiels. Une vigilance particulière est donc nécessaire quant aux outils utilisés et à leur provenance ».
Dans des commentaires sur LinkedIn, Antonin Garrone apporte une précision sur les serveurs MCP qui portent un nom similaire à celui de datagouv : « il s’agit moins d’un problème d’usurpation que de personnes ayant testé le protocole pour leurs propres cas d’usage, sans mauvaise intention ». Quoi qu’il en soit, il faut maintenant que le serveur MCP se stabilise et tienne autrement la charge que de manière épisodique.
Stack Overflow Adds New Features (Including AI Assist), Rethinks 'Look and Feel'
Read more of this story at Slashdot.
-
Next - Articles gratuits
- ☕️ Aux États-Unis, feu vert pour la fusion à 34,5 milliards de dollars entre Charter et Cox
☕️ Aux États-Unis, feu vert pour la fusion à 34,5 milliards de dollars entre Charter et Cox
En mai 2025, Charter Communications (qui propose des offres sous la marque Spectrum) et Cox Communications annonçaient « un accord définitif de fusion ». Comme le rappelle Reuters, il s’agit de regrouper « deux des plus grands opérateurs américains de câble et du haut débit dans leur bataille contre les sociétés de streaming et les opérateurs mobiles ».
Montant de la transaction : 34,5 milliards de dollars environ, pour reprendre Cox mais aussi ses 12,6 milliards de dollars de dette. « Le nouvel ensemble revendiquera ainsi la place de numéro un de l’Internet fixe au pays de l’oncle Sam », expliquait alors Les Échos. Reuters ajoute que cette nouvelle entité devrait regrouper « 38 millions d’abonnés, dépassant le leader du marché Comcast ».

La FCC (régulateur américain des télécoms) vient de donner son accord et son président, Brendan Carr, s’en félicite : « En approuvant cet accord, la FCC garantit des avantages considérables aux Américains. Cet accord signifie le retour aux États-Unis d’emplois délocalisés. Il signifie également le déploiement de réseaux modernes à haut débit dans davantage de zones rurales. Enfin, il permettra aux consommateurs d’accéder à des forfaits moins chers. De plus, l’accord consacre des protections contre la discrimination fondée sur la diversité, l’équité et l’inclusion. ».
Il ajoute que Charter prévoit d’investir des « milliards de dollars » pour améliorer son réseau après cette opération. « Cela signifie que les Américains bénéficieront d’un accès internet plus rapide et de prix plus bas », peut-on lire dans le document de la FCC.
Engadget tempère l’enthousiasme de la FCC : « Bien que la FCC de Carr dresse un tableau très favorable de l’acquisition de Charter, l’histoire a fourni de nombreux exemples de fusions ayant eu l’effet inverse sur les emplois et les prix. Par exemple, les redondances lors de la fusion de T-Mobile avec Sprint en 2020 ont entraîné une vague de licenciements chez l’opérateur ».
Nos confrères rappellent que, en 2018, « peu de temps après l’approbation de la fusion de Charter avec Time Warner Cable par la FCC, la société a augmenté les prix de son service Spectrum de plus de 91 dollars par an ».
-
Next.ink
- ☕️ Aux États-Unis, feu vert pour la fusion à 34,5 milliards de dollars entre Charter et Cox
☕️ Aux États-Unis, feu vert pour la fusion à 34,5 milliards de dollars entre Charter et Cox
En mai 2025, Charter Communications (qui propose des offres sous la marque Spectrum) et Cox Communications annonçaient « un accord définitif de fusion ». Comme le rappelle Reuters, il s’agit de regrouper « deux des plus grands opérateurs américains de câble et du haut débit dans leur bataille contre les sociétés de streaming et les opérateurs mobiles ».
Montant de la transaction : 34,5 milliards de dollars environ, pour reprendre Cox mais aussi ses 12,6 milliards de dollars de dette. « Le nouvel ensemble revendiquera ainsi la place de numéro un de l’Internet fixe au pays de l’oncle Sam », expliquait alors Les Échos. Reuters ajoute que cette nouvelle entité devrait regrouper « 38 millions d’abonnés, dépassant le leader du marché Comcast ».

La FCC (régulateur américain des télécoms) vient de donner son accord et son président, Brendan Carr, s’en félicite : « En approuvant cet accord, la FCC garantit des avantages considérables aux Américains. Cet accord signifie le retour aux États-Unis d’emplois délocalisés. Il signifie également le déploiement de réseaux modernes à haut débit dans davantage de zones rurales. Enfin, il permettra aux consommateurs d’accéder à des forfaits moins chers. De plus, l’accord consacre des protections contre la discrimination fondée sur la diversité, l’équité et l’inclusion. ».
Il ajoute que Charter prévoit d’investir des « milliards de dollars » pour améliorer son réseau après cette opération. « Cela signifie que les Américains bénéficieront d’un accès internet plus rapide et de prix plus bas », peut-on lire dans le document de la FCC.
Engadget tempère l’enthousiasme de la FCC : « Bien que la FCC de Carr dresse un tableau très favorable de l’acquisition de Charter, l’histoire a fourni de nombreux exemples de fusions ayant eu l’effet inverse sur les emplois et les prix. Par exemple, les redondances lors de la fusion de T-Mobile avec Sprint en 2020 ont entraîné une vague de licenciements chez l’opérateur ».
Nos confrères rappellent que, en 2018, « peu de temps après l’approbation de la fusion de Charter avec Time Warner Cable par la FCC, la société a augmenté les prix de son service Spectrum de plus de 91 dollars par an ».
-
CowcotLand news
- TCL marie NXTPAPER et AMOLED au Mobile World Congress : vers l'écran haut de gamme confortable ?
TCL marie NXTPAPER et AMOLED au Mobile World Congress : vers l'écran haut de gamme confortable ?
Au Mobile World Congress 2026, TCL a dévoilé une évolution stratégique de sa technologie NXTPAPER. Pour la première fois, la marque associe son approche centrée sur le confort visuel à une dalle AMOLED, promettant de réconcilier qualité d'image premium et protection oculaire. Jusqu'ici, NXTPAPER était surtout perçu comme une alternative plus douce, parfois moins spectaculaire que les écrans OLED traditionnels. Avec cette nouvelle génération, TCL change d'ambition : conserver la richesse visuelle de l'AMOLED tout en intégrant des optimisations matérielles destinées à réduire la fatigue visuelle. […]
Lire la suite-
Hardware & Co - Actualités
- Un autre regard sur le Ryzen 5 7500X3D, le moins cher des X3D mais pas le moins intéressant en ce moment ?
Un autre regard sur le Ryzen 5 7500X3D, le moins cher des X3D mais pas le moins intéressant en ce moment ?
Il y a quelques semaines, nous évaluions le Ryzen 5 7500X3D au travers de 2 articles : un complet inspectant tous les aspects à connaitre, et un uniquement dédié à la manière de tester des CPU en gaming. Ces deux articles se complétant très bien, voici un autre test fait par VCG, qui est une sorte d...
More ASUS Desktop Motherboards Will Support Sensor Monitoring With Linux 7.1
Windows 365, la solution à tous vos problèmes de mémoire
![]()
Windows 365 est un système dans les nuages, une sorte de tuyau qui permet de piloter un système à distance et qui est largement proposé aux entreprises pour déployer des flottes de machines variées sur le terrain.
Avec Windows 365, on peut se connecter depuis n’importe quel poste et, une fois identifié en ligne, se retrouver sur son bureau qui est streamé depuis un serveur. C’est pratique pour certaines sociétés qui jouent sur le flex-office, la mobilité des équipes ou autres techniques de « managment ». C’est également parfait pour garder en un lieu sécurisé des fichiers importants et éviter qu’ils ne se baladent trop dans la nature. Mais, surtout, cela permet de ne pas dépenser des fortunes en matériel puisque n’importe quel engin va pouvoir se connecter au serveur. Même un MiniPC très entrée de gamme.
Et, au regard de la crise actuelle des composants, la logique de Windows 365 semble être une pièce parfaite pour résoudre le casse-tête actuel des entreprises. Au lieu d’acheter 50 postes avec 50 kits de mémoire et de stockage hors de prix, il suffit d’acheter 50 machines basiques et de leur payer un accès à Windows 365.
![]()
Asus annonce donc un « NUC 16 for Windows 365 » qui est un MiniPC très classique de la marque avec une bonne connexion réseau. On aprle d’un Ethernet 2.5 Gigabit et d’un Wi-Fi6E et Bluetooth 5.3. On retrouve en fait la carcasse d’un Asus N16 Pro allégé et probablement rempli de composants assez basiques. On n’a pas le détail de la configuration mais comme il s’agit uniquement de gérer les périphériques locaux et de faire le pont vers un serveur, je ne serais pas surpris qu’une configuration basique soit intégrée. Un processeur Intel Alder Lake-N ou Twin Lake accompagné de mémoire et de stockage minimum.
![]()
Dell suit la même route avec son Dell Pro Dekstop for Windows 365. Avec un tout petit peu plus de détails techniques puisque la marque fait état d’un processeur Intel de série N. Ces machines sont prévues pour le troisième trimestre de cette année.
Windows 365 n’a d’intérêt que pour certains pro
Ce genre de déploiement est également idéal pour des équipes techniques. Le matériel déployé n’a pas grand risque de panne ni d’infection, les postes virtuels sont constamment actualisés et surveillés. En cas de problème, les fichiers sont doublonnés pour éviter toute perte et il est possible de retrouver un système tout neuf en quelques minutes. Avec une bonne équipe technique et un bon matériel serveur, déployer de nouveaux postes ou en supprimer ne prend que quelques clics. Une migration de système se fera facilement et l’installation d’un nouvel outil ou sa mise à jour ne souffriront d’aucun retard. Évidemment, la contrepartie est qu’en général personne ne peut employer ses logiciels de productivité préférés. Tout le monde a accès aux outils choisis par la société.
![]()
Évidemment, aucun particulier n’a le moindre intérêt à toucher à ces machines. Inutile d’imaginer faire des mises à jour techniques, le plus probable est que l’ensemble des composants soit au plus bas coût possible. En seconde main, si vous croisez l’étiquette « Windows 365 » ne vous penchez pas trop sur le produit. Non seulement il est plus que certain qu’il s’agira d’un MiniPC avec de la mémoire vive LPDDRx soudée, mais le recours à un stockage également intégré à la carte mère sous la forme d’un eMMC est plus que probable. Il est par ailleurs possible que cette approche très Microsoftienne des minimachines les bloque, via leur BIOS, à toute exploitation d’un autre système.
Le seul intérêt éventuel, par exemple sur le modèle de Dell qui est annoncé comme Fanless, serait d’en faire un MiniPC pour des usages multimédia avec une éventuelle distribution Linux spécialisée. Par exemple un Daphile ou autre, mais évidemment il n’est pas certain du tout que ce soit possible. Si c’était le cas, avec un prix vraiment très très bas, ce genre de configuration pourrait avoir un intérêt. J’ai croisé à une époque des clients légers d’entreprises à 20€ chez un brocker… Des machines sous Atom fanless parfaites pour ce genre de rôle. Mais, j’avais l’assurance d’une compatibilité assez large d’un point de vue logiciel avant de craquer.
Windows 365, la solution à tous vos problèmes de mémoire © MiniMachines.net. 2026
Armbian 26.02 Released: New Boards, Powered By Linux 6.18 LTS & RISC-V Xfce Desktop
-
CowcotLand news
- Quelques détails sur la belle carte graphique ASUS ProArt GeForce RTX 5090 OC Edition
Quelques détails sur la belle carte graphique ASUS ProArt GeForce RTX 5090 OC Edition
Nous en savons un peu plus sur la future carte graphique ASUS ProArt GeForce RTX 5090 OC Edition et avouons-le, celle-ci ne manque pas de charme, avec sa baguette en bois sur la tranche supérieure, son lettrage doré et son aspect premium, assumé ! Du Pro, de l'Art, en somme du ProArt ! Tous les détails ne sont pas encore connus, mais les contours du futur composant commencent à se dessiner, la carte sera au format SFF, avec une occupation annoncée de 2.5 slots, le refroidissement est assuré par deux ventilateurs, de type axial, de 115 mm, la carte opte pour un refroidissement doté d'une chambre à vapeur et de métal liquide, au lieu d'une classique pâte thermique. On remarque que la backplate arbore une double découpe, afin de faciliter la circulation du flux d'air. ASUS annonce une compatibilité avec son logiciel maison GPU Tweak III, ainsi que la présence d'un port USB Type-C. Le constructeur ne nous livre pas les derniers éléments, les plus croustillants, à savoir la fréquence du Boost GPU, la date de disponibilité et le prix ! […]
Lire la suite