Vue normale

Reçu aujourd’hui — 12 novembre 2025Actualités numériques

☕️ IA : Wikimedia appelle les entreprises à utiliser son API payante et à créditer le contenu

12 novembre 2025 à 13:37

Comment faire face à la chute des pages vues, que Wikipedia met sur le compte du développement de l’IA générative ?

La fondation Wikimedia a la solution : dans une publication du 10 novembre, elle appelle les développeurs d’IA à recourir à ses ressources de manière « responsable », en créditant leur source et en soutenant le projet contributif financièrement.

Le logo Wikipédia version Yin et Yang

« Les humains apportent à la connaissance des éléments que l’IA ne saurait remplacer », indique la fondation qui fournit l’infrastructure technique pour permettre à des communautés de wikipédiens et wikipédiennes d’alimenter bénévolement les encyclopédies de leurs langues respectives.

Pour permettre au projet de se perpétuer, la fondation appelle donc les créateurs d’IA génératives à citer leurs sources humaines – et Wikipedia, lorsque les contenus ayant servi à alimenter leurs machines viennent de là.

D’après la fondation, « pour permettre à la population d’avoir confiance en l’information partagée sur internet, les plateformes devraient rendre les sources de leurs informations évidentes et promouvoir le fait de visiter et de participer à ces sources ».

Elle incite aussi les constructeurs à se tourner vers son API payante, disponible depuis la plateforme Wikimedia Entreprise, ce qui permet d’utiliser le contenu de l’encyclopédie « à grande échelle et de manière durable sans surcharger les serveurs de Wikipédia », tout en soutenant financièrement ses activités.

Affaiblissement du RGPD : l’Allemagne l’inspire, la France y est opposée « à ce stade »

12 novembre 2025 à 13:08
Quick and dirty
Affaiblissement du RGPD : l’Allemagne l’inspire, la France y est opposée « à ce stade »

La Commission européenne a proposé d’affaiblir rapidement le RGPD au profit des entreprises d’IA. Les pays membres semblent vouloir une discussion plus longue sur le sujet, même si l’Allemagne inspire la proposition de la Commission.

Une petite bombe a été lâchée la semaine dernière avec la fuite d’un brouillon de la Commission européenne de la loi « omnibus numérique » prévoyant d’affaiblir le RGPD au profit des entreprises d’IA. Elle doit officiellement le présenter le 19 novembre prochain et le texte peut encore changer d’ici là.

L’association noyb de Max Schrems, qui y est totalement opposée, a publié [PDF] les positions de neuf pays sur la « simplification » du RGPD rendues avant la fuite du brouillon.

L’Allemagne pour des changements en profondeur… mais avec des discussions en amont

L’Allemagne plaidait pour une vaste révision du règlement mais sans que la loi « omnibus numérique » qui doit entrer en discussion d’ici peu en soit le vecteur le plus significatif. Berlin considère que les discussions autour du sujet méritent du temps.

« Afin d’ajuster l’équilibre entre les droits fondamentaux des personnes concernées et les droits fondamentaux des citoyens et des entreprises à traiter des données à caractère personnel (notamment la liberté d’information, la liberté des sciences, la liberté d’exercer une activité commerciale), toute modification du RGPD, tout en garantissant un niveau adéquat de protection des données et en préservant les principes fondamentaux du RGPD, devrait être examinée avec soin et mise en œuvre de manière ciblée, précise et fondée sur les risques », affirmait l’Allemagne.

Mais, pour noyb, « il semble que la Commission se soit simplement « emparée » » de cette position non-officielle de l’Allemagne pour établir sa proposition d’un affaiblissement du RGPD exprimée dans le brouillon de l’ « omnibus numérique » , « étant donné que de nombreux changements apportés au projet semblent être une copie conforme des demandes formulées dans la lettre allemande qui a fuité », affirme l’association de Max Schrems.

La France et sept autres pays de l’UE pour des changements à la marge

De leurs côtés, les huit autres pays qui se sont exprimés (la République tchèque, l’Estonie, l’Autriche, la Pologne, la Slovénie, la Finlande, la Suède et la France) ne pressent pas pour un changement majeur du texte. Si aucun d’entre eux ne nie le besoin de clarification de certains points dans le règlement européen, notamment pour faciliter la mise en conformité des entreprises, une bonne partie d’entre eux souligne, à l’instar de la République tchèque, la nécessité que cela reste « compatible avec la protection effective des droits fondamentaux ».

Prague voit surtout des modifications à la marge comme la possibilité pour les responsables du traitement de ne pas « déployer des efforts disproportionnés » pour fournir des informations lorsqu’une personne lui demande, comme l’article 15 du règlement le prévoit, si certaines de ses données à caractère personnel sont ou ne sont pas traitées. La Suède propose aussi des changements à la marge comme un relèvement du seuil pour lequel les entreprises doivent notifier la violation de données personnelles.

Quant à la France, elle jugeait qu’ « à ce stade, les retours des parties prenantes collectés par la Commission ont montré qu’elles ne souhaitaient pas d’une réouverture du RGPD » et que « les autorités françaises se sont également exprimées en ce sens et maintiennent cette position ». Comme les sept autres pays, elle estimait que « pour atteindre un équilibre optimal entre les enjeux d’innovation et la protection des libertés fondamentales, les efforts de mise en œuvre du texte doivent se poursuivre ». Par contre, Paris appelle « le CEPD [Contrôleur européen de la protection des données] et les autorités de protection des données à mener rapidement des consultations des acteurs sur les sujets prioritaires que sont l’articulation du RGPD avec le règlement sur l’intelligence artificielle (RIA), la pseudonymisation et l’anonymisation, dans les semaines qui viennent ». La France estime qu’ « il s’agit d’une attente très forte pour que les besoins concrets puissent être exprimés en amont de la finalisation du premier jet des lignes directrices sur ces sujets ».

De son côté, Max Schrems réitère ses critiques sur le projet : « Le brouillon n’est pas seulement extrême, il est également très mal rédigé. Il n’aide pas les « petites entreprises », comme promis, mais profite à nouveau principalement aux « grandes entreprises technologiques » ». noyb s’est joint à l’Edri et à l’organisation irlandaise Irish Council for Civil Liberties pour envoyer une lettre ouverte [PDF] à la Vice-présidente exécutive de la Commission européenne à la Souveraineté technologique, à la Sécurité et à la Démocratie, Henna Virkkunen. Dans ce texte, les trois associations affirment que les changements « considérables » prévus par le brouillon « priveraient non seulement les citoyens de leurs droits, mais compromettraient également la compétitivité européenne ».

Visual Studio 2026 et .NET 10 : découplage des outils de génération, performances et IA

12 novembre 2025 à 14:03
Pas de cassure dans les extensions
Visual Studio 2026 et .NET 10 : découplage des outils de génération, performances et IA

Visual Studio 2026 est disponible officiellement depuis ce 11 novembre, accompagné par la version 10 du framework .NET. Les deux mettent un accent particulier sur les performances, avec de nombreuses optimisations dans l’environnement de développement. Comme on s’en doute, l’intelligence artificielle joue également un rôle majeur.

Microsoft ne manque pas d’enthousiasme pour qualifier la nouvelle mouture de son Visual Studio. La notion d’IDE change d’ailleurs de sens pour l’éditeur : d’Integrated Development Environment, on passe à Intelligent Developer Environment, le premier du genre selon l’entreprise.

Les performances semblent avoir été un axe majeur de travail, tout comme les réponses aux développeurs. Microsoft indique ainsi avoir corrigé plus de 5 000 problèmes signalés par la communauté. De même, parmi les nouvelles fonctions de cette version 2026, 300 proviennent des développeurs.

Chargements plus rapides

Microsoft est particulièrement fière du travail fait sur la rapidité générale de son environnement, et plus particulièrement sur sa réactivité. L’entreprise dit avoir réduit les cas de blocages de l’interface de plus de 50 %. « L’interface utilisateur répond si bien que vous remarquerez à peine qu’elle est là », s’emballe Microsoft.


Il reste 88% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ IA : Wikimedia appelle les entreprises à utiliser son API payante et à créditer le contenu

12 novembre 2025 à 13:37

Comment faire face à la chute des pages vues, que Wikipedia met sur le compte du développement de l’IA générative ?

La fondation Wikimedia a la solution : dans une publication du 10 novembre, elle appelle les développeurs d’IA à recourir à ses ressources de manière « responsable », en créditant leur source et en soutenant le projet contributif financièrement.

Le logo Wikipédia version Yin et Yang

« Les humains apportent à la connaissance des éléments que l’IA ne saurait remplacer », indique la fondation qui fournit l’infrastructure technique pour permettre à des communautés de wikipédiens et wikipédiennes d’alimenter bénévolement les encyclopédies de leurs langues respectives.

Pour permettre au projet de se perpétuer, la fondation appelle donc les créateurs d’IA génératives à citer leurs sources humaines – et Wikipedia, lorsque les contenus ayant servi à alimenter leurs machines viennent de là.

D’après la fondation, « pour permettre à la population d’avoir confiance en l’information partagée sur internet, les plateformes devraient rendre les sources de leurs informations évidentes et promouvoir le fait de visiter et de participer à ces sources ».

Elle incite aussi les constructeurs à se tourner vers son API payante, disponible depuis la plateforme Wikimedia Entreprise, ce qui permet d’utiliser le contenu de l’encyclopédie « à grande échelle et de manière durable sans surcharger les serveurs de Wikipédia », tout en soutenant financièrement ses activités.

Affaiblissement du RGPD : l’Allemagne l’inspire, la France y est opposée « à ce stade »

12 novembre 2025 à 13:08
Quick and dirty
Affaiblissement du RGPD : l’Allemagne l’inspire, la France y est opposée « à ce stade »

La Commission européenne a proposé d’affaiblir rapidement le RGPD au profit des entreprises d’IA. Les pays membres semblent vouloir une discussion plus longue sur le sujet, même si l’Allemagne inspire la proposition de la Commission.

Une petite bombe a été lâchée la semaine dernière avec la fuite d’un brouillon de la Commission européenne de la loi « omnibus numérique » prévoyant d’affaiblir le RGPD au profit des entreprises d’IA. Elle doit officiellement le présenter le 19 novembre prochain et le texte peut encore changer d’ici là.

L’association noyb de Max Schrems, qui y est totalement opposée, a publié [PDF] les positions de neuf pays sur la « simplification » du RGPD rendues avant la fuite du brouillon.

L’Allemagne pour des changements en profondeur… mais avec des discussions en amont

L’Allemagne plaidait pour une vaste révision du règlement mais sans que la loi « omnibus numérique » qui doit entrer en discussion d’ici peu en soit le vecteur le plus significatif. Berlin considère que les discussions autour du sujet méritent du temps.

« Afin d’ajuster l’équilibre entre les droits fondamentaux des personnes concernées et les droits fondamentaux des citoyens et des entreprises à traiter des données à caractère personnel (notamment la liberté d’information, la liberté des sciences, la liberté d’exercer une activité commerciale), toute modification du RGPD, tout en garantissant un niveau adéquat de protection des données et en préservant les principes fondamentaux du RGPD, devrait être examinée avec soin et mise en œuvre de manière ciblée, précise et fondée sur les risques », affirmait l’Allemagne.

Mais, pour noyb, « il semble que la Commission se soit simplement « emparée » » de cette position non-officielle de l’Allemagne pour établir sa proposition d’un affaiblissement du RGPD exprimée dans le brouillon de l’ « omnibus numérique » , « étant donné que de nombreux changements apportés au projet semblent être une copie conforme des demandes formulées dans la lettre allemande qui a fuité », affirme l’association de Max Schrems.

La France et sept autres pays de l’UE pour des changements à la marge

De leurs côtés, les huit autres pays qui se sont exprimés (la République tchèque, l’Estonie, l’Autriche, la Pologne, la Slovénie, la Finlande, la Suède et la France) ne pressent pas pour un changement majeur du texte. Si aucun d’entre eux ne nie le besoin de clarification de certains points dans le règlement européen, notamment pour faciliter la mise en conformité des entreprises, une bonne partie d’entre eux souligne, à l’instar de la République tchèque, la nécessité que cela reste « compatible avec la protection effective des droits fondamentaux ».

Prague voit surtout des modifications à la marge comme la possibilité pour les responsables du traitement de ne pas « déployer des efforts disproportionnés » pour fournir des informations lorsqu’une personne lui demande, comme l’article 15 du règlement le prévoit, si certaines de ses données à caractère personnel sont ou ne sont pas traitées. La Suède propose aussi des changements à la marge comme un relèvement du seuil pour lequel les entreprises doivent notifier la violation de données personnelles.

Quant à la France, elle jugeait qu’ « à ce stade, les retours des parties prenantes collectés par la Commission ont montré qu’elles ne souhaitaient pas d’une réouverture du RGPD » et que « les autorités françaises se sont également exprimées en ce sens et maintiennent cette position ». Comme les sept autres pays, elle estimait que « pour atteindre un équilibre optimal entre les enjeux d’innovation et la protection des libertés fondamentales, les efforts de mise en œuvre du texte doivent se poursuivre ». Par contre, Paris appelle « le CEPD [Contrôleur européen de la protection des données] et les autorités de protection des données à mener rapidement des consultations des acteurs sur les sujets prioritaires que sont l’articulation du RGPD avec le règlement sur l’intelligence artificielle (RIA), la pseudonymisation et l’anonymisation, dans les semaines qui viennent ». La France estime qu’ « il s’agit d’une attente très forte pour que les besoins concrets puissent être exprimés en amont de la finalisation du premier jet des lignes directrices sur ces sujets ».

De son côté, Max Schrems réitère ses critiques sur le projet : « Le brouillon n’est pas seulement extrême, il est également très mal rédigé. Il n’aide pas les « petites entreprises », comme promis, mais profite à nouveau principalement aux « grandes entreprises technologiques » ». noyb s’est joint à l’Edri et à l’organisation irlandaise Irish Council for Civil Liberties pour envoyer une lettre ouverte [PDF] à la Vice-présidente exécutive de la Commission européenne à la Souveraineté technologique, à la Sécurité et à la Démocratie, Henna Virkkunen. Dans ce texte, les trois associations affirment que les changements « considérables » prévus par le brouillon « priveraient non seulement les citoyens de leurs droits, mais compromettraient également la compétitivité européenne ».

AMD Ryzen 5 7500X3D : un X3D 65 W trop sage pour convaincre

12 novembre 2025 à 14:55
Après avoir découvert ce que pouvait donner la nouvelle génération de 3D V-Cache avec les Ryzen 9000 X3D, et en particulier l’impressionnant 9800X3D, AMD revient cette fois à quelque chose de beaucoup plus raisonnable sur le papier : le Ryzen 5 7500X3D. Ce processeur 6 cœurs / 12 threads est le premier “petit” X3D pensé pour rendre le V-Cache plus accessible, avec 96 Mo de L3 pour doper les jeux sans passer par un 8 ou 16 cœurs. Affiché à un prix conseillé de 279 euros et annoncé avec un TDP de 65 W, il se retrouve face à des concurrents maison sérieux comme les Ryzen 5 9600X et Ryzen 7 7700, tous deux proposés autour de 210 euros.

CORSAIR Sabre V2 Pro Ultralight, poids plume !

12 novembre 2025 à 14:15
36 grammes, c’est ce que pèse la nouvelle souris de CORSAIR, la Sabre V2 Pro Ultralight. Orientée FPS, cette Sabre V2 ne pèse presque rien en main et ça fait la différence. La sensation en jeu est plus que réussie ! Néanmoins, cette souris n’a pas que son poids plume pour elle. Les switches mécaniques sont très bien implémentés pour un set de boutons agréable à utiliser. Le capteur Marksman S est performant, et un dongle 8 KHz est disponible dans un bundle généreux. Au bout du compte, ce poids extrêmement léger pourrait arriver avec deux inconvénients : une autonomie légère ainsi qu’une construction moins robuste, mais ce n’est pas le cas, CORSAIR a réussi son coup et l’autonomie annoncée est de 70 heures, et les finitions de la souris sont plus que respectables pour le poids ! Il s’agit aujourd’hui, chez les constructeurs mainstream, de la souris la plus légère du marché, et c’est appréciable de voir une marque comme CORSAIR se pencher sur une catégorie de produits aussi nichée ! Et pour le prix de 110 €, cette proposition nous semble plutôt bien positionnée vis‑à‑vis de ce qu’elle offre. Explorons ensemble les qualités et les défauts de cette Sabre V2 Pro Ultralight dans notre test.

Ayaneo Next II : la console PC de tous les superlatifs

12 novembre 2025 à 12:17

La Ayaneo Next II se dévoile petit à petit dans un teasing dont la marque a le secret mais qui commence totalement à me perdre. De plus en plus puissantes, de plus en plus imposantes mais également de plus en plus élitistes, les Consoles PC prennent un drôle de chemin. 

Ayaneo Next II

La « nouvelle » Ayaneo Next II a eu droit à de nouvelles annonces et des développements depuis juillet. Le but non avoué de cette diffusion d’informations est toujours le même. Tenir un public en haleine et surtout empêcher de se jeter dans les précommandes d’une autre marque qui joue le même jeu. GPD a en effet annoncé lui aussi une console PC Strix Halo avec la GPD Win 5. Points communs entre ces deux modèles ? Outre le matériel embarqué, des engins de moins en moins portables et des prix qui devraient s’envoler encore plus haut.

La Ayaneo Next II a eu droit à un énième redesign technique. Il faut dire que c’est un serpent de mer dans le monde de la console. Elle a été annoncée il y a plus de trois ans sous AMD Ryzen 6000 avant d’être basculée sous processeur Intel Alder Lake. La marque l’a ensuite reconduite dans l’écurie d’AMD avec une proposition sous Ryzen 7000 associée à un circuit graphique secondaire. Puis, à l’annonce des puces Strix Halo, la marque a fait savoir que sa console haut de gamme embarquera ces solutions.  Vous comprenez rapidement le problème de cette Console PC. Étant positionnée comme le porte-étendard de la marque, elle se doit d’être la plus puissante possible. Si une nouvelle puce plus puissante sort avant qu’elle ne soit finalisée, elle ne peut pas passer outre.

Les conséquences de cette recherche de la meilleure solution technique d’un point de vue performance sont énormes. La première est que toutes les considérations ergonomiques et d’usages autour de cette puissance brute passent au second plan. Ce qui est assez grave pour une console portable. Ainsi l’encombrement, le poids, l’autonomie, la chauffe, le bruit généré et le prix ne rentrent plus en ligne de compte. Les ornières de la performance guident les constructeurs sur un seul sillon, celui du nombre d’images par seconde sur tel ou tel jeu à la mode.

C’est à mon avis la pire façon de construire une machine puisque cela pose de nombreux problèmes pour l’utilisateur. Mais c’est surtout la meilleure manière de ringardiser ultra rapidement sa propre production. Que se passe-t-il lorsque la machine que l’on a assemblée pour être la plus rapide possible n’est plus la meilleure sur son segment ? Parce qu’une nouvelle puce est disponible six mois plus tard par exemple ? Tous ses défauts annexes sautent immédiatement aux yeux et l’engin n’a plus aucune valeur technique.

La Ayaneo Next II est un monstre

La Ayaneo Next II est un monstre

Avec son nouveau design, la Ayaneo Next II propose donc une nouvelle voie pour sa console. Les contrôles ont migré, les joysticks sont désormais de types TMR plus précis et réactifs. Les gâchettes sont analogiques et la croix directionnelle analyse 8 positions. On retrouve deux petits pavés tactiles de part et d’autre d’un affichage massif. L’écran devrait atteindre les 8.4 pouces de diagonale et la console mesurer plus de 32 cm de large et 14 cm de haut. Le tout pour un poids qui devrait friser le kilo. 

Ayaneo Next II

Ayaneo Next II

A l’intérieur de l’engin on devrait retrouver deux types de puces Strix Halo. D’abord un Ryzen AI Max 385 pour le modèle « entrée de gamme » et ensuite un Ryzen AI Max+ 395. Des puces qui seraient accompagnées de 32 à 128 Go de LPDDR5 et d’un montant indéfini de stockage mais probablement jusqu’à 4 To de SSD NVMe PCIE Gen4 x4. Des composants qui vont chauffer et demander une ventilation active importante. 

Si j’oublie les performances brutes de ma Ayaneo Next II, j’ai ici un engin lourd, vraiment lourd à bout de bras. Encombrant puisque 32 cm, c’est plus grand qu’une feuille de papier A4, il sera difficile de la balader et de la sortir facilement. Mais également une solution à la fois chaude et bruyante. Assez pour être désagréable pour les autres si n jour dans la même pièce qu’eux…

Aucune idée du prix de cette console, pas plus que d’une date de disponibilité réelle. Aux dernières nouvelles – et depuis 2023 – elle est censée sortir très prochainement. Aucun doute que cet ensemble de composants conduira à des tarifs hors normes. La version  « 395 » devrait largement dépasser les 2000$ HT en prix d’appel et grimper bien plus haut pour les modèles les plus haut de gamme.

Quel marché vise cette Ayaneo Next II ?

Je me demande bien qui va investir là-dedans. J’imagine que les influenceurs seront ravis de recevoir ce joujou sans concession mais je ne comprends pas vraiment le marché de ce type de console. Chères, très chères, avec une garantie limitée et compliquée à l’autre bout de la planète, une possibilité de casse importante du simple fait de leur côté mobile. Cela ne me parait pas être un investissement très réfléchi. Mais si on considère juste l’objet en tant que tel avec souvent une autonomie ridicule, parfois une batterie externe que l’on garde dans la poche au bout d’un câble… Et un poids fort désagréable, cela ne me parait pas être une excellente idée.

Enfin, pour un medium si spécifique que le jeu vidéo, que les studios imaginent dans une ambiance précise, le format me parait totalement bancal. Avoir une console comme la Ayaneo Next II, qui peut lancer des jeux Triple A dans de bonnes conditions, mais sur une diagonale ultracompacte avec de maigres enceintes stéréo n’est pas l’idéal. Outre le fait que le jeu en ligne sera compliqué face à des joueurs disposant d’un clavier et d’une souris, la qualité globale du jeu sera limitée par cette interface amoindrie. Je préfère vraiment découvrir un jeu de ce type sur un écran de portable ou de PC de bureau que sur un écran de console.

Steam Deck

J’ai parfois l’impression que les créateurs de ces consoles sont partis sur un chemin complètement à l’opposé des besoins du marché. Avec 2500€ de budget, je préfère réellement investir 2000€ dans un excellent portable garanti localement qui me permettra de jouer dans de meilleures conditions que ce que proposera ce type de console. Et si je considère le prix des versions les plus hauts de gamme, il me restera probablement de quoi acheter un Steam Deck bien moins puissant, mais capable de piloter des jeux vraiment adaptés au format console. Des jeux pas trop gourmands, jouables et fun. Que l’on peut lancer vite et abandonner ou mettre en pause tout aussi vite

Je comprends la problématique de ces marques, elles ne peuvent pas produire des tonnes de consoles comme le fait Valve avec ses Steam Deck. Là où Valve vise très large et se rattrape en plus avec son magasin de jeux, Ayaneo et GPD se doivent de dégager le maximum de rentabilité sur les ventes directes. Autant vendre peu de consoles au prix le plus élevé possible. Mais est-ce que ces machines correspondent réellement aux attentes du public ? Le steam Deck n’a pas promis la lune et n’a pas pris une ride. Les acheteurs de la première génération continuent de jouer avec confortablement. Je ne suis pas certain qu’une console super haut de gamme comme la Ayaneo Next II en 2026 sera capable d’être toujours aussi haut de gamme un an plus tard. Des jeux toujours plus gourmands ayant la fâcheuse habitude de sortir chaque année.

Steam Deck : l’avenir rafraichissant proposé par Valve

Ayaneo Next II : la console PC de tous les superlatifs © MiniMachines.net. 2025

L'après RDNA 4 chez AMD reste un mystère ! Pourquoi ?

Alors que a firme, une société quand même spécialisée dans le CPU qui constitue son cœur de métier, a dévoilé succinctement sa roadmap processeur, elle reste plus évasive sur ses projets GPU, et surtout ses GPU Gaming. Car en matière de GPU dédié IA, AMD a ses plans, avec les Radeon Instinct MIxxx,...

☕️ Meta va supprimer les boutons J’aime et Partager externes à ses plateformes

12 novembre 2025 à 10:47

Fin d’une ère, pour Facebook. Le 10 février 2026, deux de ses plugins externes, le bouton J’aime et le bouton Partager seront jetés aux oubliettes.

Lancés en 2010, ces deux outils avaient largement participé à alimenter les échanges sur Facebook, en simplifiant la promotion et le partage commenté d’articles et de liens divers.

D’après l’entreprise, cela dit, ces outils « représentent une époque antérieure du développement du web, et leur usage a décru naturellement à mesure que le paysage numérique évoluait ».

Pour pallier cet usage déclinant, Meta annonce donc qu’à compter du 10 février 2026, ces dispositifs seront transformés en un pixel 0x0, ce qui rendra les boutons invisibles sur les sites les utilisant, « sans créer de message d’erreur ni abîmer de fonctionnalité ».

S’il n’a pas été inventé par Facebook, le bouton J’aime a largement modifié notre rapport au web. Initialement ajouté sur des sites comme Yelp ou, donc, Facebook, pour motiver les internautes à produire du contenu et le partager, il a ensuite été détourné de cet usage initial pour se transformer en métrique des pratiques numériques à collecter, pour mieux vendre de la publicité.

La question du traitement des données personnelles était remontée jusqu’à la Cour de Justice de l’Union Européenne. En 2019, elle avait conclu que l’éditeur d’un site pouvait être responsable avec Facebook d’une partie des traitements de données personnelles orchestrés par le bouton « J’aime ». Celui-ci permettait à Facebook de récupérer des données même si l’internaute ne cliquait pas dessus ou n’était pas abonné.

Si l’outil extérieur aux plateformes de Meta disparaît, les emojis « j’aime », « j’adore » , « soutien » , « colère » (lancés en 2016) et autres restent bien présents à l’intérieur des réseaux sociaux de l’entreprise.

☕️ Meta va supprimer les boutons J’aime et Partager externes à ses plateformes

12 novembre 2025 à 10:47

Fin d’une ère, pour Facebook. Le 10 février 2026, deux de ses plugins externes, le bouton J’aime et le bouton Partager seront jetés aux oubliettes.

Lancés en 2010, ces deux outils avaient largement participé à alimenter les échanges sur Facebook, en simplifiant la promotion et le partage commenté d’articles et de liens divers.

D’après l’entreprise, cela dit, ces outils « représentent une époque antérieure du développement du web, et leur usage a décru naturellement à mesure que le paysage numérique évoluait ».

Pour pallier cet usage déclinant, Meta annonce donc qu’à compter du 10 février 2026, ces dispositifs seront transformés en un pixel 0x0, ce qui rendra les boutons invisibles sur les sites les utilisant, « sans créer de message d’erreur ni abîmer de fonctionnalité ».

S’il n’a pas été inventé par Facebook, le bouton J’aime a largement modifié notre rapport au web. Initialement ajouté sur des sites comme Yelp ou, donc, Facebook, pour motiver les internautes à produire du contenu et le partager, il a ensuite été détourné de cet usage initial pour se transformer en métrique des pratiques numériques à collecter, pour mieux vendre de la publicité.

La question du traitement des données personnelles était remontée jusqu’à la Cour de Justice de l’Union Européenne. En 2019, elle avait conclu que l’éditeur d’un site pouvait être responsable avec Facebook d’une partie des traitements de données personnelles orchestrés par le bouton « J’aime ». Celui-ci permettait à Facebook de récupérer des données même si l’internaute ne cliquait pas dessus ou n’était pas abonné.

Si l’outil extérieur aux plateformes de Meta disparaît, les emojis « j’aime », « j’adore » , « soutien » , « colère » (lancés en 2016) et autres restent bien présents à l’intérieur des réseaux sociaux de l’entreprise.

14 algorithmes de compression passés au crible : 4 000 résultats dans un tableau interactif

12 novembre 2025 à 10:17
rm -fr >> all pour ce qui est de la taille finale !
14 algorithmes de compression passés au crible : 4 000 résultats dans un tableau interactif

Le meilleur algorithme de compression n’est pas forcément le plus rapide et vice-versa. Le meilleur choix dépend généralement des usages, mais comment faire ce choix ? Next vous aide avec 14 algorithmes, 10 catégories de données et 3 niveaux de compression. Près de 4 000 résultats vous attendent, avec un classement interactif dont vous êtes le héros !

Il y a quelques jours, nous avons testé le nouvel algorithme de compression OpenZL de Meta. Un autre est sorti récemment, Turbosqueeze. Son créneau est la vitesse de traitement : « Turbosqueeze propose des compressions et décompressions très rapides, ce qui le rend idéal pour les charges de travail exigeantes, les fichiers volumineux et les systèmes en temps réel ».

Spoiler sur Turbosqueeze : il est en effet rapide, mais n’est pas systématiquement premier, loin de là. Niveau compression des données, par contre, il est toujours loin de la tête de course. Ses meilleurs résultats sont dans la catégorie CSV avec la vitesse la plus élevée et un niveau de compression semblable à lz4 et lzop.

Nous l’avons intégré à un comparatif plus large, aux côtés d’autres algorithmes, avec de la décompression cette fois-ci (comme certains le demandaient). Pour améliorer notre protocole et dépendre le moins possible du stockage, nous effectuons désormais l’ensemble des tests de compression et décompression dans un ramdisk. Il s’agit pour rappel d’un espace de stockage créé en mémoire vive, bien plus rapide que les HDD et les SSD.

Les algorithmes : OpenZL, Turbosqueeze, zstd, rar, rip, brotli, zopfli…

Nous avons tout d’abord effectué un fichier d’archive avec la commande TAR. Aucune compression ici, mais un mètre étalon. Du côté des algorithmes, OpenZL avec le profil serial qui s’adapte à tous les types de fichiers. Un coup de Turbosqueeze ensuite.

Viennent ensuite des algorithmes plus classiques : zstd, xz (attention, une porte dérobée a été détectée en 2024), gzip, bzip2, 7zip, zip, lz4, rar, brotli, pixz, lzop et zopfli. Lorsque plusieurs niveaux de compression sont disponibles, nous lançons plusieurs tests avec les niveaux 1, 5 et 9.

La quantité de données qui en résulte est relativement importante puisque, pour chaque type de données, nous avons une quarantaine de tests (plus d’une dizaine d’algorithmes avec pour la plupart trois niveaux de compression).

Ci-dessous les tableaux de seulement trois des dix catégories de fichiers testés. Comme toujours, nous vous proposons également l’intégralité des résultats dans une feuille de calcul avec toutes les données exploitables.

Un score final personnalisable selon vos besoins (débit, compression)


Il reste 75% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

AMD confirme Zen 6 pour 2026, et parle (rapidement) de Zen 7

AMD a dévoilé sa roadmap pour les années futures en ce qui concerne sa branche CPU. Alors que les Ryzen 7000 étaient lancés en septembre 2022, et que les Ryzen 9000 en août 2024, AMD confirme par sa roadmap l'arrivée des prochains Ryzen pour 2026. On ne les nomme pas parce qu'il y a fort à parier qu...

Sandisk Extreme Fit : un SSD USB Type-C réellement compact

12 novembre 2025 à 10:59

La solution Sandisk Extreme Fit reprend l’idée d’une micro clé USB mais la déploie vers une solution SSD. La promesse est de pouvoir profiter d’un stockage plus grand sans avoir besoin d’ouvrir son portable ou son MiniPC. La réalité pourrait toutefois êtes assez différente.

Sandisk Extreme Fit

Sandisk Extreme Fit

C’est amusant, car à quelques années de distance, le concept de cette Sandisk Extreme Fit existait déjà chez Sandisk. À l’apogée des netbooks, la marque avait bien compris que leurs limitations en stockage pouvaient être compensés par une extension USB. Et comme ces engins devaient rester ultracompacts, il n’était pas envisageable de leur proposer un stockage externe pendouillant au bout d’un câble USB.

La clé USB Sandisk Ultra Fit à 400 Mo/s est idéale pour les portables

La clé USB Sandisk Ultra Fit à 400 Mo/s est idéale pour les portables

La solution a alors été de proposer des micro-clés USB qui dépassaient à peine du port USB Type-A et pouvaient ainsi y rester en permanence. Chose amusante, à 43€ ces clés sont moins chères que la nouvelle solution de la marque tout en proposant les mêmes débits de 400 Mo/s théorique.

Le Sandisk Extreme Fit reprend le même scénario mais avec un format SSD et une connexion USB Type-C. Sur le papier l’idée est excellente, une légère protubérance permettra d’ajouter facilement des dizaines de Go à votre portable ou votre PC. Le petit SSD mesure 1.85 cm de large pour 1.37 cm de haut et 1.6 cm d’épaisseur. Il ne pèse que trois petits grammes. Il se connecte via un port USB 3.2 Gen1 Type-C et assurera des transferts allant jusqu’à 400 Mo/s pour une capacité maximale de 1 To.

Sandisk Extreme Fit

Sandisk Extreme Fit

La Sandisk Extreme Fit est un nouveau format mais pas forcément le plus avantageux

L’idée est donc bien de brancher l’appareil au bout de son portable et d’augmenter simplement son stockage. Ce qui est tout à fait envisageable si… Et seulement si. vous êtes très soigneux. Parce que l’objet, aussi compact soit-il, va envisager toutes les solutions à sa portée pour s’accrocher dedans. Vêtements, poignées de sacoche, fermeture Éclair et autres. Pour avoir eu pendant longtemps une clé USB de ce type à mes netbooks, je me souviens de l’énorme ténacité de ces accessoires. Leurs tentatives insensées pour essayer de se décrocher et le nombre de fois où je me suis retrouvé à jurer dans ma tête pour leur presque réussite.

Sandisk Extreme Fit

La clé Sandisk Extreme Fit a pour elle son connecteur USB Type-C et sa capacité de stockage. Mais elle a contre elle son format qui propose une empreinte largement plus impressionnante. Sa connectique Type-C reste bien moins solide que la Type-A et si vous avez le choix, préférez peut-être la solution moins chère et plus compacte. D’autant que la solution Ultra Fit dispose d’un espace où positionner une petite dragonne que vous pourrez rattacher ailleurs. C’est également l’idéal pour toutes les machines qui ne disposent pas d’autres connectiques qu’un USB Type-C.

Proposée à une soixantaine d’euros les 512 Go, la Sandisk Extreme Fit n’est pas horriblement chère. Ce qui est assez rassurant après l’annonce de la hausse des tarifs de la marque. La clé peut donc avoir un réel intérêt si vous avez un ordinateur limité en stockage et que vous ne pouvez pas l’ouvrir pour changer ses composants. C’est par ailleurs une solution de stockage très rapide qui tient littéralement dans le creux de votre main. Mais il faudra absolument veiller à la protéger en permanence et ne pas « l’oublier » comme c’est le cas pour les solutions USB Type-A.

La Sandisk Extreme Fit 512 Go à 61€ sur Amazon

La Sandisk Ultra Fit 512 Go à 43€ sur Amazon

Sandisk Extreme Fit : un SSD USB Type-C réellement compact © MiniMachines.net. 2025

☕️ Yann LeCun va quitter Meta en désaccord sur la stratégie de R&D de l’entreprise

12 novembre 2025 à 08:40

Douze ans après son arrivée au sein de ce qui s’appelait à l’époque Facebook, le chercheur français Yann LeCun s’apprête à quitter l’entreprise de Mark Zuckerberg, devenue depuis Meta.

Arrivé en 2013 pour créer et diriger le laboratoire de recherche et développement de l’entreprise Facebook Artificial Intelligence Research (FAIR), le chercheur a amené à Facebook puis Meta ses connaissances sur le deep learning dont il est l’un des pionniers. Ainsi, le FAIR a permis à Facebook d’être l’un des premiers réseaux sociaux à intégrer des systèmes d’intelligence artificielle, notamment pour la reconnaissance faciale.

Mais la récente reprise en main des recrutements sur l’IA par Mark Zuckerberg semble avoir donné une direction que le Français ne veut pas suivre. En effet, depuis cet été le CEO de Meta a redirigé toutes les forces de R&D dans la création d’un laboratoire dédié à la « superintelligence » en s’appuyant sur les modèles génératifs dérivés des LLM. Il a débauché des spécialistes chez Apple, Anthropic, OpenAI ou Scale AI et misé sur Alexandr Wang pour la direction de la R&D. Mark Zuckerberg veut pousser ses chercheurs à creuser cette voie et sortir plus de modèles qui doivent alimenter en IA plus rapidement les produits de Meta.

Ce choix, selon le Financial Times, aurait poussé Yann LeCun à quitter l’entreprise en vue de fonder sa propre startup. En effet, s’il soutient que les LLM sont « utiles », il pense qu’ils ne seront jamais capables ni de raisonner ni de planifier comme les humains. Il pousse donc, au sein du laboratoire de Meta, le travail sur ce que les chercheurs en IA appellent les « world models », des modèles capables de conceptualiser un monde, comme l’ont proposé en 2018 les chercheurs David Ha et Jürgen Schmidhuber. Ceci permettrait d’intégrer de véritables robots dans le monde réel.

Ainsi, Meta a travaillé sur plusieurs séries d’architectures : JEPA, V-JEPA, DINO-WM et PLDM. Mais ceux-ci en sont encore aux débuts de la recherche sur le sujet et subissent des critiques. Par exemple, tout en admettant que V-JEPA 2 « marque une avancée » sur des tâches de manipulation de bras robotiques, des chercheurs doutent de ses capacités sur « des tâches plus diverses (par exemple, préparer le petit-déjeuner) ou adaptées à des environnements plus complexes avec des dépendances à long terme (par exemple, l’alpinisme) ».

Le chercheur français semble vouloir continuer dans cette voie en montant sa propre startup.

☕️ Yann LeCun va quitter Meta en désaccord sur la stratégie de R&D de l’entreprise

12 novembre 2025 à 08:40

Douze ans après son arrivée au sein de ce qui s’appelait à l’époque Facebook, le chercheur français Yann LeCun s’apprête à quitter l’entreprise de Mark Zuckerberg, devenue depuis Meta.

Arrivé en 2013 pour créer et diriger le laboratoire de recherche et développement de l’entreprise Facebook Artificial Intelligence Research (FAIR), le chercheur a amené à Facebook puis Meta ses connaissances sur le deep learning dont il est l’un des pionniers. Ainsi, le FAIR a permis à Facebook d’être l’un des premiers réseaux sociaux à intégrer des systèmes d’intelligence artificielle, notamment pour la reconnaissance faciale.

Mais la récente reprise en main des recrutements sur l’IA par Mark Zuckerberg semble avoir donné une direction que le Français ne veut pas suivre. En effet, depuis cet été le CEO de Meta a redirigé toutes les forces de R&D dans la création d’un laboratoire dédié à la « superintelligence » en s’appuyant sur les modèles génératifs dérivés des LLM. Il a débauché des spécialistes chez Apple, Anthropic, OpenAI ou Scale AI et misé sur Alexandr Wang pour la direction de la R&D. Mark Zuckerberg veut pousser ses chercheurs à creuser cette voie et sortir plus de modèles qui doivent alimenter en IA plus rapidement les produits de Meta.

Ce choix, selon le Financial Times, aurait poussé Yann LeCun à quitter l’entreprise en vue de fonder sa propre startup. En effet, s’il soutient que les LLM sont « utiles », il pense qu’ils ne seront jamais capables ni de raisonner ni de planifier comme les humains. Il pousse donc, au sein du laboratoire de Meta, le travail sur ce que les chercheurs en IA appellent les « world models », des modèles capables de conceptualiser un monde, comme l’ont proposé en 2018 les chercheurs David Ha et Jürgen Schmidhuber. Ceci permettrait d’intégrer de véritables robots dans le monde réel.

Ainsi, Meta a travaillé sur plusieurs séries d’architectures : JEPA, V-JEPA, DINO-WM et PLDM. Mais ceux-ci en sont encore aux débuts de la recherche sur le sujet et subissent des critiques. Par exemple, tout en admettant que V-JEPA 2 « marque une avancée » sur des tâches de manipulation de bras robotiques, des chercheurs doutent de ses capacités sur « des tâches plus diverses (par exemple, préparer le petit-déjeuner) ou adaptées à des environnements plus complexes avec des dépendances à long terme (par exemple, l’alpinisme) ».

Le chercheur français semble vouloir continuer dans cette voie en montant sa propre startup.

❌