OpenZL : Meta publie un nouveau modèle de compression en open source - Next
La pré-compression des données avec des algos spécialisés adaptés aux données c'est pas déconnant.
C'est déjà ce que fait (un peu) 7-Zip et (beaucoup plus) zpaq. Typiquement ils font une passe RLE ou utilisent des algos spécifiques sur certains types de données (exemple: BCJ appliqué sur les exécutables (.exe/elf)) avant de compresser avec des algos plus génériques (lz, lzma...).
(zpaq va même encore plus loin avec de la déduplication avant la phase de compression.)
Là, la différence avec OpenZL est qu'il faut paramétrer le compresseur en fonction de la structure des données en entrée, ou alors laisser son algo analyser la structure des données pour choisir la meilleure structure.
Le décompresseur reste générique, ce qui simplifie la décompression.
(Permalink)
C'est déjà ce que fait (un peu) 7-Zip et (beaucoup plus) zpaq. Typiquement ils font une passe RLE ou utilisent des algos spécifiques sur certains types de données (exemple: BCJ appliqué sur les exécutables (.exe/elf)) avant de compresser avec des algos plus génériques (lz, lzma...).
(zpaq va même encore plus loin avec de la déduplication avant la phase de compression.)
Là, la différence avec OpenZL est qu'il faut paramétrer le compresseur en fonction de la structure des données en entrée, ou alors laisser son algo analyser la structure des données pour choisir la meilleure structure.
Le décompresseur reste générique, ce qui simplifie la décompression.
(Permalink)