Answer the question
In order to leave comments, you need to log in
What kinds of compression algorithms can compress even poorly compressible data without increasing the final size?
Interested for the purposes of archiving data: what algorithms are able to compress heterogeneous data, but without increasing the size relative to the original (0% < x <= 100%).
For example, in ZIP format, you can specify which compression algorithm was used: store (100% original), Deflate, ...
Допустим, сжимать, если данные хоть немного сжимаемы. А если данные вообще не сжимаемы (полностью случайные данные), то сохранить всё как есть.
Answer the question
In order to leave comments, you need to log in
1) Вы смешиваете алгоритмы сжатия, форматы данных и программы сжатия (архиваторы). Определитесь, что именно из этих 3 Вас интересует.
2) Теоретически почти любая программа сжатия, определив, что данные после сжатия занимают место больше, чем в оригинале, заменит алгоритм на STORING.
НО у Вас все равно появятся накладные расходы в виде заголовка этого формата. Более того, в теории этот заголовок не может быть меньше 1 бита, т.к. информацию о том, применялся ли алгоритм сжатия или нет, необходимо как-то донести до приемной (распаковывающей) стороны, если только Вы не будете использовать для этого out-of-band-data, например, изменять/сохранять исходное расширение файла в зависимости от использованного метода/формата.
Didn't find what you were looking for?
Ask your questionAsk a Question
731 491 924 answers to any question