R
R
Roman Mirilaczvili2016-08-25 10:44:24
CMS
Roman Mirilaczvili, 2016-08-25 10:44:24

What kinds of compression algorithms can compress even poorly compressible data without increasing the final size?

Interested for the purposes of archiving data: what algorithms are able to compress heterogeneous data, but without increasing the size relative to the original (0% < x <= 100%).
For example, in ZIP format, you can specify which compression algorithm was used: store (100% original), Deflate, ...
Допустим, сжимать, если данные хоть немного сжимаемы. А если данные вообще не сжимаемы (полностью случайные данные), то сохранить всё как есть.

Answer the question

In order to leave comments, you need to log in

2 answer(s)
A
Andrew, 2016-08-25
@2ord

1) Вы смешиваете алгоритмы сжатия, форматы данных и программы сжатия (архиваторы). Определитесь, что именно из этих 3 Вас интересует.
2) Теоретически почти любая программа сжатия, определив, что данные после сжатия занимают место больше, чем в оригинале, заменит алгоритм на STORING.
НО у Вас все равно появятся накладные расходы в виде заголовка этого формата. Более того, в теории этот заголовок не может быть меньше 1 бита, т.к. информацию о том, применялся ли алгоритм сжатия или нет, необходимо как-то донести до приемной (распаковывающей) стороны, если только Вы не будете использовать для этого out-of-band-data, например, изменять/сохранять исходное расширение файла в зависимости от использованного метода/формата.

Василий, 2016-08-25
@Foolleren

попробуйте freearc, умеет искать повторы в диапазоне ажно 2 гб, можно "бустануть" внешними архиваторами, для улучшения сжатия отдельных типов файлов

Didn't find what you were looking for?

Ask your question

Ask a Question

731 491 924 answers to any question