Хороший алгоритм сжатия небольших фрагментов данных? (размером около 2 КБ)

У меня есть система с одной машиной, которая генерирует небольшие фрагменты данных в форме объектов, содержащих массивы целых и длинных чисел. Эти фрагменты передаются другому серверу, который, в свою очередь, распределяет их в другом месте.

Я хочу сжать эти объекты, чтобы уменьшить нагрузку на память на промежуточном сервере. Я понимаю, что алгоритмы сжатия, такие как deflate, должны создавать словарь, поэтому что-то подобное не будет работать с такими маленькими данными.

Существуют ли какие-либо алгоритмы, которые могли бы эффективно сжимать такие данные?

Если нет, я мог бы сделать еще одно - объединить эти фрагменты в массивы объектов и сжать массив, как только он достигнет определенного размера. Но я не хочу этого делать , потому что мне пришлось бы изменить интерфейсы в существующей системе. Сжатие их по отдельности не потребует каких-либо изменений интерфейса, как это все настроено.

Я не думаю, что это важно, но целевая система - Java.

Правка: Гамма-кодирование Элиаса будет лучшим в этой ситуации?

Спасибо

6
задан marathon 29 September 2011 в 17:01
поделиться