Действительно ли возможно достигнуть Huffman, декодирующего в GPU?

Нам закодировали базу данных Кодированием методом Хаффмана. Цель здесь состоит в том, чтобы скопировать на GPU его со своим связанным декодером; затем на GPU, decod база данных и действительно наполняют на этой декодируемой базе данных, не копируя назад его на ЦП.

Я далек, чтобы быть специалистом Huffman, но некоторые, я знаю шоу, что это, кажется, алгоритм по существу на основе управляющих структур. С основным алгоритмом я боюсь, что будет много сериализированных операций.

Мои 2 вопроса:

  • Вы знаете, существует ли там какая-либо эффективная версия GPU для Кодирования методом Хаффмана
  • в противном случае сделайте Вы думаете, там существует алгоритм Huffman, который быть адаптирован на GPU (т.е. с меньшим количеством управляющих структур). Или возможно Вы знаете (и Вы могли обеспечить ссылку), что эффективный Huffman, декодирующий, не может быть эффективным на GPU.

Я вижу другие ограничения, но они не очень важны: - GPU не мог быть очень эффективным для обработки дерева: двоичное дерево может быть сохранено в классическом массиве - рабочую нагрузку могло быть трудно сбалансировать: мы будем присматривать

12
задан Jérôme 10 June 2010 в 10:05
поделиться

1 ответ

Проблема с кодированием Хаффмана заключается в том, что вы не можете перемотать вперед. то есть: вы должны декодировать бит за битом, линейно.

Как таковой, он не идеален для параллелизма.

Если вы можете выбрать кодировку, вы можете идеально кодировать фрагмент за фрагментом, чтобы иметь возможность декодировать каждый фрагмент независимо.

5
ответ дан 2 December 2019 в 22:51
поделиться
Другие вопросы по тегам:

Похожие вопросы: