Каково различие между алгоритмом "прямого-обратного" хода на n-граммной модели и алгоритмом Витерби на скрытой марковской модели (HMM)?
Когда я рассматриваю реализацию этих двух алгоритмов, только вещь, которую я нашел, состоит в том, что вероятность транзакции прибывает из различных вероятностных моделей.
Существует ли различие между этими 2 алгоритмами?
Алгоритм Вперед-Назад объединяет шаг вперед и шаг назад, чтобы получить вероятность нахождения в каждом состоянии в определенное время. Таким образом, выполнение этого для всех временных шагов может дать нам последовательность индивидуально наиболее вероятных состояний в каждый момент времени (хотя не гарантируется, что это действительная последовательность, поскольку она учитывает индивидуальное состояние на каждом шаге, и может случиться так, что вероятность p ( q_i -> q_j) = 0
в модели перехода), другими словами:
, где
С другой стороны, алгоритм Витерби находит наиболее вероятную последовательность состояний с учетом последовательности наблюдения, Скрытые марковские модели и избранные Приложения в распознавании речи