Обсуждение:Алгоритм Баума–Велча

Предположение

Можно ли использовать на этой странице пример Template:HMM? (Разумеется, нам, возможно, придется немного изменить его, чтобы сделать более общим) -- Kowey 14:16, 14 ноября 2004 (UTC)

Обсуждение содержания

Существует документ, написанный Уэлчем в IEEE Information Theory Society Newslectter, декабрь 2003 г. См. http://www.itsoc.org/publications/nltr/it_dec_03final.pdf

Я внимательно изучил описание и тоже считаю, что оно неверно.

Имеем: gamma_t(i): вероятность того, что HMM находится в состоянии s_i в момент времени t, учитывая наблюдения O и параметры Lambda. (1)

gamma_t(i)=P(s_i=q_t | O, Лямбда) (2)

гамма_t(i)=альфа_t(i)*бета_t(i)

 -------------------- (3) P(O|Лямбда)

(3) — это вероятность вперед-назад состояния s_t(i), вероятность того, что человек находится в состоянии s_i в момент времени t. Такова роль алгоритма вперед-назад в BW.

Теперь давайте рассмотрим вероятность прохождения ПЕРЕХОДА от s_i в момент времени t к s_j в момент времени t+1. Назовем это "chi'

Chi(i,j) — вероятность нахождения в состоянии s_i в момент времени t и нахождения в состоянии s_j в момент времени t+1 с учетом наблюдений и параметров. (4)

Хи(i,j)=P(s_i=q_t, s_j=q_t+1 | O, Лямбда) (5)

Хи(i,j)=альфа_t(i)a_i_jb_j(ot+1)*бета_t+1(j)

 -------------------- P(O|Лямбда) (6)
 Т-1

SIGMA Chi(i,j) — ожидаемое число

 т=1 переходы от s_i к s_j


 Т-1

SIGMA gamma_t(i) — ожидаемое число

 т=1 переходы из s_i


 Т-1 СИГМА Хи(i,j) т=1

Обновлено a_i_j =------------------------

 Т-1 СИГМА гамма_t_(i) т=1

Это последний шаг, который я не понимаю. Конечно, перечислитель не является константой, как утверждается в текущей статье, и не равен вероятности всей строки. Я не могу понять, почему обновленное значение a_i_j больше старого.

Ссылки

Каттинг, Д. и Купец, Дж., Педерсен и П. Сибун «Практический теггер частей речи», Исследовательский центр Xerox в Пало-Альто.

Чэнсян Чжай, Краткая заметка о скрытых марковских моделях, конспект лекций, кафедра вычислительной техники, Иллинойсский университет в Урбане-Шампейне.

tp://ocw.mit.edu/NR/rdonlyres/Electrical-Engineering-and-Computer-Science/6-345Automatic-Speech-RecognitionSpring2003/4C063D4A-3B8B-4F05-B475-85AAD0D66586/0/lecture10.pdf

Коос ван дер Вилт Коос ван дер Вилт 00:52, 13 мая 2007 г. (UTC) [ ответить ]

Вы обсуждали статью или презентацию Уэлча? Что вы считаете неправильным? Я думаю, последнее, пожалуйста, подтвердите. Я не читал ваш вклад, но я помню несколько головных болей, когда пытался понять этот алгоритм в Pattern Classification (2ed) Ричарда Дуды и др. ( ISBN  0 471 05669 3 ); я был убежден, что описание неверное, и я помню, что я думал, что это трудно исправить.

-- Blaisorblade ( обсуждение ) 03:09, 24 июня 2008 (UTC) [ ответить ]

Путаница в отношении алгоритма «вперед-назад»

Я думаю, что ссылка сбивает с толку. Текущий текст алгоритма вперед-назад, похоже, описывает другой алгоритм, который использует прямой и обратный проход, но объединяет их для других целей (по крайней мере, мне так кажется). Алгоритм Баума-Велча также делает такой прямой и обратный проход, поэтому его называют алгоритмом вперед-назад где-то (например, в Pattern Classification (2ed) Ричарда Дуды и др. ( ISBN 0 471 05669 3 )). -- Blaisorblade ( обсуждение ) 03:09, 24 июня 2008 (UTC) [ ответ ] 

http://bits.wikimedia.org/skins-1.5/common/images/button_math.pnghttp://bits.wikimedia.org/skins-1.5/common/images/button_media.png — Предыдущий неподписанный комментарий, добавленный 210.83.214.164 (обсуждение) 03:22, 25 февраля 2010 (UTC) [ ответить ]

Неоднозначные индексы

В формуле для переменных эпсилон i и j являются свободными индексами и используются для суммирования. 2001:6B0:1:1DF0:C185:CDB5:7AF7:29BA (обсуждение) 17:58, 19 октября 2013 (UTC) [ ответить ]

Запутанный пример курицы и яйца

Есть одна курица, и мы наблюдаем, несет она яйца или нет в день. Почему тогда наблюдения такие как NN, NE, EE, EN, то есть почему есть два наблюдения каждый день? Я не понимаю. HenningThielemann ( talk ) 17:33, 25 января 2015 (UTC) [ ответить ]

 В ответ на HenningThielman: Я предполагаю, прочитав статью, что перечисленные «наблюдения» должны представлять наблюдаемые переходы (пары последовательных дней). То есть наблюдения перечислены как NN, NN, NN, NN, NE, EE, EN, NN, NN, что согласуется с фактической последовательностью событий как NNNNEENNN. Это может быть понятнее, я внесу правку. — Предыдущий неподписанный комментарий добавлен 49.184.214.178 ( обсуждение ) 05:24, 9 января 2019 (UTC) [ ответить ] 

Расчет вероятности в течение всего дня возбуждает аппетит, поэтому на ужин жарят курицу. (Вероятность снесения яйца падает до нуля.)

Конвергенция?

Описание заканчивается словами «Эти шаги теперь повторяются итеративно до достижения желаемого уровня сходимости». Какие шаги? Хотя было бы неплохо указать, как измеряется/определяется сходимость, я пока оставлю это в стороне. Разве алгоритм не предназначен для оценки при T=1, затем T=2, T=3 и так далее, пока не будет достигнут желаемый уровень сходимости? Если это правда, текст должен это отражать (в настоящее время это не так, поскольку «шаги» не связаны с T). Urhixidur ( обсуждение ) 15:54, 24 октября 2017 (UTC) [ ответ ]

Еще одна вещь, которая, к сожалению, отсутствует в статье, — это мера пригодности любого данного решения. Обучение HMM на различных наборах данных (одного и того же явления) с теми же параметрами (количеством скрытых состояний, в основном), как выбрать «лучший»? Urhixidur ( talk ) 17:34, 24 октября 2017 (UTC) [ ответить ]

Репродукция

Я написал следующий код для воспроизведения чисел, показанных в примере.

! pip  install  hmmlearn import  numpy  as  np from  hmmlearn  import  hmm np . random . seed ( 42 ) model  =  hmm . Multinomial HMM ( n_components = 2 ,  n_iter = 100 ) model . startprob_  =  np . array ( [ 0.2 ,  0.8 ]) model . transmat_  =  np . array ( [ [ 0.5 ,  0.5 ],  [ 0.3 ,  0.7 ]]) model . emissionprob_  =  np . array ( [ [ 0.3 ,  0.7 ],  [ 0.8 ,  0.2 ]]) model . sample ( 100 ) model . подходит ([[ 0 , 0 , 0 , 0 , 0 , 1 , 1 , 0 , 0 , 0 ]])

Chrism2671 (обсуждение) 16:57, 11 апреля 2022 (UTC) [ ответить ]

Retrieved from "https://en.wikipedia.org/w/index.php?title=Talk:Baum–Welch_algorithm&oldid=1195706608"