Эта статья имеет рейтинг C-класса по шкале оценки контента Википедии . Она представляет интерес для следующих WikiProjects : | ||||||||||||||||||||||||||||||||||||||||||||
|
Можно ли использовать на этой странице пример Template:HMM? (Разумеется, нам, возможно, придется немного изменить его, чтобы сделать более общим) -- Kowey 14:16, 14 ноября 2004 (UTC)
Существует документ, написанный Уэлчем в IEEE Information Theory Society Newslectter, декабрь 2003 г. См. http://www.itsoc.org/publications/nltr/it_dec_03final.pdf
Я внимательно изучил описание и тоже считаю, что оно неверно.
Имеем: gamma_t(i): вероятность того, что HMM находится в состоянии s_i в момент времени t, учитывая наблюдения O и параметры Lambda. (1)
gamma_t(i)=P(s_i=q_t | O, Лямбда) (2)
гамма_t(i)=альфа_t(i)*бета_t(i)
-------------------- (3) P(O|Лямбда)
(3) — это вероятность вперед-назад состояния s_t(i), вероятность того, что человек находится в состоянии s_i в момент времени t. Такова роль алгоритма вперед-назад в BW.
Теперь давайте рассмотрим вероятность прохождения ПЕРЕХОДА от s_i в момент времени t к s_j в момент времени t+1. Назовем это "chi'
Chi(i,j) — вероятность нахождения в состоянии s_i в момент времени t и нахождения в состоянии s_j в момент времени t+1 с учетом наблюдений и параметров. (4)
Хи(i,j)=P(s_i=q_t, s_j=q_t+1 | O, Лямбда) (5)
Хи(i,j)=альфа_t(i)a_i_jb_j(ot+1)*бета_t+1(j)
-------------------- P(O|Лямбда) (6)
Т-1
SIGMA Chi(i,j) — ожидаемое число
т=1 переходы от s_i к s_j
Т-1
SIGMA gamma_t(i) — ожидаемое число
т=1 переходы из s_i
Т-1 СИГМА Хи(i,j) т=1
Обновлено a_i_j =------------------------
Т-1 СИГМА гамма_t_(i) т=1
Это последний шаг, который я не понимаю. Конечно, перечислитель не является константой, как утверждается в текущей статье, и не равен вероятности всей строки. Я не могу понять, почему обновленное значение a_i_j больше старого.
Ссылки
Каттинг, Д. и Купец, Дж., Педерсен и П. Сибун «Практический теггер частей речи», Исследовательский центр Xerox в Пало-Альто.
Чэнсян Чжай, Краткая заметка о скрытых марковских моделях, конспект лекций, кафедра вычислительной техники, Иллинойсский университет в Урбане-Шампейне.
tp://ocw.mit.edu/NR/rdonlyres/Electrical-Engineering-and-Computer-Science/6-345Automatic-Speech-RecognitionSpring2003/4C063D4A-3B8B-4F05-B475-85AAD0D66586/0/lecture10.pdf
Коос ван дер Вилт Коос ван дер Вилт 00:52, 13 мая 2007 г. (UTC)
-- Blaisorblade ( обсуждение ) 03:09, 24 июня 2008 (UTC)
Я думаю, что ссылка сбивает с толку. Текущий текст алгоритма вперед-назад, похоже, описывает другой алгоритм, который использует прямой и обратный проход, но объединяет их для других целей (по крайней мере, мне так кажется). Алгоритм Баума-Велча также делает такой прямой и обратный проход, поэтому его называют алгоритмом вперед-назад где-то (например, в Pattern Classification (2ed) Ричарда Дуды и др. ( ISBN 0 471 05669 3 )). -- Blaisorblade ( обсуждение ) 03:09, 24 июня 2008 (UTC)
http://bits.wikimedia.org/skins-1.5/common/images/button_math.pnghttp://bits.wikimedia.org/skins-1.5/common/images/button_media.png — Предыдущий неподписанный комментарий, добавленный 210.83.214.164 (обсуждение) 03:22, 25 февраля 2010 (UTC)
В формуле для переменных эпсилон i и j являются свободными индексами и используются для суммирования. 2001:6B0:1:1DF0:C185:CDB5:7AF7:29BA (обсуждение) 17:58, 19 октября 2013 (UTC)
Есть одна курица, и мы наблюдаем, несет она яйца или нет в день. Почему тогда наблюдения такие как NN, NE, EE, EN, то есть почему есть два наблюдения каждый день? Я не понимаю. HenningThielemann ( talk ) 17:33, 25 января 2015 (UTC)
В ответ на HenningThielman: Я предполагаю, прочитав статью, что перечисленные «наблюдения» должны представлять наблюдаемые переходы (пары последовательных дней). То есть наблюдения перечислены как NN, NN, NN, NN, NE, EE, EN, NN, NN, что согласуется с фактической последовательностью событий как NNNNEENNN. Это может быть понятнее, я внесу правку. — Предыдущий неподписанный комментарий добавлен 49.184.214.178 ( обсуждение ) 05:24, 9 января 2019 (UTC)
Расчет вероятности в течение всего дня возбуждает аппетит, поэтому на ужин жарят курицу. (Вероятность снесения яйца падает до нуля.)
Описание заканчивается словами «Эти шаги теперь повторяются итеративно до достижения желаемого уровня сходимости». Какие шаги? Хотя было бы неплохо указать, как измеряется/определяется сходимость, я пока оставлю это в стороне. Разве алгоритм не предназначен для оценки при T=1, затем T=2, T=3 и так далее, пока не будет достигнут желаемый уровень сходимости? Если это правда, текст должен это отражать (в настоящее время это не так, поскольку «шаги» не связаны с T). Urhixidur ( обсуждение ) 15:54, 24 октября 2017 (UTC)
Еще одна вещь, которая, к сожалению, отсутствует в статье, — это мера пригодности любого данного решения. Обучение HMM на различных наборах данных (одного и того же явления) с теми же параметрами (количеством скрытых состояний, в основном), как выбрать «лучший»? Urhixidur ( talk ) 17:34, 24 октября 2017 (UTC)
Я написал следующий код для воспроизведения чисел, показанных в примере.
! pip install hmmlearn import numpy as np from hmmlearn import hmm np . random . seed ( 42 ) model = hmm . Multinomial HMM ( n_components = 2 , n_iter = 100 ) model . startprob_ = np . array ( [ 0.2 , 0.8 ]) model . transmat_ = np . array ( [ [ 0.5 , 0.5 ], [ 0.3 , 0.7 ]]) model . emissionprob_ = np . array ( [ [ 0.3 , 0.7 ], [ 0.8 , 0.2 ]]) model . sample ( 100 ) model . подходит ([[ 0 , 0 , 0 , 0 , 0 , 1 , 1 , 0 , 0 , 0 ]])
Chrism2671 (обсуждение) 16:57, 11 апреля 2022 (UTC)