В статье приведены примеры действия цепей Маркова и марковских процессов.
Все примеры находятся в счетном пространстве состояний . Для обзора цепей Маркова в общем пространстве состояний см. Цепи Маркова в измеримом пространстве состояний .
Игра в змеи и лестницы или любая другая игра, ходы которой определяются исключительно костями, является цепью Маркова, действительно поглощающей цепью Маркова . Это контрастирует с карточными играми, такими как блэкджек , где карты представляют собой «память» прошлых ходов. Чтобы увидеть разницу, рассмотрим вероятность определенного события в игре. В вышеупомянутых играх в кости единственное, что имеет значение, — это текущее состояние доски. Следующее состояние доски зависит от текущего состояния и следующего броска костей. Оно не зависит от того, как все пришло в свое текущее состояние. В такой игре, как блэкджек, игрок может получить преимущество, вспомнив, какие карты уже были показаны (и, следовательно, каких карт больше нет в колоде), поэтому следующее состояние (или рука) игры не является независимым от прошлых состояний.
Рассмотрим случайное блуждание по числовой прямой, где на каждом шаге позиция (назовем ее x ) может измениться на +1 (вправо) или −1 (влево) с вероятностями:
(где c — константа больше 0)
Например, если константа c равна 1, вероятности перемещения влево в позициях x = −2,−1,0,1,2 определяются соответственно. Случайное блуждание имеет эффект центрирования, который ослабевает с увеличением c .
Поскольку вероятности зависят только от текущего положения (значения x ), а не от каких-либо предыдущих положений, это смещенное случайное блуждание удовлетворяет определению цепи Маркова.
Предположим, что кто-то начинает с $10 и ставит $1 на бесконечное, честное, подбрасывание монеты до бесконечности или до тех пор, пока все деньги не будут проиграны. Если представляет собой количество долларов, которые у него есть после n подбрасываний, причем , то последовательность является марковским процессом. Если кто-то знает, что у него сейчас $12, то можно ожидать, что при равных шансах у него будет либо $11, либо $13 после следующего подбрасывания. Это предположение не улучшается дополнительным знанием о том, что человек начал с $10, затем поднялся до $11, снизился до $10, поднялся до $11, а затем до $12. Тот факт, что предположение не улучшается знанием более ранних подбрасываний, демонстрирует свойство Маркова , свойство без памяти стохастического процесса. [1]
Этот пример взят у самого Маркова. [2] Марков выбрал 20 000 букв из «Евгения Онегина» Пушкина , классифицировал их на гласные и согласные и подсчитал вероятности перехода. Стационарное распределение составляет 43,2 процента гласных и 56,8 процента согласных, что близко к фактическому количеству в книге. [3]
Вероятности погодных условий (моделируемых как дождливые или солнечные) с учетом погоды предыдущего дня можно представить с помощью матрицы перехода : [4]
Матрица P представляет собой погодную модель, в которой за солнечным днем с вероятностью 90% последует еще один солнечный день, а за дождливым днем с вероятностью 50% последует еще один дождливый день. [4] Столбцы можно обозначить как «солнечно» и «дождливо», а строки можно обозначить в том же порядке.
( P ) ij — вероятность того, что если данный день относится к типу i , то за ним последует день типа j .
Обратите внимание, что сумма строк матрицы P равна 1: это потому, что P — стохастическая матрица . [4]
Известно, что погода в день 0 (сегодня) солнечная. Это представлено начальным вектором состояния, в котором запись «солнечно» составляет 100%, а запись «дождливо» составляет 0%:
Погоду на первый день (завтра) можно предсказать, умножив вектор состояния из нулевого дня на матрицу перехода:
Таким образом, вероятность того, что первый день также будет солнечным, составляет 90%.
Погоду на второй день (послезавтра) можно предсказать таким же образом, используя вектор состояния, который мы вычислили для первого дня:
или
Общие правила для дня n :
В этом примере прогнозы погоды на более отдаленные дни меняются все меньше и меньше с каждым последующим днем и стремятся к вектору устойчивого состояния. [5] Этот вектор представляет вероятности солнечной и дождливой погоды во все дни и не зависит от начальной погоды. [5]
Вектор устойчивого состояния определяется как:
но сходится к строго положительному вектору только в том случае, если P является регулярной матрицей перехода (то есть существует по крайней мере одна P n со всеми ненулевыми элементами).
Поскольку q не зависит от начальных условий, он должен оставаться неизменным при преобразовании P. [ 5] Это делает его собственным вектором (с собственным значением 1) и означает , что его можно вывести из P. [5]
Проще говоря, стационарный вектор — это вектор, который при умножении на P возвращает нам тот же самый вектор. [6] Для примера с погодой мы можем использовать это для составления матричное уравнение:
и поскольку они являются вектором вероятности, мы знаем, что
Решение этой пары одновременных уравнений дает вектор стационарного состояния:
В заключение, в долгосрочной перспективе около 83,3% дней солнечные. Не все марковские процессы имеют стационарный вектор состояния. В частности, матрица перехода должна быть регулярной . В противном случае векторы состояния будут колебаться с течением времени, не сходясь.
Диаграмма состояний для простого примера показана на рисунке справа, с использованием направленного графа для изображения переходов состояний . Состояния представляют, демонстрирует ли гипотетический фондовый рынок бычий рынок , медвежий рынок или застойный рыночный тренд в течение данной недели. Согласно рисунку, за бычьей неделей следует еще одна бычья неделя в 90% случаев, за медвежьей неделей в 7,5% случаев и застойная неделя в оставшиеся 2,5% случаев. Обозначая пространство состояний {1 = бык, 2 = медведь, 3 = застой}, матрица перехода для этого примера выглядит следующим образом:
Распределение по состояниям можно записать как стохастический вектор-строку x с отношением x ( n + 1) = x ( n ) P . Таким образом, если в момент времени n система находится в состоянии x ( n ) , то через три периода времени, в момент времени n + 3, распределение будет
В частности, если в момент времени n система находится в состоянии 2 (медведь), то в момент времени n + 3 распределение будет
Используя матрицу перехода, можно рассчитать, например, долгосрочную долю недель, в течение которых рынок находится в состоянии стагнации, или среднее количество недель, которое потребуется, чтобы перейти от стагнации к бычьему рынку. Используя вероятности перехода, вероятности устойчивого состояния указывают, что 62,5% недель будут на бычьем рынке, 31,25% недель будут на медвежьем рынке и 6,25% недель будут в состоянии стагнации, поскольку:
Подробную разработку и множество примеров можно найти в онлайн-монографии Meyn & Tweedie 2005. [7]
Конечный автомат может быть использован в качестве представления цепи Маркова. Предполагая последовательность независимых и одинаково распределенных входных сигналов (например, символы из двоичного алфавита, выбранные путем подбрасывания монеты), если автомат находится в состоянии y в момент времени n , то вероятность того, что он перейдет в состояние x в момент времени n + 1, зависит только от текущего состояния.
Если кто-то поджигает сто зерен попкорна в духовке, причем каждое зернышко поджигается в независимый экспоненциально распределенный момент времени, то это будет непрерывный во времени марковский процесс . Если обозначает количество зерен, поджигаемых до момента времени t , то задачу можно определить как нахождение количества зерен, поджигаемых в более позднее время. Единственное, что нужно знать, это количество зерен, поджигаемых до момента времени «t». Не обязательно знать, когда они поджигались, поэтому знание предыдущих моментов времени «t» не имеет значения.
Описанный здесь процесс является приближением точечного процесса Пуассона — процессы Пуассона также являются процессами Маркова.
{{cite book}}
: CS1 maint: multiple names: authors list (link) CS1 maint: numeric names: authors list (link)This article needs additional citations for verification. (June 2016) |