概述
问题:
什么是马尔科夫模型?用来干什么?
大家可以参考这篇简书
python 实现
关于HMM有两个主要问题:
已知上述三个参数,和当前观测序列,求解隐藏状态的变化
所有参数未知,只有数据,如何获得三个参数
需要使用hmmlearn 包
导入需要的库
import random
import datetime # 可有可无,用来记录模型学习时间,
import numpy as np
from hmmlearn import hmm
已知参数和当前的观测序列,求解隐含状态的序列
隐藏状态:
hidden_states = ["A", "B" ]
n_hidden_states = len(hidden_states)
观察情况
observations = ["1", "2", "3", "4", "5", "6"]
n_observations = len(observations)
初始状态矩阵
start_probability = np.array([0.8, 0.2,])
状态转移矩阵
transition_probability = np.array([[0.2, 0.8],
[0.8, 0.2]]
)
发射矩阵
emission_probability = np.array([ [1/6, 1/6, 1/6, 1/6, 1/6, 1/6,],
[0.25, 0.25, 0.25, 0.25, 0, 0] ]
)
构建模型
model = hmm.MultinomialHMM(n_components=n_hidden_states)
将上述设定的参数传入其中
model.startprob_=start_probability
model.transmat_=transition_probability
model.emissionprob_=emission_probability
输入我们观察到的序列
observations_sequence = np.array([[0, 1, 2,1, 3, 3, 4, 0, 5, 3]]).T
print("观察到的取出的色子点数:", ", ".join(map(lambda x: observations[int(x)], observations_sequence)))
logprob, box = model.decode(observations_sequence, algorithm="viterbi")
print("decode 方法计算: ", ", ".join(map(lambda x: hidden_states[x], box)))
box = model.predict(observations_sequence)
print("predict方法计算: ", ", ".join(map(lambda x: hidden_states[int(x)], box)), 'n')
observations_sequence = np.array([[2, 1, 1,0, 2, 3, 0, 1, 1, 2, 2,1,0,0,3,3]]).T
print("取出的色子点数:", ", ".join(map(lambda x: observations[int(x)], observations_sequence)))
box = model.predict(observations_sequence)
print("从哪个盒子取的:", ", ".join(map(lambda x: hidden_states[int(x)], box)),'n')
observations_sequence = np.array([[5, 4, 3, 2, 2, 3, 0, 4, 5, 4, 1,1,0,0,3,3]]).T
print("取出的色子点数:", ", ".join(map(lambda x: observations[int(x)], observations_sequence)))
box = model.predict(observations_sequence)
print("从哪个盒子取的:", ", ".join(map(lambda x: hidden_states[int(x)], box)))
输出的结果是
观察到的取出的色子点数: 1, 2, 3, 2, 4, 4, 5, 1, 6, 4
decode 方法计算: A, B, A, B, A, B, A, B, A, B
predict方法计算: A, B, A, B, A, B, A, B, A, B
取出的色子点数: 3, 2, 2, 1, 3, 4, 1, 2, 2, 3, 3, 2, 1, 1, 4, 4
从哪个盒子取的: A, B, A, B, A, B, A, B, A, B, A, B, A, B, A, B
取出的色子点数: 6, 5, 4, 3, 3, 4, 1, 5, 6, 5, 2, 2, 1, 1, 4, 4
从哪个盒子取的: A, A, B, A, B, A, B, A, A, A, B, A, B, A, B, A
所有参数未知,只有数据,如何获得三个参数
方案: 我们先假定一个初始概率分布,转移矩阵,以及发射矩阵,按照这些参数生成很多很多数据.
然后将数据放到HMM模型里,利用数据学习,检查模型学到的参数和我们假定的参数是不是一致。
按照假象的规则去生成一些列数据
# 初始状态 判断标准,小于此值为A 大于此值为B
a_b_init_critia = 0.2
# state_change
state_change = {"A": 0.3, # 此时如果是A, 那么取random, 如果小于 此值就是A 否则为B
"B": 0.6 # 此时如果是B, 那么取random, 如果小于 此值就是A 否则为B
}
# 点数情况
observations = ["1", "2", "3", "4", "5", "6"]
# 点数对应的 index
point={"A": [0,1,2,3,4,5], "B": [0,1,2,3]}
data_size = 10000
whole_data = []
lengths = []
for i in range(data_size):
dice = "A" if random.random() < a_b_init_critia else "B"
data = []
sequence_length = random.randint(2, 25)
for _ in range(sequence_length):
# print(dice, end=" ")
data.append([random.sample(point[dice], 1)[0]])
dice = "A" if random.random() < state_change[dice] else "B"
# print(f"一共投了 {sequence_length} 次 n点数的index {data} n")
whole_data.append(data)
lengths.append(sequence_length)
whole_data = np.concatenate(whole_data)
将数据填入模型中,进行学习
print(f"开始学习 {datetime.datetime.now()} 共 {len(lengths)}条数据")
hmm_model = hmm.MultinomialHMM(n_components=len(point),
n_iter=100000, # Maximum number of iterations to perform.
tol=0.000001, # Convergence threshold. EM will stop if the gain in log-likelihood is below this value.
verbose = False, # When True per-iteration convergence reports are printed to sys.stderr.
)
hmm_model.fit(whole_data, lengths)
# 学习之后,查看参数
print(f"结束学习 {datetime.datetime.now()}")
print('因为是无监督学习,所以模型不会把 A B 排定先后顺序,但是 三个参数是相互关联的,所以顺序其实无关系')
print('初始概率')
print(hmm_model.startprob_,'n')
print('状态转移矩阵')
print(hmm_model.transmat_,'n')
print('从隐藏状态到 显示状态的发散矩阵')
print(hmm_model.emissionprob_,'n')
输出的结果是
开始学习 2020-01-05 10:03:02.832792 共 10000条数据
结束学习 2020-01-05 13:05:53.612298
因为是无监督学习,所以模型不会把 A B 排定先后顺序,但是 三个参数是相互关联的,所以顺序其实无关系
初始概率
[0.20509604 0.79490396]
状态转移矩阵
[[0.31460223 0.68539777]
[0.6213235 0.3786765 ]]
从隐藏状态到 显示状态的发散矩阵
[[1.67834277e-01 1.74886284e-01 1.69078215e-01 1.68723388e-01
1.61611529e-01 1.57866306e-01]
[2.51185996e-01 2.46793569e-01 2.46239587e-01 2.53539909e-01
1.54840968e-06 2.23939182e-03]]
可见学习的还是很好的, 只是时间有点长(3个小时),
但是结果非常符合预期, 主要原因是,我们的数据非常干净,没有噪音. 如果在数据中混杂这噪音,可能结果就不会这么好了
ref
最后
以上就是温暖小熊猫为你收集整理的python做马尔科夫模型预测法_python 日常笔记 hmmlearn 隐性马尔科夫模型案例分析...的全部内容,希望文章能够帮你解决python做马尔科夫模型预测法_python 日常笔记 hmmlearn 隐性马尔科夫模型案例分析...所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复