我是靠谱客的博主 美丽蜻蜓,最近开发中收集的这篇文章主要介绍《textanalytics》课程简单总结(2):topic mining,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

coursera上的公开课《https://www.coursera.org/course/textanalytics》系列,讲的非常不错哦。

 

 

1“term as topic”有很多问题:

 

2Improved Idea: Topic = Word Distribution

 

 

3、定义问题(Probabilistic Topic Mining and Analysis):

 

 

4、解决问题之道(Generative Model for Probabilistic Topic Mining and Analysis):

– Model data generation with a prob. model:  P(Data |Model, λ) 
– Infer the most likely parameter values λ* given a particular data set:   λ* = argmaxλ p(Data| Model, λ) 
– Take λ* as the “knowledge” to be mined for the text mining problem 
– Adjust the design of the model to discover different knowledge

其中:λ=({ theta1, …, thetak }, { π11, …, π1k }, …, { πN1, …, πNk }) 

 

5The Simplest Language Modelgenerative model: Unigram LM

通过独立的生成每一个词进而产生文档,因此: 
• p(w1 w2 ... wn)=p(w1)p(w2)…p(wn) 
• 参数为: {p(wi)} ,且 p(w1)+…+p(wN)=1 (N is voc. size) 
• Text = sample drawn according to this word distribution,例如:

   p(“today is Wed”) = p(“today”)p(“is”)p(“Wed”)  = 0.0002 *  0.001 * 0.000015

 

6、两种估计文本产生概率的办法:

•最大似然估计

“最好”意味着“样本数据的似然值达到最大”:

问题是,样本一般较小。


• 贝叶斯估计

“最好”意味着“和‘先验’一致,同时能很好解释样本数据”,即Maximum a Posteriori (MAP) estimate

问题是,如何定义“先验”。

 

 

 

 

7、多个Unigram Language Model混合(以两个为例)

 

8、Probabilistic Topic Models: Expectation-Maximization (EM) Algorithm

 

例子:

 

 

 

 

 

9、Probabilistic Latent Semantic Analysis (PLSA)

本质思想:

 

数学关系:

 

PLSA中的EM

 

 


 

 

 

 

11、LDA

内容参考:

 http://blog.csdn.net/mmc2015/article/details/45009759

http://blog.csdn.net/mmc2015/article/details/45010307

http://blog.csdn.net/mmc2015/article/details/45011027

http://blog.csdn.net/mmc2015/article/details/45024447

 

 

 

最后

以上就是美丽蜻蜓为你收集整理的《textanalytics》课程简单总结(2):topic mining的全部内容,希望文章能够帮你解决《textanalytics》课程简单总结(2):topic mining所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(38)

评论列表共有 0 条评论

立即
投稿
返回
顶部