概述
LDA涉及到的数据知识不是一般的多,这里不做详细阐述,可参考如下博客:https://blog.csdn.net/v_july_v/article/details/41209515
总的来说LDA与word2vec区别如下:
区别 | LDA | word2vec |
输出 | 文档-主题概率分布矩阵和主题-词概率分布矩阵 | 词对应的词向量 |
训练方法 | 利用文档中单词的贡献关系来对单词按主题聚类,也可以理解为对“文档-单词”进行矩阵分解(有点像ALS,即将N*M矩阵分解维 N*K 和 K*M两个矩阵,K为主题个数) | 构建N维词向量,根据上下文输入,利用三层网络,训练得到各层之间的系数矩阵,进而得到隐藏层K维词向量 |
用处 | 可以找到词与主题,主题与文档之间的关系 | 可以找到词与词之间的相似度 |
对于用处 ,举一个例子:
词:馒头、米饭、白菜 用word2vec看相似度都较高(都是食物,可能同时会出现在“我爱吃_”这个语境),但是word2vec看出馒头、米饭会比馒头、白菜详细性高(因为前两者可能更经常出现在"我爱吃的主食有_"里),对与LDA,大部分情况下他们都会被分到同一主题(食物)中,但是也许根据K维度高一些也能区别出主食和菜,但准确行感觉不如word2vec
文档:给定几个文档,让比较文档的相似性,用word2vec比较棘手,因为只能知道每个词的word2vec词向量,但是并不知道整片文章的含义(主题),而LDA能很好的提取文章主题,进而计算相似性。
总的来说word2vec和LDA各有优缺点,适合不一样的场景
最后
以上就是娇气花卷为你收集整理的17.LDA与word2vec区别的全部内容,希望文章能够帮你解决17.LDA与word2vec区别所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复