我是靠谱客的博主 秀丽向日葵,最近开发中收集的这篇文章主要介绍python实现lda聚类_python – 从TF-IDF到spark,pyspark中的LDA聚类,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

我正在尝试对存储在格式密钥,listofwords中的推文进行聚类

我的第一步是使用数据框提取单词列表的TF-IDF值

dbURL = "hdfs://pathtodir"

file = sc.textFile(dbURL)

#Define data frame schema

fields = [StructField('key',StringType(),False),StructField('content',StringType(),False)]

schema = StructType(fields)

#Data in format ,

file_temp = file.map(lambda l : l.split(","))

file_df = sqlContext.createDataFrame(file_temp, schema)

#Extract TF-IDF From https://spark.apache.org/docs/1.5.2/ml-features.html

tokenizer = Tokenizer(inputCol='content', outputCol='words')

wordsData = tokenizer.transform(file_df)

hashingTF = HashingTF(inputCol='words',outputCol='rawFeatures',numFeatures=1000)

featurizedData = hashingTF.transform(wordsData)

idf = IDF(inputCol='rawFeatures',outputCol='features')

idfModel = idf.fit(featurizedData)

rescaled_data = idfModel.transform(featurizedData)

indexer = StringIndexer(inputCol='key',outputCol='KeyIndex')

indexed_data = indexer.fit(rescaled_data).transform(rescaled_data).drop('key').drop('content').drop('words').drop('rawFeatures')

但现在我无法找到一种好方法将我的数据帧转换为前一个示例或this example中提出的格式

如果有人能指出我正确看待的地方,或者如果我的方法有误,可能会纠正我,我将非常感激.

我认为从一系列文档中提取TF-IDS向量并将它们聚类应该是一个相当经典的事情,但我找不到一个简单的方法来做到这一点.

最后

以上就是秀丽向日葵为你收集整理的python实现lda聚类_python – 从TF-IDF到spark,pyspark中的LDA聚类的全部内容,希望文章能够帮你解决python实现lda聚类_python – 从TF-IDF到spark,pyspark中的LDA聚类所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(61)

评论列表共有 0 条评论

立即
投稿
返回
顶部