我是靠谱客的博主 沉静板凳,最近开发中收集的这篇文章主要介绍python词性标注_python nltk 统计语料的词性标注分布,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

import nltksent='消息/n 源/g 新浪/nz 财经/n 称/v ,/w 针对/p 今日/t 有/v 媒体/n 平台/n 报道/v 央行/n 已经/d 发文/v 暂停/v 比特/q 币/g 交易/n 的/u 消息/n ,/w 接近/v 监管/vn 层/qv 人士/n 对/p 新浪/nz 财经/n 表示/v ,/w 央行/n 确实/ad 下发/v 文件/n ,/w 但/c 并非/v 叫/v 停/v 比特/q 币/g ,/w 而是/c 加强/v 比特/q 币/g 的/u 监管/vn 。/w ';sTuple=[nltk.tag.str2tuple(t) for t in sent.split()] #根据文本中的空格进行切分,切分后每一项再转为tuple元组,结构为: ('消息', 'N')wordsCount=len(sTuple) #统计词个数print('总词数:',wordsCount) plt=nltk.FreqDist(sTuple) #获取统计结果,结果的结构为: 每一项后面的数字是该字与其词性组合的出现次数,除了第一项的FreqDist外,后面的结构正好符合字典类型print('各词性标注统计结果:')d=dict(plt) #把统计结果转为字典型,它会删掉不符合字典结构的第一项FreqDist,把后面的结果转存为字典型for key in d.keys(): #遍历字典,每一类词性的总次数一目了然 print(key,d[key])

结果如下:

本文转载自:CSDN博客

欢迎加入我爱机器学习QQ14群:336582044

微信扫一扫,关注我爱机器学习公众号

最后

以上就是沉静板凳为你收集整理的python词性标注_python nltk 统计语料的词性标注分布的全部内容,希望文章能够帮你解决python词性标注_python nltk 统计语料的词性标注分布所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(43)

评论列表共有 0 条评论

立即
投稿
返回
顶部