我是靠谱客的博主 兴奋水杯,最近开发中收集的这篇文章主要介绍改进的中科院分词系统NLPIR代码(加入用户词典,去停用词,文件读写)+情感分析字典包+工具包+论文包原代码下载地址优化的分词系统代码,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

NLPIR分词,加入用户词典,去停用词,文件读写等

  • 原代码下载地址
  • 优化的分词系统代码

原代码下载地址

NLPIR分词系统

优化的分词系统代码

以下是核心代码
完整代码可以直接运行分词,点我跳转


public class NLPIRTest {

    private List<String> files = new ArrayList<>(); //创建数组files

    //getAllFiles函数来获得文件的绝对路径
    private void getAllFiles(File filePath) {
        File[] fsFiles = filePath.listFiles();//获得filepath的绝对路径
        assert fsFiles != null;
        for (File f : fsFiles) {
            if (f.isFile() && !f.getName().equals(".DS_Store")) files.add(f.getPath());//获得文件的路径
            if (f.isDirectory()) this.getAllFiles(f);//递归调用,将文件的绝对路径存入数组files中
        }
    }
//segLines方法用来规范读写文件
    private List<String> segLines(File file) throws Exception {
        BufferedReader bf = new BufferedReader(new InputStreamReader(new FileInputStream(file), "GBK"));
        List<String> temp = new ArrayList<>();
        String str;
        while ((str = bf.readLine()) != null) {
            //String str2 = str + "rn";
            temp.add(str);
        }
        bf.close();
        return temp;
    }
    //excludeStopWord来去除停用词
    private void excludeStopWord(File file) throws Exception {
//省去了变量和数组的定义
        for (String merBer:splitWordArray){
          String[] splitString = merBer.split("t");
          conString.setLength(0);
          for (int i=0;i<splitString.length;i++){
              if (stopWord.contains(splitString[i])){
                  splitString[i] = null;
              }
              if (splitString[i]!=null) conString.append(splitString[i]).append(" ");
          }
          bw.write(conString.toString());
          bw.newLine();
        }
        bw.close();
    }

    public static void main(String[] args) throws Exception {
        NLPIR.init("lib");
        NLPIR.importUserDict("F:\split_word\dict_comment1.txt");
       //调用用户词典
       //分词调用见完整代码
}

8个主流的情感字典21M超级压缩包
23篇情感分析SCI等论文超级包

最后

以上就是兴奋水杯为你收集整理的改进的中科院分词系统NLPIR代码(加入用户词典,去停用词,文件读写)+情感分析字典包+工具包+论文包原代码下载地址优化的分词系统代码的全部内容,希望文章能够帮你解决改进的中科院分词系统NLPIR代码(加入用户词典,去停用词,文件读写)+情感分析字典包+工具包+论文包原代码下载地址优化的分词系统代码所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(41)

评论列表共有 0 条评论

立即
投稿
返回
顶部