目录

Document Categorizer

模型训练

文档分类


Document Categorizer

文档分类程序可以将文本分类为预定义的类别。它基于最大熵框架。

模型训练


import java.io.File;import java.io.FileInputStream;import java.io.IOException;import java.io.InputStream;import opennlp.tools.doccat.DoccatModel;import opennlp.tools.doccat.DocumentCategorizerME;public class DocumentCategoriesPredit {public static void main(String[] args) throws IOException {// TODO Auto-generated method stubString rootDir = System.getProperty("user.dir") + File.separator;String fileResourcesDir = rootDir + "resources" + File.separator;String modelResourcesDir = rootDir + "opennlpmodel" + File.separator;//String filePath = fileResourcesDir + "sentenceDetector.txt";String modelPath = modelResourcesDir + "en-documentCategorizer-my.bin";InputStream modelIn = new FileInputStream(modelPath) ;//加载模型DoccatModel model = new  DoccatModel(modelIn);//实例化模型DocumentCategorizerME docCategorizer  = new DocumentCategorizerME(model);//文档分类检测,返回的是一个概率数组double[] bProbs= docCategorizer.categorize(new String[]{"x", "y", "z"});System.out.println("最合适的分类:"+docCategorizer.getBestCategory(bProbs));System.out.println("所有可能的分类:"+docCategorizer.getAllResults(bProbs));for(int i=0;i<bProbs.length;i++){System.out.println("分类:"+docCategorizer.getCategory(i)+";概率:"+bProbs[i]);}}}

文档分类

import java.io.BufferedOutputStream;import java.io.File;import java.io.FileOutputStream;import java.io.IOException;import java.io.OutputStream;import java.nio.charset.StandardCharsets;import opennlp.tools.cmdline.doccat.DoccatFineGrainedReportListener;import opennlp.tools.doccat.DoccatFactory;import opennlp.tools.doccat.DoccatModel;import opennlp.tools.doccat.DocumentCategorizerEvaluator;import opennlp.tools.doccat.DocumentCategorizerME;import opennlp.tools.doccat.DocumentSample;import opennlp.tools.util.InputStreamFactory;import opennlp.tools.util.MarkableFileInputStreamFactory;import opennlp.tools.util.ObjectStream;import opennlp.tools.util.ObjectStreamUtils;import opennlp.tools.util.PlainTextByLineStream;import opennlp.tools.util.TrainingParameters;public class DocumentCategorizerTrain {public static void main(String[] args) throws IOException {// TODO Auto-generated method stubString rootDir = System.getProperty("user.dir") + File.separator;String fileResourcesDir = rootDir + "resources" + File.separator;String modelResourcesDir = rootDir + "opennlpmodel" + File.separator;//训练数据的路径String filePath = fileResourcesDir + "tokenizer.txt";//训练后模型的保存路径String modelPath = modelResourcesDir + "en-documentCategorizer-my.bin";//按行读取数据InputStreamFactory inputStreamFactory = new MarkableFileInputStreamFactory(new File(filePath));ObjectStream<String> lineStream = new PlainTextByLineStream(inputStreamFactory, StandardCharsets.UTF_8);//按行读取数据ObjectStream<DocumentSample> sampleStream = ObjectStreamUtils.createObjectStream(new DocumentSample("c1", new String[]{"a", "b", "c"}),new DocumentSample("c1", new String[]{"a", "b", "c", "gg", "rr"}),new DocumentSample("c1", new String[]{"a", "b", "c", "ee", "rr"}),new DocumentSample("c2", new String[]{"x", "y", "z"}),new DocumentSample("c2", new String[]{"x", "y", "z"}),new DocumentSample("c2", new String[]{"x", "y", "z"}),new DocumentSample("c2", new String[]{"x", "y", "z"}),new DocumentSample("c2", new String[]{"x", "y", "z"}),new DocumentSample("c2", new String[]{"x", "y", "z"}),new DocumentSample("c2", new String[]{"x", "y", "z"}),new DocumentSample("c2", new String[]{"x", "y", "z", "nn", "kk"}),new DocumentSample("c2", new String[]{"x", "y", "z", "ff", "cc"}));TrainingParameters params = new TrainingParameters();params.put(TrainingParameters.ITERATIONS_PARAM, 200);params.put(TrainingParameters.CUTOFF_PARAM, 0);DoccatFactory factory =new DoccatFactory();//训练模型DoccatModel model =DocumentCategorizerME.train("en", sampleStream, TrainingParameters.defaultParams(),factory);//保存模型FileOutputStream fos=new FileOutputStream(new File(modelPath));OutputStream modelOut = new BufferedOutputStream(fos);model.serialize(modelOut);//评估模型DocumentCategorizerEvaluator evaluator=new DocumentCategorizerEvaluator(new DocumentCategorizerME(model),new DoccatFineGrainedReportListener());evaluator.evaluate(sampleStream);System.out.println("正确率:"+ evaluator.getAccuracy());}}

[NLP]OpenNLP文档分类器的使用相关推荐

  1. python机器学习案例系列教程——文档分类器,朴素贝叶斯分类器,费舍尔分类器

    全栈工程师开发手册 (作者:栾鹏) python数据挖掘系列教程 github地址:https://github.com/626626cdllp/data-mining/tree/master/Bay ...

  2. 【NLP】文档集数据处理 gensim corpora.Dictionary 的简单使用

    [NLP]文档集数据处理 gensim corpora.Dictionary 1. corpora 和 dictionary 2. 词典操作 3. 存储 4. 其他操作 5. 分批处理和分布式计算 6 ...

  3. 弘玑Cyclone2022产品发布会:全新上线智能文档处理交互平台——尚书台

    近日,在弘玑Cyclone"智无边界,数字未来"发布会上,弘玑Cyclone2022年超级自动化系列产品全新亮相,首席产品官贾岿博士带领产品团队以创新技术对新时代语境下的数字生产力 ...

  4. NLP之TM之LDA:利用LDA算法瞬时掌握文档的主题内容—利用希拉里邮件数据集训练LDA模型并对新文本进行主题分类

    NLP之TM之LDA:利用LDA算法瞬时掌握文档的主题内容-利用希拉里邮件数据集训练LDA模型并对新文本进行主题分类 目录 输出结果 设计思路 核心代码 训练数据集 LDA模型应用 输出结果 设计思路 ...

  5. NLP:两种方法(自定义函数和封装函数)实现提取两人对话内容(***分隔txt文档),并各自保存为txt文档

    NLP:两种方法(自定义函数和封装函数)实现提取两人对话内容(***分隔txt文档),并各自保存为txt文档 目录 问题探究 实现代码 问题探究 实现代码 f=open("niu.txt&q ...

  6. 当NLP遇见OCR:如何提升智能文档分析效果?

    随着数智化时代的到来,各行各业已经步入智能化升级的关键阶段,传统行业智能化进程已然加速.百度大脑赋能企业服务升级,为企业提供更加智慧化.人性化的服务,让企业服务更聪明.更高效. 百度大脑 AI 开放平 ...

  7. 智能文档分析:NLP和OCR的融合技术

    随着数智化时代的到来,各行各业已经步入智能化升级的关键阶段,传统行业智能化进程已然加速.百度大脑赋能企业服务升级,为企业提供更加智慧化.人性化的服务,让企业服务更聪明.更高效. 百度大脑AI开放平台提 ...

  8. NLP︱句子级、词语级以及句子-词语之间相似性(相关名称:文档特征、词特征、词权重)

    每每以为攀得众山小,可.每每又切实来到起点,大牛们,缓缓脚步来俺笔记葩分享一下吧,please~ --------------------------- 关于相似性以及文档特征.词特征有太多种说法.弄 ...

  9. Apache OpenNLP提供的文档

    Apache OpenNLP提供了一个手册和Javadoc API文档. 本手册介绍了如何使用和培训各种OpenNLP组件. Apache OpenNLP 1.7.2文档 Apache OpenNLP ...

  10. 基于NLP处理企业家传记文档

    基于NLP处理中国企业家文档 1. 实验环境 本次技术采用Python编程,Python可以从官网https://www.python.org/下载,选出适合用户操作系统的二进制发行版后,按提示一步一 ...

最新文章

  1. 如何扩大以太坊的规模:分片简介(How to Scale Ethereum: Sharding Explained)
  2. 云服务器ecs安装mysql_阿里云服务器ecs配置之安装mysql
  3. onnx:Resize in opset 11 to support Pytorch‘s behavior
  4. sql语句:union
  5. Python中的迭代遍历 for in
  6. 前端学习(2622):过滤器进行操作
  7. 我的LINUX学习之路之二十一之web服务器简单搭建
  8. fileinputstream_Java I/O 流之 FileInputStream
  9. 一张图看懂阿里云智能媒体管理产品
  10. 【LeetCode】剑指 Offer 25. 合并两个排序的链表
  11. rootfs 制作ubuntu_制作ubuntu rootfs
  12. STM32工作笔记0077---UCOSIII中使用串口发送数据要注意的点
  13. 变量案例弹出用户名(JS)
  14. 第6章 vector向量容器
  15. JinlinOJ 通化邀请赛 E.GCD and LCM 最大公约数最小公倍数 关系
  16. JAVA(五) ——类,对象,变量,方法,构造方法 【简解】
  17. 黑龙江局与深圳大疆公司等开展无人机植保技术交流
  18. android 文件预览(读取)
  19. liunx下查看tomcat占用的端口号
  20. pyshark.tshark.tshark.TSharkNotFoundException: TShark not found.

热门文章

  1. python自动补全vim_Python 自动补全(vim)
  2. phpnow怎么改php版本,phpnow升级php版本的方法
  3. 目标客户画像_如何定义目标客户和用户画像
  4. 食品机械怎么找客户,如何转型
  5. iPhone--卡贴是什么
  6. 月薪30K的硬件工程师需要哪些技能
  7. ie首页被篡改解决方法 ie浏览器 ie浏览器首页设置 iexplore.exe触犯注册表防护规则
  8. 机器人学编程简介~2019~
  9. 疯了! Python 成功预测前三场比赛,快看今天的?(附代码及比赛时间表)
  10. 【渝粤题库】广东开放大学 服务质量管理 形成性考核