2006-05-29 17:40     主题:  【发布】Lucene中文分词组件 JE-Analysis 1.5.1  
天狼

注册于: 2006-05-28 00:23
帖子总数: 103
离线
 本站申明: 该组件免费安装使用传播,无限制商业应用,但暂不开源,也不提供任何保证

分词效率: 每秒30万字(测试环境迅驰1.6,第一次分词需要1-2秒加载词典)

运行环境: Lucene 2.0

特别推荐: 优秀的软件项目管理系统,让项目走出质量管理的泥潭

下载   文件名 je-analysis-1.5.1.jar
 描述 
 大小 871 Kbytes 
 下载次数:  397 time(s)

2006-07-04 19:49     主题:  变更历史  
天狼

注册于: 2006-05-28 00:23
帖子总数: 103
离线
 1.5.1 —— 2006-01-22
修正细粒度分词错误的问题

1.5.0 —— 2007-01-18
全面支持Lucene 2.0
增强了词典维护的API
增加了商品编码的匹配
增加了Mail地址的匹配
实现了词尾消歧算法第二层的过滤
整理优化了词库

1.4.0 —— 2006-08-21
增加词典的动态扩展能力

1.3.3 —— 2006-07-23
修正无法多次增加词典的问题

1.3.2 —— 2006-07-03
修正细粒度分词错误的问题

1.3.1 —— 2006-06-23
修正在某些情况下分词遗漏的问题

1.3 —— 2006-06-22
实现了词尾消歧算法第一层的过滤
增加日期时间的匹配

1.2.2 —— 2006-06-13
完善了中英文噪声词典

1.2.1 —— 2006-06-10
修正中文数字成语无法识别的问题

1.2 —— 2006-06-08
增加中文数字的匹配(如:二零零六)
数量词采用“n”作为数字通配符
优化词典结构以便修改调整

1.1 —— 2006-06-06
增加扩展词典的静态读取方法

1.0.1 —— 2006-06-02
修正无法识别生僻字的问题

1.0 —— 2006-05-29
支持英文、数字、中文(简体)混合分词
常用的数量和人名的匹配
超过22万词的词库整理
实现正向最大匹配算法
支持分词粒度控制
 
  
 
 
2006-08-27 22:44     主题:  系统API  
天狼

注册于: 2006-05-28 00:23
帖子总数: 103
离线
 Code:
 //采用正向最大匹配的中文分词算法,相当于分词粒度等于0
 MMAnalyzer analyzer = new MMAnalyzer();
 
 //参数为分词粒度:当字数等于或超过该参数,且能成词,该词就被切分出来
 MMAnalyzer analyzer = new MMAnalyzer(int wordLength);
 
 //字符串切分,常用于客户的关键字输入
 analyzer.segment(String text, String separator);
 
 
 词典维护API(静态方法):
 
 //增加一个新词典,采用每行一个词的读取方式(注意:多线程状态下此时的分词效果将不可预料)
 MMAnalyzer.addDictionary(Reader reader);
 
 //增加一个新词
 MMAnalyzer.addWord(String newWord);
 
 //删除词库中的全部词语(注意:非常危险的操作,在没有加载新的词库前所有的分词都将失效)
 MMAnalyzer.clear();
 
 //词库中是否包含该词
 MMAnalyzer.contains(String word);
 
 //从词库中移除该词
 MMAnalyzer.removeWord(String word);
 
 //当前词库中包含的词语总数
 MMAnalyzer.size();

2006-08-27 22:45     主题:  字符串切分  
天狼

注册于: 2006-05-28 00:23
帖子总数: 103
离线
 Code:
 package demo.analysis;
 
 import java.io.IOException;
 
 import jeasy.analysis.MMAnalyzer;
 
 public class Segment
 {
  
     public static void main(String[] args)
     {
         String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,"
          + "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡,"
          + "20000余人受伤,近20万人无家可归。";
        
         MMAnalyzer analyzer = new MMAnalyzer();
         try
         {
                 System.out.println(analyzer.segment(text, " | "));
         }
         catch (IOException e)
         {
                 e.printStackTrace();
         }
     }
 }

生成效果:

据 | 路透社 | 报道 | 印度尼西亚 | 社会 | 事务 | 部 | 官员 | 星期二 | 29日 | 表示 | 日惹 | 市 | 附近 | 当地时间 | 27日 | 晨 | 5时 | 53分 | 发生 | 里氏 | 6.2级 | 地震 | 已经 | 造成 | 至少 | 5427人 | 死亡 | 20000 | 余人 | 受伤 | 近 | 20万人 | 无家可归 |
 
  
 
 
2006-08-27 22:47     主题:  Lucene搜索  
天狼

注册于: 2006-05-28 00:23
帖子总数: 103
离线
 Code:
 package demo.analysis;
 
 import jeasy.analysis.MMAnalyzer;
 
 import org.apache.lucene.analysis.Analyzer;
 import org.apache.lucene.document.Document;
 import org.apache.lucene.document.Field;
 import org.apache.lucene.index.IndexWriter;
 import org.apache.lucene.queryParser.QueryParser;
 import org.apache.lucene.search.Hits;
 import org.apache.lucene.search.IndexSearcher;
 import org.apache.lucene.search.Query;
 import org.apache.lucene.store.Directory;
 import org.apache.lucene.store.RAMDirectory;
 
 public class Segment
 {
    
     public static void main(String[] args)
     {
         String fieldName = "text";
         String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,"
             + "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡,"
             + "20000余人受伤,近20万人无家可归。"; //检索内容
 
         //采用正向最大匹配的中文分词算法
         Analyzer analyzer = new MMAnalyzer();
 
         Directory directory = new RAMDirectory();
         //Directory directory = FSDirectory.getDirectory("/tmp/testindex", true);
 
         try
          {
             IndexWriter iwriter = new IndexWriter(directory, analyzer, true);
             iwriter.setMaxFieldLength(25000);
             Document doc = new Document();
             doc.add(new Field(fieldName, text, Field.Store.YES, Field.Index.TOKENIZED));
             iwriter.addDocument(doc);
             iwriter.close();
            
             IndexSearcher isearcher = new IndexSearcher(directory);
             QueryParser parser = new QueryParser(fieldName, analyzer);
             Query query = parser.parse("印度尼西亚 6.2级地震");//检索词
             Hits hits = isearcher.search(query);
             System.out.println("命中:" + hits.length());
 
             for (int i = 0; i < hits.length(); i++)
             {
                 Document hitDoc = hits.doc(i);
                 System.out.println("内容:" + hitDoc.get(fieldName));
             }
 
             isearcher.close();
             directory.close();
         }
         catch (Exception e)
         {
             e.printStackTrace();
         }  
     }
    
 }

生成效果:

命中:1
内容:据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡,20000余人受伤,近20万人无家可归。
 
  
 
 
2006-08-27 22:48     主题:  搜索词加亮  
天狼

注册于: 2006-05-28 00:23
帖子总数: 103
离线
 Code:
 package demo.analysis;
 
 import jeasy.analysis.MMAnalyzer;
 
 import org.apache.lucene.analysis.Analyzer;
 import org.apache.lucene.analysis.TokenStream;
 import org.apache.lucene.document.Document;
 import org.apache.lucene.document.Field;
 import org.apache.lucene.index.IndexReader;
 import org.apache.lucene.index.IndexWriter;
 import org.apache.lucene.index.TermPositionVector;
 import org.apache.lucene.queryParser.QueryParser;
 import org.apache.lucene.search.Hits;
 import org.apache.lucene.search.IndexSearcher;
 import org.apache.lucene.search.Query;
 import org.apache.lucene.search.highlight.Highlighter;
 import org.apache.lucene.search.highlight.QueryScorer;
 import org.apache.lucene.search.highlight.TokenSources;
 import org.apache.lucene.store.Directory;
 import org.apache.lucene.store.RAMDirectory;
 
 public class Segment
 {
 
     public static void main(String[] args)
     {
         String fieldName = "text";
         String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,"
             + "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡,"
             + "20000余人受伤,近20万人无家可归。"; //检索内容
 
         //采用正向最大匹配的中文分词算法
         Analyzer analyzer = new MMAnalyzer();
 
         Directory directory = new RAMDirectory();
         //Directory directory = FSDirectory.getDirectory("/tmp/testindex", true);
 
         try
         {
             IndexWriter iwriter = new IndexWriter(directory, analyzer, true);
             iwriter.setMaxFieldLength(25000);
             Document doc = new Document();
             doc.add(new Field(fieldName, text, Field.Store.YES,
                     Field.Index.TOKENIZED,
                     Field.TermVector.WITH_POSITIONS_OFFSETS));
             iwriter.addDocument(doc);
             iwriter.close();
 
             IndexSearcher isearcher = new IndexSearcher(directory);
             QueryParser parser = new QueryParser(fieldName, analyzer);
             Query query = parser.parse("印度尼西亚 6.2级地震");//检索词
             Hits hits = isearcher.search(query);
             System.out.println("命中:" + hits.length());
 
             Highlighter highlighter = new Highlighter(new QueryScorer(query));
             for (int i = 0; i < hits.length(); i++)
             {
                 text = hits.doc(i).get(fieldName);
                 TermPositionVector tpv = (TermPositionVector) IndexReader.open(
                     directory).getTermFreqVector(hits.id(i), fieldName);
                 TokenStream tokenStream = TokenSources.getTokenStream(tpv);
                 String result = highlighter.getBestFragments(tokenStream, text, 3, "...");
                 System.out.println("内容:" + result);
             }
 
             isearcher.close();
             directory.close();
         }
         catch (Exception e)
         {
             e.printStackTrace();
         }
     }
 
 }

生成效果:

命中:1
内容:据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡,20000余人受伤,近20万人无家可归

转 Lucene中文分词组件 JE-Analysis 1.5.1 天狼相关推荐

  1. 分享Lucene中文分词组件IK Analyzer V3.2.8

    IK Analyzer 3.X介绍   IK Analyzer是一个开源的,基于java诧言开发的轻量级的中文分词工具包.从2006年12月推出1.0版开始, IKAnalyzer已经推出了3个大版本 ...

  2. 当前几个主要的Lucene中文分词器的比较

    http://blog.fulin.org/2009/08/lucene_chinese_analyzer_compare.html 1. 基本介绍: paoding :Lucene中文分词" ...

  3. 11大Java开源中文分词器的使用方法和分词效果对比,当前几个主要的Lucene中文分词器的比较...

    本文的目标有两个: 1.学会使用11大Java开源中文分词器 2.对比分析11大Java开源中文分词器的分词效果 本文给出了11大Java开源中文分词的使用方法以及分词结果对比代码,至于效果哪个好,那 ...

  4. Java分布式中文分词组件 - word分词

    Java分布式中文分词组件 - word分词 word分词是一个Java实现的分布式的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义.能准确识别英文.数字,以及日期.时间等 ...

  5. Java分布式中文分词组件 - word分词(转自 https //github com/ysc/word)

    首先给大家分享一个巨牛巨牛的人工智能教程,是我无意中发现的.教程不仅零基础,通俗易懂,而且非常风趣幽默,还时不时有内涵段子,像看小说一样,哈哈-我正在学习中,觉得太牛了,所以分享给大家!点这里可以跳转 ...

  6. Java分布式中文分词组件 - word分词(转自:https://github.com/ysc/word)

    ###Java分布式中文分词组件 - word分词 ####word分词是一个Java实现的分布式的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义.能准确识别英文.数字,以 ...

  7. Java中文分词组件 - word分词(skycto JEEditor)

    转自:https://my.oschina.net/apdplat/blog/228619#OSC_h4_8 Java分布式中文分词组件 - word分词 word分词是一个Java实现的分布式的中文 ...

  8. java lucene 中文分词_Lucene的中文分词器IKAnalyzer

    分词器对英文的支持是非常好的. 一般分词经过的流程: 1)切分关键词 2)去除停用词 3)把英文单词转为小写 但是老外写的分词器对中文分词一般都是单字分词,分词的效果不好. 国人林良益写的IK Ana ...

  9. Lucene 中文分词器概述 与 Ik-Analyzer 使用教程

    目录 中文分词器简述 Ik-Analyzer 概述与特性 Ik-Analyzer 下载与使用 创建索引 查询索引 Ik-Analyzer 官方示例源码 中文分词器简述 1.Apache Lucene  ...

最新文章

  1. AIX5.3安装bash shell
  2. 十八、oracle 角色
  3. Linux内核设计与实现读书笔记
  4. 判断多个点在多边形内的在线算法
  5. dbEntry.net CK.K的高级应用
  6. Python报错:UnicodeDecodeError:‘ascii‘ codec can‘t decode byte 0xe8 in position
  7. vue3.0实现原理
  8. 数据驱动业务——梦想成真,只差一步
  9. 2014全国计算机二级ms office,2014计算机二级MS Office真题及答案
  10. python的collection系列-默认字典(defaultdict)
  11. 大学英语期末考计算机上答卷,英语期末考试质量分析
  12. php限制接口访问次数_php暂停多长时间后继续执行代码
  13. [.Net 4.0]泛型的协变,以及高阶函数对泛型的影响 Part 1
  14. 【改进】用Log4net建立日志记录
  15. html弄多个按钮_html - 一个表单中的两个提交按钮
  16. c语言的指针思维导图,指针基础知识(含思维导图)
  17. 基于STM32的NRF24L01模块一对一的问题记录
  18. AcWing1402. 星空之夜
  19. mysql主键和候选键有什么区别?
  20. 使命召唤手游服务器显示错误,使命召唤手游无法连接服务器是什么原因

热门文章

  1. ad中电容用什么封装_电容补偿柜是做什么用的?
  2. h5移动端自适应布局
  3. C语言-基础练习题详解
  4. 自定义View之绘图篇(二):路径(Path)
  5. android文件选择器_支付宝小程序设计规范(内附PSD+Sketch源文件)
  6. 对计算机知识体系的了解,浅浅而谈计算机专业知识体系(对要进入计算机专业学习的人的小小建议)...
  7. 2021年化工自动化控制仪表考试及化工自动化控制仪表证考试
  8. android 仿qq聊天背景,安卓手机qq如何修改聊天背景
  9. 变速箱控制系统(TCU)开发咨询服务
  10. 2014河北职称计算机考试模拟题,2014河北省职称计算机考试新增题