ElasticSearch 2 (21) - 语言处理系列之单词识别

摘要

一个英语单词相对容易识别:因为英语单词是被空格或(某些)标点符号隔开的。但在英语中也有反例:you’re 这个词是一个单词还是两个?那 o’clockcooperatehalf-bakedeyewitness 这些词呢?

如德语或荷兰语这样的语言将多个独立单词组合在一起创建更长的复合词(如:Weißkopfseeadler 在英文里是 “white-headed sea eagle” 意思为“白头海鹰”)。为了使 Weißkopfseeadler 能够作为 Adler (在英文里是 “eagle” 意思为“鹰”)的查询结果返回,我们需要了解如何将复合词分解成它的各自组成部分。

亚洲的各种语言更为复杂:有些语言的词语、句子,甚至段落之间没有空格,有些语言的词语可以用单个字表示,但是当同一个字与其他字放在一起,组成一个长的词语时,新词语的意思可能截然不同。

显然万能金钥匙式的分析器并不存在,想要处理所有的语言也是天方夜谭。Elasticsearch 为很多语言都配备了专门的分析器,而且更多的语言分析器以插件形式提供。

尽管如此,不是所有的语言都有专门的分析器,有时我们并不十分清楚正在处理的语言种类。这种情况下,我们需要一组标准工具,无论对何种语言都能进行合理的处理。

版本

elasticsearch版本: elasticsearch-2.x

内容

标准分析器(standard Analyzer)

standard 分析器是所有全文 analyzed 字符串字段的默认分析器。如果我们要重新实现一个自定义的standard 分析器,可以用以下方式定义:

{"type":      "custom","tokenizer": "standard","filter":  [ "lowercase", "stop" ]
}

标记的规范化(Normalizing Tokens)停用词:性能与精度(Stopwords: Performance Versus Precision) 中,我们提到过 lowercase 小写字母和 stop token filters 停用词标记过滤器,但现在,让我们先关注 standard 标准标记器

标准标记器(standard Tokenizer)

标记器(tokenizer) 接受字符串输入,对字符串进行处理分解成独立的单词、或 标记(token)(可能会丢弃某些标点符号),然后以 标记流(token stream) 的形式作为输出。

令人感兴趣的是用来识别单词的算法。whitespace 空位标记器只是简单的在空位处(如:空格、制表符、行符等等)将单词拆解出来,并认为连续的非空位字符会组成一个标记。例如:

GET /_analyze?tokenizer=whitespace
You're the 1st runner home!

这个请求会返回以下这些词项:You'rethe1strunnerhome!

另一方面,letter 字母标记器在所有非字母处拆解,这样就会得到以下词项:Yourethestrunnerhome

standard 分析器使用 Unicode Text Segmentation 算法(定义在 Unicode Standard Annex #29 中)找到词语之间的边界,然后输出边界间的所有内容。由于采用 Unicdoe,它可以成功的对混合语言的文本进行标记。

标点符号可以作为,也可以不作为词语的一部分,这取决于它出现的地方:

GET /_analyze?tokenizer=standard
You're my 'favorite'.

本例中,You're里的撇号是作为词语的一部分的,但 'favorite' 里的引号却没有,结果中的词项为:You'remyfavorite

小贴士

uax_url_email 标记器与 standard 标记器的工作方式一样,不过它还可以识别电子邮件地址和 URL 然后将它们作为单个标记输出。与其相反,standard 标记器会尝试将它们拆解。例如:电子邮件地址 joe-bloggs@foo-bar.com 可能会被拆解成 joebloggsfoobar.com

standard 分析器是一个用来标记大多数语言的不错起点,特别是西方的语言。实际上,它是多数语言分析器的基础,如:英语法语西班牙语言分析器,但它对亚系语言的支持是有限的。对于亚系语言,我们应该考虑使用 icu_tokenizer 它以 ICU 插件的形式提供。

安装 ICU 插件(Installing the ICU Plug-in)

Elasticsearch 的 ICU 分析插件 使用 International Components for Unicode (ICU) 函数库(参见 site.project.org)为 Unicode 的处理提供了一组丰富的工具。它包括专门针对处理亚系语言的 icu_tokenizer 的分析器,以及针对除英语以外的其他语言的标记过滤器,它们对正确的匹配和排序至关重要。

注意:

ICU 插件是一个能处理英语以外其他语言的必备工具,在此强烈推荐安装使用。不幸的是,因为它是基于外部的 ICU 函数库,不同的插件版本可能不向前兼容,所以升级时可能需要重新索引我们的数据。

要安装插件,首先需要关闭 Elasticsearch 节点然后在其安装路径下执行以下命令:

./bin/plugin -install elasticsearch/elasticsearch-analysis-icu/$VERSION #1

#1 当前版本 $VERSION 可以在 https://github.com/elasticsearch/elasticsearch-analysis-icu 找到。

一旦安装成功,重启 Elasticsearch,我们会在启动日志中看到类似下面这行信息:

[INFO][plugins] [Mysterio] loaded [marvel, analysis-icu], sites [marvel]

如果我们在使用集群,需要为每个集群下的每个节点都安装这个插件。

ICU插件(icu_tokenizer

icu_tokenizer 同样使用 Unicode Text Segmentation 算法作为 standard 标准标记器,但对某些亚系语言支持得更好,因为它使用一种基于字典的方式去识别泰语、老挝语、汉语、日语和汉语里的词,并利用自定义规则将缅甸语和高棉语标记成音节。

例如,比较 standardicu_tokenizers 分析器分别生成的标记,当对 “Hello. I am from Bangkok.” 使用泰语进行标记时:

GET /_analyze?tokenizer=standard
สวัสดี ผมมาจากกรุงเทพฯ

standard 标记器生成两个标记,每个句子一个:สวัสดี, ผมมาจากกรุงเทพฯ。这只能在想搜索完整句子的时候起到作用 “I am from Bangkok”,但如果只搜索 “Bangkok” 会什么都找不到。

GET /_analyze?tokenizer=icu_tokenizer
สวัสดี ผมมาจากกรุงเทพฯ

icu_tokenizer 标记器正好相反,它能将文本拆解成多个独立的单词 (สวัสดีผมมาจากกรุงเทพฯ),这让搜索更容易。

与之形成对比的是 standard 分析器会对汉语和日语文本 “过度标记”,常常将完整的词语拆解成独立的字。因为词语之间没有任何空格,这是它难以判断连续的字是应该拆解成单独的词,还是应该组成一个词语。例如:

  • 的意思是 facing 的意思是 sun 的意思是 hollyhock。但当写在一起时,向日葵 的意思是 sunflower

  • 的意思是 fivefifth 的意思是 month 的意思是 rain。前两个字写在一起 五月 的意思是 the month of May,再加上第三个字,五月雨 的意思是 continuous rain。然后与第四个字 (意思为:style)组合,词 五月雨式 变成了个形容词,用来形容连续不断或永无止境。

尽管每个字可能都有它自己的正确意思,当能保留完整而不是部分的更多原始概念时,标记会更有意义:

GET /_analyze?tokenizer=standard
向日葵GET /_analyze?tokenizer=icu_tokenizer
向日葵

之前示例中的 standard 会将每个字作为独立标记输出:icu_tokenizer会输出单个标记 向日葵 (sunflower)。

standardicu_tokenizer 分析器还有一个区别是:后者会将不同的书写形式的词(如:βeta 被分成 βeta)拆解成独立的标记,前者会以单个标记的形式输出:βeta

清理输入文本(Tidying Up Input Text)

标记器在输入的文本整洁、有效时可以生成最佳结果,这里 有效 指的是它遵从 Unicode 算法期望的标点符号规则。但往往我们需要处理的文本就是不如我们的期望。在标记化过程之前整理好文本能有效提高输出标记的质量。

标记 HTML(Tokenizing HTML)

将 HTML 内容传入 standardicu_tokenizer 分析器的输出效果会很差。这些分析器完全不知如何处理 HTML 标签。例如:

GET /_analyzer?tokenizer=standard
<p>Some d&eacute;j&agrave; vu <a href="http://somedomain.com>">website</a>

standard 分析器无法区分 HTML 的标签和实体,输出以下标记:pSomedeacutejagravevuahrefhttpsomedomain.comwebsitea。这显然不是我们的初衷。

字符过滤器可以被加入到分析器,在文本传入标记器之前进行预处理。本例中,我们可以用 html_strip 字符过滤器先移除 HTML 标签再对 HTML 实体(如:&eacute)解码成对于的 Unicode 字符。

字符过滤器可以通过给 analyze API 提供一个查询字符串来测试:

GET /_analyzer?tokenizer=standard&char_filters=html_strip
<p>Some d&eacute;j&agrave; vu <a href="http://somedomain.com>">website</a>

为了把它们作为分析器的一部分使用,可以将它们加到一个自定义分析器定义中:

PUT /my_index
{"settings": {"analysis": {"analyzer": {"my_html_analyzer": {"tokenizer":     "standard","char_filter": [ "html_strip" ]}}}}
}

一旦创建,就可以使用 analyze API 来测试我们新的分析器 my_html_analyzer

GET /my_index/_analyzer?analyzer=my_html_analyzer
<p>Some d&eacute;j&agrave; vu <a href="http://somedomain.com>">website</a>

输出标记正如我们所想:Somedéjàvuwebsite

清理标点符号(Tidying Up Punctuation)

standardicu_tokenizer 标记器都知道单词里的撇号(’)应该作为词的一部分来处理,但不知如何处理词周围的单引号。标记文本 You're my 'favorite' 会正确输出标记:You'remyfavorite

不幸的是,Unicode 列出了一些字符有时会当作撇号处理:

  • U+0027

    撇号(')—— 原始 ASCII 字符

  • U+2018

    左单引号() —— 引用的开始符号

  • U+2019

    右单引号() —— 引用的结束符号,同时也作为撇号使用。

当它们与单词一起出现时,两个标记器都将这三个字符当作撇号处理(即作为单词的一部分)。然后有其他三个与撇号类似的字符:

  • U+201B

    反撇号( high-reversed-9)—— 与 U+2018 相同但呈现形态不一样。

  • U+0091

    ISO-8859-1 里的左单引号 —— 不应在 Unicode 中使用。

  • U+0092

    ISO-8859-1 里的右单引号 —— 不应在 Unicode 中使用。

两个标记器都将这三个字符作为词的边界进行处理,即将文本拆解成标记的位置。不幸的是,有些出版者用 U+201B 作为一种样式来表示名字 M‛coy,根据我们文本编辑器年代的不同,可以很容易的用它们制作出后两个字符。

尽管使用了“可接受”的引号,用右单引号标记的词(You’re)还是与撇号词(You're)不一样,这意味着以一种形式作为查询就无法找到另外一种形式的结果。

幸运的是,我们可以使用 mapping 映射字符过滤器来解决这个问题,它可以为我们将一个字符全文替换成另一个,这样,我们就可以将所有的撇号替换成简单的 U+0027 符号:

PUT /my_index
{"settings": {"analysis": {"char_filter": { #1"quotes": {"type": "mapping","mappings": [ #2"\\u0091=>\\u0027","\\u0092=>\\u0027","\\u2018=>\\u0027","\\u2019=>\\u0027","\\u201B=>\\u0027"]}},"analyzer": {"quotes_analyzer": {"tokenizer":     "standard","char_filter": [ "quotes" ] #3}}}}
}

#1 用自定义 char_filter 名为 quotes 的过滤器,将所有撇号的变体映射到一个简单撇号 u0027

#2 为了清楚,我们为每个字符使用 JSON Unicode 语法形式,不过我们也可以用字符本身来表示:"‘=>'"

#3 用自定义 quotes 字符过滤器来创建一个新的分析器,quotes_analyzer

同样,在创建后对其测试:

GET /my_index/_analyze?analyzer=quotes_analyzer
You’re my ‘favorite’ M‛Coy

本例中返回以下标记,所有词内的单引号都被撇号替代:You'remyfavoriteM'Coy

在确保分析器接受高质量的输入方面所花的功夫越多,搜索的结果就会越好。

参考

elastic.co: Identifying Words

ElasticSearch 2 (21) - 语言处理系列之单词识别相关推荐

  1. ElasticSearch 2 (26) - 语言处理系列之打字或拼写错误

    ElasticSearch 2 (26) - 语言处理系列之打字或拼写错误 摘要 我们喜欢在对结构化数据(如:日期和价格)做查询时,结果只返回那些能精确匹配的文档.但是,好的全文搜索不应该有这样的限制 ...

  2. ElasticSearch 2 (20) - 语言处理系列之如何开始

    ElasticSearch 2 (20) - 语言处理系列之如何开始 摘要 Elasticsearch 配备了一组语言分析器,为世界上大多数常见的语言提供良好的现成基础支持. 阿拉伯语.亚美尼亚语,巴 ...

  3. ElasticSearch 2 (25) - 语言处理系列之同义词

    ElasticSearch 2 (25) - 语言处理系列之同义词 摘要 词干提取有助于通过简化屈折词到它们词根的形式来扩展搜索的范围,而同义词是通过关联概念和想法来扩展搜索范围的.或许没有文档能与查 ...

  4. ElasticSearch 2 (16) - 深入搜索系列之近似度匹配

    ElasticSearch 2 (16) - 深入搜索系列之近似度匹配 摘要 标准的全文搜索使用TF/IDF处理文档.文档里的每个字段或一袋子词.match 查询可以告诉我们哪个袋子里面包含我们搜索的 ...

  5. 视频教程-Kali Linux渗透测试全程课与脚本语言编程系列课程-渗透测试

    Kali Linux渗透测试全程课与脚本语言编程系列课程 本人有多年的服务器高级运维与开发经验,擅长计算机与服务器攻防及网络攻防技术!对网络安全领域有持续的关注和研究! 林晓炜 ¥899.00 立即订 ...

  6. 深入学习图数据库语言Gremlin 系列文章链接汇总

    版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明. 本文链接:https://blog.csdn.net/javeme/article/detai ...

  7. ElasticSearch 2 (36) - 信息聚合系列之显著项

    ElasticSearch 2 (36) - 信息聚合系列之显著项 摘要 significant_terms(SigTerms)聚合与其他聚合都不相同.目前为止我们看到的所有聚合在本质上都是简单的数学 ...

  8. C语言入门系列一之C语言介绍、环境配置和运行执行

    鉴于书本和教材文字过多.又难懂的缺点,所以我打算写一系列通俗移动的C语言入门教程,让大家在短时间内学习和掌握C语言,以及遇到C语言的一些问题该如何得到快速的解决.希望这些系列的教程,能够帮助到大家!该 ...

  9. Go语言自学系列 | golang标准库log

    视频来源:B站<golang入门到项目实战 [2021最新Go语言教程,没有废话,纯干货!持续更新中...]> 一边学习一边整理老师的课程内容及试验笔记,并与大家分享,侵权即删,谢谢支持! ...

最新文章

  1. 经典算法题每日演练——第十一题 Bitmap算法
  2. python基础补充
  3. 谷歌提出新分类损失函数:将噪声对训练结果影响降到最低
  4. .NET 2.0 CER学习笔记
  5. 目前流行的装修风格_当下最流行十种装修风格,总有一款适合你!
  6. 【Tools】Navicat Premium12安装教程
  7. django图片上传到oss_django 配置阿里云OSS存储media文件的例子
  8. spring boot入门小案例
  9. 又有微软AI科学家流向产业,小鹏汽车迎来视觉感知负责人郭彦东
  10. java从内存角度理解类变量_深入理解volatile类型——从Java虚拟机内存模型角度...
  11. 循环神经(LSTM)网络学习总结
  12. 怎样用计算机制作思维导图,一篇文章告诉你如何绘制并运用思维导图!
  13. haosou属于搜索引擎的_搜索引擎登录工具
  14. java通过十字路口_如何正确通过十字路口 老司机教你怎么走
  15. 基于spring boot的实验自动评分系统
  16. c语言流水灯程序 16,16个发光二极管流水灯程序
  17. vmware虚拟机屏幕如何适应窗口全屏
  18. 生活随记 - 祝福大家2021年新年快乐
  19. @MapperScan和mybatis-plus.mapper-locations
  20. 微信直播怎么弄?知识干货都在这里了

热门文章

  1. 1067. [SCOI2007]降雨量【线段树】
  2. Android怎样保证一个线程最多仅仅能有一个Looper?
  3. 【Python】向函数传递列表
  4. Object类中有哪些方法
  5. 稀疏表示字典的显示(MATLAB实现代码)
  6. WindowsPhone7真机部署和调试程序
  7. PHP新手上路文件上传
  8. 西门子连接id_基于海创-IIoT可视化平台的西门子PLC数据采集
  9. selenium判断是否出现弹窗_如何判断三元催化器是否出现故障
  10. python安装的模块在pycharm中能用吗_pycharm内无法import已安装的模块问题解决