python中文分词

一、jieba分词

1、精确模式(默认):试图将句子最精确地切开,适合文本分析;

seg = jieba.cut(“这是一段中文字符”, cut_all  = False)

不加cut_all 为默认的精确模式

2、全模式,把句子中所有的可以成词的词语都扫描出来,但是不能解决歧义;

seg = jieba.cut(“这是一段中文字符”, cut_all  = True)

3、搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,该方法适合用于搜索引擎构建倒排索引的分词,粒度比较细。

seg =jieba.cut_for_search(“这是一段关于结巴分词的中文句子”)

搜索引擎模式

注意:jieba.cut以及jieba.cut_for_search返回的结构都是一个可迭代的 generator,并不是一个list列表

二、哈工大LTP

1、LTP在docker中的使用

1、在github上下载Dockerfile文件

直接new一个ltp file,new一个Dockerfile文件,把github上的Dockerfile 内容直接粘贴下来

2、运行docker build -t ltp/ltp .

注意要在ltp文件夹中run terminal

3、在配置中给docker运行给予足够大的内存。我们这里设置了6G运行内存。

采用默认的配置,未进行内存设置

4、使用如下命令启动容器,这里的8080是映射到本地的端口号,可以根据需要改动为其 他未占用的端口:

docker run -d -p 8080:12345 ltp/ltp /ltp_server --last-stage all

5、使用如下命令测试服务器是否部署成功。启动后可能需要等待数十秒的模型加载时间。:

curl -d "s=他点头表示同意我的意见。&f=xml&t=all" http://127.0.0.1:8080/ltp

测试成功后按照文档使用即可

2、源码的编译安装

1、下载源码和model

注意源码要和模型的版本对应
存放的路径要注意(我直接把模型提取到源码的文件夹中)

2、安装cmake

cmake的安装在linux下建议直接
pip install cmake
(cmake官网下载安装时出现了错误)

3、直接在根目录中运行

./configure
make

4、然后参考文档

使用ltp_test \ltp_server
以及各种命令行 xxx_cmdline

3、python 调用封装好的pyltp

注意安装时python3.7会失败
from pyltp import 各个模块的功能

三、中科院NLPIR

两种使用方式

1、直接使用封装好的nlpir

pip install nlpir 就可以安装好
直接import nlpir 就可以调用

缺点:功能少,不如直接用jieba

2、使用NLPIR接口

利用官方文档,要在电脑上搭建swig
(了解比较少)

四、总结

jieba最为简洁,python中的使用最为方便,可以满足基本的分词需求
nlp功能较多,文档完善,除分词外还具有词性分析等功能,但是源码、模型版本较多,安装起来复杂
nlpir直接调用的功能少,不如直接用jieba分词;搭建swig,了解不多

一家直言,如有偏颇,请您直接指出

python中文分词的主要方法相关推荐

  1. 【NLP】jieba分词-Python中文分词领域的佼佼者

    1. jieba的江湖地位 NLP(自然语言)领域现在可谓是群雄纷争,各种开源组件层出不穷,其中一支不可忽视的力量便是jieba分词,号称要做最好的 Python 中文分词组件. "最好的& ...

  2. 中文分词算法python_Python FMM算法的中文分词器实现方法源码

    这是一篇基于Python代码使用FMM算法达到中文分词效果实现方法的文章.中文语句分词因为编码的关系在Python语言中并不是很好处理,关于中文乱码与编码的问题解决方法,可以参考玩蛇网的Python中 ...

  3. 『开发技术』Python中文分词工具SnowNLP教程

    介绍一个好用多功能的Python中文分词工具SnowNLP,全称Simplified Chinese Text Processing.在实现分词的同时,提供转换成拼音(Trie树实现的最大匹配)及繁体 ...

  4. “结巴”中文分词:做最好的 Python 中文分词组件

    jieba "结巴"中文分词:做最好的 Python 中文分词组件 "Jieba" (Chinese for "to stutter") C ...

  5. [工具]python中文分词---【jieba】

    jieba "结巴"中文分词:做最好的 Python 中文分词组件 "Jieba" (Chinese for "to stutter") C ...

  6. python 中文分词_python中文分词,使用结巴分词对python进行分词(实例讲解)

    在采集 中文分词是中文文本处理的一个基础性工作,结巴分词利用进行中文分词. 其基本实现原理有三点: 1.基于Trie树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG) ...

  7. python中文分词---jieba

    原文地址:http://blog.csdn.net/sherlockzoom/article/details/44566425 jieba "结巴"中文分词:做最好的 Python ...

  8. 资源 | Python中文分词工具大合集

    跟着博主的脚步,每天进步一点点 这篇文章事实上整合了之前文章的相关介绍,同时添加一些其他的Python中文分词相关资源,甚至非Python的中文分词工具,仅供参考. 首先介绍之前测试过的8款中文分词工 ...

  9. Python中文分词工具大合集:安装、使用和测试

    转自:AINLP 这篇文章事实上整合了之前文章的相关介绍,同时添加一些其他的Python中文分词相关资源,甚至非Python的中文分词工具,仅供参考. 首先介绍之前测试过的8款中文分词工具,这几款工具 ...

  10. python将横转为竖,Python中文竖排显示的方法

    Python中文竖排显示的方法 本文实例讲述了Python中文竖排显示的方法.分享给大家供大家参考.具体如下: 这里将中文竖排显示 比如 衣食者人之生利也,然且犹尚有节,葬埋者人之死利也,夫何独无节於 ...

最新文章

  1. 《自然》重磅:清华团队首次提出“类脑计算完备性”,智源学者张悠慧等为共同一作...
  2. python文件引用其他文件中的变量
  3. python- is和id
  4. 1230: 最小花费(spfa)
  5. mysql fulltext索引
  6. 一点等于多少厘米_马桶知识介绍,你了解马桶多少
  7. 理论基础 —— 排序 —— 鸡尾酒排序
  8. Getting Contexts 获得上下文
  9. 数据结构和算法详解(二)——线性表(数组、链表、栈、队列)
  10. SimpleGIS在线地图插件
  11. 飞天技术汇大视频专场:全民视频时代下的创新技术之路
  12. linux下开机自动启动文件夹在哪里设置,Linux设置开机自启动的方法【linux学习教程】...
  13. post man以Content-type: application/octet-stream方式请求api
  14. 互联网大厂薪资最全揭秘:阿里巴巴
  15. 数据库查询近一年来的数据(近三个月、近六个月同理)
  16. citrix ADC VPX Models整理
  17. html自定义select样式,自定义select样式
  18. 自学篇之如何高效地学习网络安全
  19. python+opencv实现NCC模板旋转匹配(图像处理)
  20. 隐藏攻击面,提升信息安全防范能力

热门文章

  1. 编程中的c语言32个英文代码,C语言图形编程代码(国外英文资料).doc
  2. 2020软件测试报告模板
  3. 中国34个省级行政区2000年-2021年逐月NDVI统计分析结果
  4. Vue源码学习目录(持续更新中)
  5. 阿里巴巴JAVA开发手册----(二)异常日志
  6. openWRT提示JFFS2-partition seems full
  7. html5图片自动轮播纯代码,HTML5的自定义data-*实现图片切换或者轮播(代码实例)...
  8. 基于JSP和MYSQL数据库实现的请假管理系统
  9. 8uftp连接服务器设置
  10. cmpp java代码_cmpp.java 源代码在线查看 - cmpp的开发的短信端口实例 资源下载 虫虫电子下载站...