在Python里安装Jieba中文分词组件
Jieba是一个中文分词组件,可用于中文句子/词性分割、词性标注、未登录词识别,支持用户词典等功能。该组件的分词精度达到了97%以上。下载介绍在Python里安装Jieba。
1)下载Jieba
官网地址:http://pypi.python.org/pypi/jieba/
个人地址:http://download.csdn.net/detail/sanqima/9470715
2)将其解压到D:\TDDownload,如图(1)所示:
图(1)将Jieba-0.35.zip解压
3)点击电脑桌面的左下角的【开始】—》运行 —》输入: cmd —》切换到Jieba所在的目录,比如,D:\TDDownload\Jieba,依次使用如下命令:
C:\Users\Administrator>D:
D:\>cd D:\TDDownload\jieba-0.35
D:\TDDownload\jieba-0.35>python setup.py install
如图(2)所示:
图(2) 切换到Jieba目录,使用命令:python setup.py install 进行安装
3)在 PyCharm 里写一个中文分词的小程序: fenCi.py
## fenCi.py
#encoding=utf-8
import jiebaseg_list = jieba.cut("我来到北京清华大学",cut_all=True)
print "Full Mode:", "/ ".join(seg_list) #全模式seg_list = jieba.cut("我来到北京清华大学",cut_all=False)
print "Default Mode:", "/ ".join(seg_list) #精确模式seg_list = jieba.cut("他来到了网易杭研大厦") #默认是精确模式
print ", ".join(seg_list)seg_list = jieba.cut_for_search("小明硕士毕业于中国科学院计算所,后在日本京都大学深造") #搜索引擎模式
print ", ".join(seg_list)
效果如下:
图(3) Jieba进行中文分词的效果
在Python里安装Jieba中文分词组件相关推荐
- jieba中文分词组件
目录 jieba简介 组件特点 安装方法 算法 使用jieba 分词 添加自定义词典 载入词典 调整词典 关键词提取 基于 TF-IDF 算法的关键词抽取 基于 TextRank 算法的关键词抽取 词 ...
- python语言常用的中文分词第三方库是_基于boost使用Python调用NLPIR(ICTCLAS2013)中文分词组件...
最近需要用到中文分词,本来想省事,用python的第三方库结巴分词,但看了下API,计算文本关键词的方法没有没有返回关键字对应的权值,翻了下文档应该是不还不支持,只好继续使用中科院的那套ICTCLAS ...
- 3、Python 中文分词组件Jieba
在自然语言处理中,分词是一项最基本的技术.中文分词与英文分词有很大的不同,对英文而言,一个单词就是一个词,而汉语以字为基本书写单位,词语之间没有明显的区分标记,需要人为切分.现在开源的中文分词工具有 ...
- “结巴”中文分词:做最好的 Python 中文分词组件
jieba "结巴"中文分词:做最好的 Python 中文分词组件 "Jieba" (Chinese for "to stutter") C ...
- jieba库 python2.7 安装_Python中文分词工具大合集:安装、使用和测试
这篇文章事实上整合了前面两篇文章的相关介绍,同时添加一些其他的Python中文分词相关资源,甚至非Python的中文分词工具,仅供参考. 首先介绍之前测试过的8款中文分词工具,这几款工具可以直接在AI ...
- python统计词频_Python中文分词及词频统计
中文分词 中文分词(Chinese Word Segmentation),将中文语句切割成单独的词组.英文使用空格来分开每个单词的,而中文单独一个汉字跟词有时候完全不是同个含义,因此,中文分词相比英文 ...
- 简明Jieba中文分词教程(分词、关键词提取、词性标注、计算位置)
目录 0 引言 1 分词 1.1 全模式和精确模式 1.2 搜索引擎模式 1.3 HMM 模型 2 繁体字分词 3 添加自定义词典 3.1 载入词典 3.2 调整词典 4 关键词提取 4.1 基于 T ...
- jieba —— 中文分词工具 (一)
jieba 中文分词工具包 (一) 01 简介 "结巴" 中文分词:做最好的 Python 中文分词组件: "Jieba" (Chinese for " ...
- jieba分词_Jieba.el – 在Emacs中使用jieba中文分词
jieba.el 在Emacs中使用jieba中文分词 众所周知, Emacs并没有内置中文分词系统, 以至于 forward-word 和 backward-word 以及 kill-word 等以 ...
- Java分布式中文分词组件 - word分词
Java分布式中文分词组件 - word分词 word分词是一个Java实现的分布式的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义.能准确识别英文.数字,以及日期.时间等 ...
最新文章
- 【 FPGA 】7 Series FPGA中对SRL的设计指导
- python多线程库_Python多线程常用包对比
- 相机成像原理_【亲子科学小实验】相机原理和小孔成像的秘密
- python if name main 的作用_Python----基础之if __name__ == 'main': 的作用和原理
- ES6的Promise -- 逻辑执行的顺序
- poj1423---求一个大数的位数方法,我猜网站上统计输入字符少于多少位的那个算法...
- python实现梳排序
- python--图像分割GraphCut
- 从亚马逊云科技“12字战略”,看企业数字化转型的“基座”与“底色”
- codeforce 1260
- python 马赛克拼图_用几十万张图片来拼图!Open CV牛逼不是没有道理的!马赛克拼图...
- 基恩士计算机软件,【基恩士】IV 系列 开始指南 PC软件篇 (简体中文).pdf
- 格力董明珠还想再赌五年 雷军:可以试一下
- 【第二章 语言及文法】形式语言与自动机第二章个人总结复习笔记分享!(含文件、持续更新...)
- SQL SERVER 软件和安装步骤
- VScode无法只按住鼠标左键选取多行
- 移动app测试经验分享
- Android 汉字转拼音工具
- 《国家宝藏》甘肃省博物馆专场:杜淳、黄轩演绎丝路传奇
- 华为OD机试 - 斗地主之顺子