前言

LTP语言云平台

不支持离线调用;

  支持分词、词性标注、命名实体识别、依存句法分析、语义角色标注;

  不支持自定义词表,但是你可以先用其他支持自定义分词的工具(例如中科院的NLPIR)把文本进行分词,再让ltp帮你标注

支持C#、Go、Java、JavaScript、Nodejs、PHP、Python、R、Ruby等语言调用;  

还有一些错误响应、频率限制、重要说明(这几个我至今也没用到);

正文

官方网址:http://www.ltp-cloud.com/

使用文档:http://www.ltp-cloud.com/document/

在线演示:http://www.ltp-cloud.com/demo/

各种语言调用实例可以到Github上下载:https://github.com/HIT-SCIR/ltp-cloud-api-tutorial

例如Python版本的:https://github.com/HIT-SCIR/ltp-cloud-api-tutorial/tree/master/Python

Step1:注册

在这个网址申请一个API key,稍后会用到;

Step2:一个简单的例子(Python版)

(1)复制代码:从Github上复制一段代码(取决于你使用的语言和所需的功能)

(2)修改代码:

  <1>把 api_key = "YourApiKey" 中的 "YourApiKey" 修改成你Step1申请的API Key;

  <2>把 text = "我爱北京天安门" 修改成你要处理的文本;

  <3>根据需求设置不同的参数(其实只需要api_key,text,pattern,format四个参数就够了,仔细看下pattern):

   

# -*- coding: utf-8 -*-
#!/usr/bin/env python# This example shows how to use Python to access the LTP API to perform full
# stack Chinese text analysis including word segmentation, POS tagging, dep-
# endency parsing, name entity recognization and semantic role labeling and
# get the result in specified format.import urllib2, urllib
import sysif __name__ == '__main__':if len(sys.argv) < 2 or sys.argv[1] not in ["xml", "json", "conll"]:print >> sys.stderr, "usage: %s [xml/json/conll]" % sys.argv[0]sys.exit(1)uri_base = "http://ltpapi.voicecloud.cn/analysis/?"api_key  = "YourApiKey"text     = "我爱北京天安门"# Note that if your text contain special characters such as linefeed or '&',# you need to use urlencode to encode your datatext     = urllib.quote(text)format   = sys.argv[1]pattern  = "all"url      = (uri_base+ "api_key=" + api_key + "&"+ "text="    + text    + "&"+ "format="  + format  + "&"+ "pattern=" + "all")try:response = urllib2.urlopen(url)content  = response.read().strip()print contentexcept urllib2.HTTPError, e:print >> sys.stderr, e.reason

Step3:运行

如果要批量处理txt或者xml文件,需要自己写一段批量处理的代码,下边是我之前项目中用到的一段批量处理某一目录下txt文件代码(就是加了一层循环和设置了一个输出):

 1 # -*- coding: utf-8 -*-
 2 #!/usr/bin/env python
 3
 4 # This example shows how to use Python to access the LTP API to perform full
 5 # stack Chinese text analysis including word segmentation, POS tagging, dep-
 6 # endency parsing, name entity recognization and semantic role labeling and
 7 # get the result in specified format.
 8
 9 import urllib2, urllib
10 import sys
11
12 if __name__ == '__main__':
13     uri_base = "http://ltpapi.voicecloud.cn/analysis/?"
14     api_key  = "7132G4z1HE3S********DSxtNcmA1jScSE5XumAI"
15
16     f = open("E:\\PyProj\\Others\\rite_sentence.txt")
17     fw = open("E:\\PyProj\\Others\\rite_pos.txt",'w')
18
19     line = f.readline()
20     while(line):
21         text     = line
22         # Note that if your text contain special characters such as linefeed or '&',
23         # you need to use urlencode to encode your data
24         text     = urllib.quote(text)
25         format   = "plain"
26         pattern  = "pos"
27
28         url      = (uri_base
29                    + "api_key=" + api_key + "&"
30                    + "text="    + text    + "&"
31                    + "format="  + format  + "&"
32                    + "pattern=" + pattern)
33
34         try:
35             response = urllib2.urlopen(url)
36             content  = response.read().strip()
37             print content
38             fw.write(line+content+'\n')
39         except urllib2.HTTPError, e:
40             print >> sys.stderr, e.reason
41         line = f.readline()
42     fw.close()
43     f.close()

转载于:https://www.cnblogs.com/CheeseZH/p/4585176.html

ZH奶酪:自然语言处理工具LTP语言云调用方法相关推荐

  1. Python下的自然语言处理利器-LTP语言技术平台 pyltp 学习手札

    1 什么是pyltp 语言技术平台(LTP) 是由 哈工大社会计算与信息检索研究中心 11 年的持续研发而形成的一个自然语言处理工具库,其提供包括中文分词.词性标注.命名实体识别.依存句法分析.语义角 ...

  2. python语音标注平台_Python下的自然语言处理利器-LTP语言技术平台 pyltp 学习手札...

    1 什么是pyltp 语言技术平台(LTP) 是由 哈工大社会计算与信息检索研究中心 11 年的持续研发而形成的一个自然语言处理工具库,其提供包括中文分词.词性标注.命名实体识别.依存句法分析.语义角 ...

  3. ZH奶酪:Python中zip函数的使用方法

    定义:zip([iterable, -]) zip()是Python的一个内建函数,它接受一系列可迭代的对象作为参数,将对象中对应的元素打包成一个个tuple(元组),然后返回由这些 tuples组成 ...

  4. 如何使用沃顿研究数据中心(WRDS,CRSP)查询美股历史交易数据(R语言的调用方法以及代码示例)

    https://wrds-web.wharton.upenn.edu/wrds/ WRDS 沃顿商学院金融系列数据库是由宾夕法尼亚大学沃顿商学院开发的金融领域的跨库研究工具,同时也包含Compusta ...

  5. 中文自然语言处理工具介绍

    自然语言处理是人工智能领域中的一个重要方向.它研究能人机之间通讯的方式,并涉及机器对人类知识体系的学习和应用.从分词,相似度计算,情感分析,文章摘要,到学习文献,知识推理,都涉及自然语言分析.下面介绍 ...

  6. Python自然语言处理工具

    Python 自然语言处理(NLP)工具汇总 NLTK 简介: NLTK 在使用 Python 处理自然语言的工具中处于领先的地位.它提供了 WordNet 这种方便处理词汇资源的接口,以及分类.分词 ...

  7. 这个自然语言处理“工具”,玩得停不下来

    今天推荐一个有趣的自然语言处理公众号「AINLP」,关注后玩得根本停不下来!AINLP的维护者是我爱自然语言处理(52nlp)博主,他之前在腾讯从事NLP相关的研发工作,目前在一家创业公司带技术团队. ...

  8. python自然语言处理库_Python自然语言处理工具库(含中文处理)

    自然语言处理(Natural Language Processing,简称 NLP),是研究计算机处理人类语言的一门技术.随着深度学习在图像识别.语音识别领域的大放异彩,人们对深度学习在 NLP 的价 ...

  9. [读书笔记][golang]《go语言-云动力》

    花了一些时间,读了樊剑虹的<go语言-云动力>,就这本书的整体情况来讲,还是值得读一读的,书中讲了一些另辟蹊径的东西,这可能是其他go语言书中不曾有的东西,但是就专业性来讲,是不值得推荐读 ...

最新文章

  1. Windows 8 动手实验系列教程 实验8:Windows应用商店API
  2. java append concat_关于java:+ =比concat更有效吗?
  3. 叶际微生物定殖模型研究进展
  4. 自我总结(四) ---java web项目完结,j2ee的开始
  5. mac系统jmeter生成html报告,jmeter5.1.1 生成html报告
  6. boost asio resolver
  7. Error: Flash Download failed - Target DLL has been cancelled
  8. 需要单机还是集群部署_单机、集群和分布式(微服务结构)的区别
  9. mysql磁盘无法挂载,linux – 无法挂载磁盘(VFS:找不到ext4文件系统)
  10. 实战MongoDB-Replication之Master-Slave
  11. spark SQL压缩入门
  12. pycharm控制台打印时显示内容,不用省略号代替
  13. JAVA基础—适配器设计模式
  14. word多级标题下一级和上一级没有关联上
  15. 在网页输出10的阶乘.php,VB 用for循环语句编写程序,计算和输出10的阶乘
  16. 快速了解FTTx/FTTC/FTTB/FTTH
  17. 傻瓜攻略(十六)——MATLAB实现txt文件复杂内容的读取
  18. Cadence(virtuoso)集成电路设计软件基本操作——库管理
  19. 磁盘分区怎么恢复回去
  20. 冒牌网站提供假冒卡巴斯基KIS7.0下载

热门文章

  1. influx没有web_influxdb 安装及简单使用
  2. gawk如何在win7安装_WIN7系统如何安装PS2021?拯救你的WIN7再战斗一年
  3. api postmain 鉴权_认证鉴权与API权限控制在微服务架构中的设计与实现(一)
  4. 10参数_荣耀V40屏幕参数:10亿色视网膜级超感屏
  5. 用java script随机数_js中Math.random()生成指定范围数值的随机数【转】
  6. java瞎子_Java学习路线,及各方面知识点
  7. ceph搭建_如何一键搭建并管理Filecoin集群节点 | Gamma OS新功能上线
  8. 计算机专业经典书籍强烈推荐
  9. HDU-2602-Bone Collector(dp)
  10. 解决libstdc++.so.6: version `GLIBCXX_3.4.22' not found