python如何爬有道翻译_Python爬虫爬有道翻译
python爬取有道翻译
实现原理
操作步骤
注意事项
实现原理
利用urllib包中的request对象模拟浏览器访问有道翻译服务器(发送相同格式的request)。
用urllib包中的parse来将数据转化为相同格式。
得到的相应通过编码之后,以dict形式取出翻译内容。
import urllib.request
import urllib.parse
import json
url = 'http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule'
while True:
content = input('请输入翻译内容:')
data = {}
data['i'] = content
data['from'] = 'AUTO'
data['to'] = 'AUTO'
data['smartresult'] = 'dict'
data['client'] = 'fanyideskweb'
data['salt'] = '15613765644784'
data['sign'] = '5caabbf646f6585277b7cebf45f18244'
data['ts'] = '1561376564478'
data['bv'] = '6074bfcb52fb292f0428cb1dd669cfb8'
data['doctype'] = 'json'
data['version'] = '2.1'
data['keyfrom'] = 'fanyi.web'
data['action'] = 'FY_BY_REALTlME'
data = urllib.parse.urlencode(data).encode('utf-8')
r = urllib.request.urlopen(url,data)
html = r.read().decode('utf-8')
target = json.loads(html)
print("翻译:%s"%(target['translateResult'][0][0]['tgt']))
print('-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-')
操作步骤
访问翻译页面,在一次翻译后捕捉提交方式为post的头文件,在此头文件中找到requestURL,这个是用来访问的地址。再找到form data,复制到py文件中并封装成dict,通过parse的方法将其变为服务器会接收的格式,通过URLopen方法进行一次访问,接收数据,处理数据。
注意事项
有道翻译已经做了反爬虫处理,需要将url中的_o去除,但是这样就只支持汉译英和外译汉了。汉语到其它语言还没法处理。
python如何爬有道翻译_Python爬虫爬有道翻译相关推荐
- python跑一亿次循环_python爬虫爬取微博评论
原标题:python爬虫爬取微博评论 python爬虫是程序员们一定会掌握的知识,练习python爬虫时,很多人会选择爬取微博练手.python爬虫微博根据微博存在于不同媒介上,所爬取的难度有差异,无 ...
- python爬取学校新闻_python爬虫爬取新闻的简单实现
我们通常是使用爬虫爬取网站信息,其实网络爬虫是一种应用于搜索引擎的程序.使用python爬虫可以将一个网站的所有内容与链接进行阅读.例如我们每日都要获取新闻信息,利用python爬虫就可以帮助我们爬取 ...
- python爬取bilibili弹幕_Python爬虫爬取Bilibili弹幕过程解析
先来思考一个问题,B站一个视频的弹幕最多会有多少? 比较多的会有2000条吧,这么多数据,B站肯定是不会直接把弹幕和这个视频绑在一起的. 也就是说,有一个视频地址为https://www.bilibi ...
- python爬图代码实例_Python爬虫爬取煎蛋网图片代码实例
这篇文章主要介绍了Python爬虫爬取煎蛋网图片代码实例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下 今天,试着爬取了煎蛋网的图片. 用到的包: ...
- python爬取微博文本_Python爬虫爬取新浪微博内容示例【基于代理IP】
本文实例讲述了Python爬虫爬取新浪微博内容.分享给大家供大家参考,具体如下: 用Python编写爬虫,爬取微博大V的微博内容,本文以女神的微博为例(爬新浪m站:https://m.weibo.cn ...
- python爬取数据步骤_Python爬虫爬取数据的步骤
爬虫: 网络爬虫是捜索引擎抓取系统(Baidu.Google等)的重要组成部分.主要目的是将互联网上的网页下载到本地,形成一个互联网内容的镜像备份. 步骤: 第一步:获取网页链接 1.观察需要爬取的多 ...
- python 谷歌翻译_python爬虫实践之谷歌翻译
目录 概述 爬取谷歌翻译,根据提供的文字进行翻译. 准备 所需模块 urllib.request execjs:执行JS代码的模块 涉及知识点 python基础 urllib模块基础 运行效果 控制台 ...
- python爬网页源码_python爬虫爬取网页的内容和网页源码不同?
可以看到这里id为k_total的元素值不同,爬出来是1,网页源码是55. 附还未完成的代码:import requests from bs4 import BeautifulSoup import ...
- python爬取豆瓣书籍_Python爬虫-爬取豆瓣图书Top250
豆瓣网站很人性化,对于新手爬虫比较友好,没有如果调低爬取频率,不用担心会被封 IP.但也不要太频繁爬取. 涉及知识点:requests.html.xpath.csv 一.准备工作 需要安装reques ...
- python爬虫爬取雪球网_Python爬虫爬取天天基金网基金排行
本文以天天基金网为例,爬取网站上的基金排行并存储在本地记事本中和MongoDB数据库中. 打开网页我们看到每页最多显示50个基金信息,在源代码中,我们发现其他页码没有跳转链接.但是我们选择右下角不分页 ...
最新文章
- WIN10python3.7配置MaskRCNN环境及demo测试(tensorflow-gpu1.x)
- dedecms--数据库
- c++ vector 先进先出_C++ STL Vector(容器)学习
- LCS(最长公共子串)系列问题
- Bash命令行历史用法【转】
- 自己动手搭建Nginx+memcache+xdebug+php运行环境绿色版 For windows版
- 深度学习论文笔记-Deep Learning Face Representation from Predicting 10,000 Classes
- python中的命名空间指什么_python中命名空间
- AMD OpenCL大学课程(13) OpenCL扩展
- CocosCreator物理引擎Demo源码分析(1)-infinite-world
- 微信小程序商城API文档
- 我是如何学习一门新技术的
- 从零开始javaweb项目——毕业设计参考指南
- 红孩儿编辑器的模块设计文档目录
- 招行汇钱到华美银行(1)
- vivo Y79的Usb调试模式在哪里,打开vivo Y79Usb调试模式的方法
- 漏洞复现 - - - Springboot未授权访问
- android开发环境安装
- 机器学习 K近邻之KD树基本概念、绘制KD树
- 浏览器必备插件|2022版