python爬取有道翻译

实现原理

操作步骤

注意事项

实现原理

利用urllib包中的request对象模拟浏览器访问有道翻译服务器(发送相同格式的request)。

用urllib包中的parse来将数据转化为相同格式。

得到的相应通过编码之后,以dict形式取出翻译内容。

import urllib.request

import urllib.parse

import json

url = 'http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule'

while True:

content = input('请输入翻译内容:')

data = {}

data['i'] = content

data['from'] = 'AUTO'

data['to'] = 'AUTO'

data['smartresult'] = 'dict'

data['client'] = 'fanyideskweb'

data['salt'] = '15613765644784'

data['sign'] = '5caabbf646f6585277b7cebf45f18244'

data['ts'] = '1561376564478'

data['bv'] = '6074bfcb52fb292f0428cb1dd669cfb8'

data['doctype'] = 'json'

data['version'] = '2.1'

data['keyfrom'] = 'fanyi.web'

data['action'] = 'FY_BY_REALTlME'

data = urllib.parse.urlencode(data).encode('utf-8')

r = urllib.request.urlopen(url,data)

html = r.read().decode('utf-8')

target = json.loads(html)

print("翻译:%s"%(target['translateResult'][0][0]['tgt']))

print('-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-')

操作步骤

访问翻译页面,在一次翻译后捕捉提交方式为post的头文件,在此头文件中找到requestURL,这个是用来访问的地址。再找到form data,复制到py文件中并封装成dict,通过parse的方法将其变为服务器会接收的格式,通过URLopen方法进行一次访问,接收数据,处理数据。

注意事项

有道翻译已经做了反爬虫处理,需要将url中的_o去除,但是这样就只支持汉译英和外译汉了。汉语到其它语言还没法处理。

python如何爬有道翻译_Python爬虫爬有道翻译相关推荐

  1. python跑一亿次循环_python爬虫爬取微博评论

    原标题:python爬虫爬取微博评论 python爬虫是程序员们一定会掌握的知识,练习python爬虫时,很多人会选择爬取微博练手.python爬虫微博根据微博存在于不同媒介上,所爬取的难度有差异,无 ...

  2. python爬取学校新闻_python爬虫爬取新闻的简单实现

    我们通常是使用爬虫爬取网站信息,其实网络爬虫是一种应用于搜索引擎的程序.使用python爬虫可以将一个网站的所有内容与链接进行阅读.例如我们每日都要获取新闻信息,利用python爬虫就可以帮助我们爬取 ...

  3. python爬取bilibili弹幕_Python爬虫爬取Bilibili弹幕过程解析

    先来思考一个问题,B站一个视频的弹幕最多会有多少? 比较多的会有2000条吧,这么多数据,B站肯定是不会直接把弹幕和这个视频绑在一起的. 也就是说,有一个视频地址为https://www.bilibi ...

  4. python爬图代码实例_Python爬虫爬取煎蛋网图片代码实例

    这篇文章主要介绍了Python爬虫爬取煎蛋网图片代码实例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下 今天,试着爬取了煎蛋网的图片. 用到的包: ...

  5. python爬取微博文本_Python爬虫爬取新浪微博内容示例【基于代理IP】

    本文实例讲述了Python爬虫爬取新浪微博内容.分享给大家供大家参考,具体如下: 用Python编写爬虫,爬取微博大V的微博内容,本文以女神的微博为例(爬新浪m站:https://m.weibo.cn ...

  6. python爬取数据步骤_Python爬虫爬取数据的步骤

    爬虫: 网络爬虫是捜索引擎抓取系统(Baidu.Google等)的重要组成部分.主要目的是将互联网上的网页下载到本地,形成一个互联网内容的镜像备份. 步骤: 第一步:获取网页链接 1.观察需要爬取的多 ...

  7. python 谷歌翻译_python爬虫实践之谷歌翻译

    目录 概述 爬取谷歌翻译,根据提供的文字进行翻译. 准备 所需模块 urllib.request execjs:执行JS代码的模块 涉及知识点 python基础 urllib模块基础 运行效果 控制台 ...

  8. python爬网页源码_python爬虫爬取网页的内容和网页源码不同?

    可以看到这里id为k_total的元素值不同,爬出来是1,网页源码是55. 附还未完成的代码:import requests from bs4 import BeautifulSoup import ...

  9. python爬取豆瓣书籍_Python爬虫-爬取豆瓣图书Top250

    豆瓣网站很人性化,对于新手爬虫比较友好,没有如果调低爬取频率,不用担心会被封 IP.但也不要太频繁爬取. 涉及知识点:requests.html.xpath.csv 一.准备工作 需要安装reques ...

  10. python爬虫爬取雪球网_Python爬虫爬取天天基金网基金排行

    本文以天天基金网为例,爬取网站上的基金排行并存储在本地记事本中和MongoDB数据库中. 打开网页我们看到每页最多显示50个基金信息,在源代码中,我们发现其他页码没有跳转链接.但是我们选择右下角不分页 ...

最新文章

  1. WIN10python3.7配置MaskRCNN环境及demo测试(tensorflow-gpu1.x)
  2. dedecms--数据库
  3. c++ vector 先进先出_C++ STL Vector(容器)学习
  4. LCS(最长公共子串)系列问题
  5. Bash命令行历史用法【转】
  6. 自己动手搭建Nginx+memcache+xdebug+php运行环境绿色版 For windows版
  7. 深度学习论文笔记-Deep Learning Face Representation from Predicting 10,000 Classes
  8. python中的命名空间指什么_python中命名空间
  9. AMD OpenCL大学课程(13) OpenCL扩展
  10. CocosCreator物理引擎Demo源码分析(1)-infinite-world
  11. 微信小程序商城API文档
  12. 我是如何学习一门新技术的
  13. 从零开始javaweb项目——毕业设计参考指南
  14. 红孩儿编辑器的模块设计文档目录
  15. 招行汇钱到华美银行(1)
  16. vivo Y79的Usb调试模式在哪里,打开vivo Y79Usb调试模式的方法
  17. 漏洞复现 - - - Springboot未授权访问
  18. android开发环境安装
  19. 机器学习 K近邻之KD树基本概念、绘制KD树
  20. 浏览器必备插件|2022版

热门文章

  1. 计算机开机界面用户如何删除,电脑开机用户去掉登录界面方法
  2. python基础项目 --爬取金山词霸翻译功能
  3. 【三】rabbitmq消费者ACK机制message acknowledgment
  4. 博乐科技2022校招内推
  5. ctf.show misc入门 21~40
  6. 广X斜Y-1顶岗纪实
  7. Xi说孔方兄之名字由来
  8. CF1137A/1138C Skyscrapers
  9. VC++农历与公历转换
  10. DQL 数据查询语⾔