记录爬虫实战——有道翻译(反js加密)
- 首先在from data里面观察哪些是加密了的数据
- 然后找到js文件格式化后观察加密方式
- 代码如下
import time
import random
from urllib import request, parsetimes = time.time() * 1000
salt = str(times + random.randint(0, 9))def getMD5(v):import hashlibmd5 = hashlib.md5()v = v.encode()md5.update(v)v = md5.hexdigest()return vdef getSign(key):sign = 'fanyideskweb' + key + salt + 'n%A-rKaT5fb[Gy?;N5@Tj'sign = getMD5(sign)return signdef translate(key):url = 'http://fanyi.youdao.com/translate_o?smartresult=dict&smartresult=rule'data = {'i': key,'from': 'AUTO','to': 'AUTO','smartresult': 'dict','client': 'fanyideskweb','salt': salt,'sign': getSign(key),'ts': str(times),'bv': getMD5('5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36'),'doctype': 'json','version': '2.1','keyfrom': 'fanyi.web','action': 'FY_BY_REALTlME'}print(data)data = parse.urlencode(data).encode()headers ={'Accept': 'application/json, text/javascript, */*; q=0.01',#'Accept-Encoding': 'gzip, deflate','Accept - Language': 'zh-CN,zh;q=0.9','Connection': 'keep-alive','Content - Length': len(data),'Content - Type': 'application/x-www-form-urlencoded; charset=UTF-8','Cookie': 'OUTFOX_SEARCH_USER_ID=-1478268751@10.169.0.83; JSESSIONID=aaaO_E15KjQgHhbgWhbYw; OUTFOX_SEARCH_USER_ID_NCOO=440425545.9314584; ___rl__test__cookies=1565584849062','Host': 'fanyi.youdao.com','Origin': 'http://fanyi.youdao.com','Referer': 'http://fanyi.youdao.com/','User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36','X-Requested-With': 'XMLHttpRequest'}req = request.Request(url=url, data=data, headers=headers)rsp = request.urlopen(req)html = rsp.read().decode()print(html)if __name__ == '__main__':word = input('请输入你要翻译的单词或短语:')translate(word)
记录爬虫实战——有道翻译(反js加密)相关推荐
- 用Python破解有道翻译反爬虫机制
破解有道翻译反爬虫机制 web端的有道翻译,在之前是直接可以爬的.也就是说只要获取到了他的接口,你就可以肆无忌惮的使用他的接口进行翻译而不需要支付任何费用.那么自从有道翻译推出他的API服务的时候,就 ...
- 有道翻译反反爬虫(python)
有道翻译反反爬虫(python) 该博客创作于2021/6/30,之后有失效可能 作为一个初学者,花两天时间破解了有道翻译的反爬虫系统,故为之文以记之. 参考文章:博客1博客2 以上博客均已失效但有助 ...
- python实战:利用chrome抓包插件HTTP间谍分析有道翻译反爬机制
本次实战目标站点:http://fanyi.youdao.com/?keyfrom=fanyi-new.logo ,主要利用HTTP间谍抓包插件分析有道翻译反爬机制,该抓包能帮我们过滤掉一些不需要的常 ...
- python爬虫模拟有道翻译
python爬虫模拟有道翻译 案例目的: 通过模拟有道翻译,介绍携带form表单发送post请求以及破解form表单中的加密数据. 案例实现功能: 模拟有道翻译,实现中英互译. 爬取过程分析: 找到目 ...
- Python(4) 用Python破解有道翻译反爬虫机制
web端的有道翻译,在之前是直接可以爬的.也就是说只要获取到了他的接口,你就可以肆无忌惮的使用他的接口进行翻译而不需要支付任何费用.那么自从有道翻译推出他的API服务的时候,就对这个接口做一个反爬虫机 ...
- 爬虫入门经典(二十) | 破解JS加密之有道翻译
大家好,我是不温卜火,是一名计算机学院大数据专业大三的学生,昵称来源于成语-不温不火,本意是希望自己性情温和.作为一名互联网行业的小白,博主写博客一方面是为了记录自己的学习过程,另一方面是总结自己 ...
- Python爬虫破解有道翻译
有道翻译是以异步方式实现数据加载的,要实现对此类网站的数据抓取,其过程相对繁琐,本节我以有道翻译为例进行详细讲解. 通过控制台抓包,我们得知了 POST 请求的参数以及相应的参数值,如下所示: 图1: ...
- 教你用Python爬虫自制有道翻译词典
Python爬虫能够实现的功能有很多,就看你如何去使用它了.今天小千就来教大家如何去利用Python爬虫自制一个有道翻译词典. 首先打开有道翻译页面,尝试输入hello,就出现翻译了,可以自动翻译.有 ...
- python3爬虫有道翻译_一篇文章教会你利用Python网络爬虫获取有道翻译手机版的翻译接口...
[一.项目背景] 有道翻译作为国内最大的翻译软件之一,用户量巨大.在学习时遇到不会的英语词汇,会第一时间找翻译,有道翻译就是首选.今天教大家如何去获取有道翻译手机版的翻译接口. ![image](ht ...
最新文章
- 量化人类社会交互行为
- 06.Java虚拟机问题
- JDBC高级特性3--JNDI,连接池,分布式事务
- Java中创建对象的几种方式
- python3基础语法-Python3入门(三)——Python基础语法
- Android异步下载
- 排序算法 | 堆排序,算法的图解、实现、复杂度和稳定性分析
- vue项目接口地址暴露_vue项目打包后可以配置接口地址的方法
- GUI实战|Python做一个文档图片提取软件
- [黑马程序员五]:常用的T-SQL语句
- JavaUtils - 文件操作
- 从小一看到数字,脑子里就开始搞颜色......
- 谷歌开源 TensorFlow 的简化库 JAX
- phoshop cs6软件提示试用版已过期,怎么办
- 并操作、差操作、广义积操作
- 超实用的工具、素材、学习网站分享
- H3CIE(WLAN)学习笔记(2)——通信原理基础
- This tag and its children can be replaced by one TextView/ and a compound drawable
- 玩转#ChatGPT之“用Chat GPT 做出行攻略”
- 关于0x3f3f3f3f(0x四个3f)