• 首先在from data里面观察哪些是加密了的数据
  • 然后找到js文件格式化后观察加密方式
  • 代码如下
import time
import random
from urllib import request, parsetimes = time.time() * 1000
salt = str(times + random.randint(0, 9))def getMD5(v):import hashlibmd5 = hashlib.md5()v = v.encode()md5.update(v)v = md5.hexdigest()return vdef getSign(key):sign = 'fanyideskweb' + key + salt + 'n%A-rKaT5fb[Gy?;N5@Tj'sign = getMD5(sign)return signdef translate(key):url = 'http://fanyi.youdao.com/translate_o?smartresult=dict&smartresult=rule'data = {'i': key,'from': 'AUTO','to': 'AUTO','smartresult': 'dict','client': 'fanyideskweb','salt': salt,'sign': getSign(key),'ts': str(times),'bv': getMD5('5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36'),'doctype': 'json','version': '2.1','keyfrom': 'fanyi.web','action': 'FY_BY_REALTlME'}print(data)data = parse.urlencode(data).encode()headers ={'Accept': 'application/json, text/javascript, */*; q=0.01',#'Accept-Encoding': 'gzip, deflate','Accept - Language': 'zh-CN,zh;q=0.9','Connection': 'keep-alive','Content - Length': len(data),'Content - Type': 'application/x-www-form-urlencoded; charset=UTF-8','Cookie': 'OUTFOX_SEARCH_USER_ID=-1478268751@10.169.0.83; JSESSIONID=aaaO_E15KjQgHhbgWhbYw; OUTFOX_SEARCH_USER_ID_NCOO=440425545.9314584; ___rl__test__cookies=1565584849062','Host': 'fanyi.youdao.com','Origin': 'http://fanyi.youdao.com','Referer': 'http://fanyi.youdao.com/','User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36','X-Requested-With': 'XMLHttpRequest'}req = request.Request(url=url, data=data, headers=headers)rsp = request.urlopen(req)html = rsp.read().decode()print(html)if __name__ == '__main__':word = input('请输入你要翻译的单词或短语:')translate(word)

记录爬虫实战——有道翻译(反js加密)相关推荐

  1. 用Python破解有道翻译反爬虫机制

    破解有道翻译反爬虫机制 web端的有道翻译,在之前是直接可以爬的.也就是说只要获取到了他的接口,你就可以肆无忌惮的使用他的接口进行翻译而不需要支付任何费用.那么自从有道翻译推出他的API服务的时候,就 ...

  2. 有道翻译反反爬虫(python)

    有道翻译反反爬虫(python) 该博客创作于2021/6/30,之后有失效可能 作为一个初学者,花两天时间破解了有道翻译的反爬虫系统,故为之文以记之. 参考文章:博客1博客2 以上博客均已失效但有助 ...

  3. python实战:利用chrome抓包插件HTTP间谍分析有道翻译反爬机制

    本次实战目标站点:http://fanyi.youdao.com/?keyfrom=fanyi-new.logo ,主要利用HTTP间谍抓包插件分析有道翻译反爬机制,该抓包能帮我们过滤掉一些不需要的常 ...

  4. python爬虫模拟有道翻译

    python爬虫模拟有道翻译 案例目的: 通过模拟有道翻译,介绍携带form表单发送post请求以及破解form表单中的加密数据. 案例实现功能: 模拟有道翻译,实现中英互译. 爬取过程分析: 找到目 ...

  5. Python(4) 用Python破解有道翻译反爬虫机制

    web端的有道翻译,在之前是直接可以爬的.也就是说只要获取到了他的接口,你就可以肆无忌惮的使用他的接口进行翻译而不需要支付任何费用.那么自从有道翻译推出他的API服务的时候,就对这个接口做一个反爬虫机 ...

  6. 爬虫入门经典(二十) | 破解JS加密之有道翻译

      大家好,我是不温卜火,是一名计算机学院大数据专业大三的学生,昵称来源于成语-不温不火,本意是希望自己性情温和.作为一名互联网行业的小白,博主写博客一方面是为了记录自己的学习过程,另一方面是总结自己 ...

  7. Python爬虫破解有道翻译

    有道翻译是以异步方式实现数据加载的,要实现对此类网站的数据抓取,其过程相对繁琐,本节我以有道翻译为例进行详细讲解. 通过控制台抓包,我们得知了 POST 请求的参数以及相应的参数值,如下所示: 图1: ...

  8. 教你用Python爬虫自制有道翻译词典

    Python爬虫能够实现的功能有很多,就看你如何去使用它了.今天小千就来教大家如何去利用Python爬虫自制一个有道翻译词典. 首先打开有道翻译页面,尝试输入hello,就出现翻译了,可以自动翻译.有 ...

  9. python3爬虫有道翻译_一篇文章教会你利用Python网络爬虫获取有道翻译手机版的翻译接口...

    [一.项目背景] 有道翻译作为国内最大的翻译软件之一,用户量巨大.在学习时遇到不会的英语词汇,会第一时间找翻译,有道翻译就是首选.今天教大家如何去获取有道翻译手机版的翻译接口. ![image](ht ...

最新文章

  1. 量化人类社会交互行为
  2. 06.Java虚拟机问题
  3. JDBC高级特性3--JNDI,连接池,分布式事务
  4. Java中创建对象的几种方式
  5. python3基础语法-Python3入门(三)——Python基础语法
  6. Android异步下载
  7. 排序算法 | 堆排序,算法的图解、实现、复杂度和稳定性分析
  8. vue项目接口地址暴露_vue项目打包后可以配置接口地址的方法
  9. GUI实战|Python做一个文档图片提取软件
  10. [黑马程序员五]:常用的T-SQL语句
  11. JavaUtils - 文件操作
  12. 从小一看到数字,脑子里就开始搞颜色......
  13. 谷歌开源 TensorFlow 的简化库 JAX
  14. phoshop cs6软件提示试用版已过期,怎么办
  15. 并操作、差操作、广义积操作
  16. 超实用的工具、素材、学习网站分享
  17. H3CIE(WLAN)学习笔记(2)——通信原理基础
  18. This tag and its children can be replaced by one TextView/ and a compound drawable
  19. 玩转#ChatGPT之“用Chat GPT 做出行攻略”
  20. 关于0x3f3f3f3f(0x四个3f)

热门文章

  1. Pepper停产之后,家庭服务机器人的未来产品形态,会是四足机器人吗
  2. 最基础的协同过滤介绍
  3. oracle 日期函数
  4. 计算机网络—CSMA/CD协议
  5. c#字符型转化为asc_C#中使用强制类型实现字符串和ASCII码之间的转换
  6. 2015年中国青年生活形态调查报告
  7. MySQL主从不一致的修复过程(r10笔记第96天)
  8. linux修复引导工具,linux 修复引导工具
  9. 通过JS解析手机浏览器UA标志中的各种设备信息
  10. 初识C语言——冒泡排序法