希望能对初学爬虫的朋友有帮助。

文章目录

  • 一、分析网页
  • 二、使用步骤
    • 1.导入库
    • 2.键盘输入内容
    • 3.构建url、headers和data参数
    • 4.发起请求,响应数据
    • 5.解析数据输出结果
  • 三、完整代码


一、分析网页

1. 打开网页,在搜索框输入百度翻译并进入百度翻译网站中。F12调出开发者工具,点击Network(网络)\ Fetch/XHR,同时在翻译框中任意输入搜索内容,此时就会发现有一个名称为sug的包。点击该包,点击后会看到有Heders、Payload、Preview和Rsponse等选项。点击Heders选项,将Request URL:后面的网址复制,这就是我们代码中需要的url

2.在Heders选项中鼠标滚轮到最下方,找到User-Agent:并将后面的参数复制,就是我们所需的headers(请求头参数)。

  3.页面中点击Payload选项,在Form Data选项下我们看到键值对的参数。前面的”键“相当于百度翻译中的搜索框,而后面的值就是我们输入的翻译内容。这部分参数就是data参数,data参数是以字典方式传递,所以这个”键“即kw就是我们所需的data参数的键

激动人心的时刻,找到以上参数就可以下一步了!!!

二、使用步骤

1.导入库

代码如下(示例):

import requests
import json

2.键盘输入内容

代码如下(示例):

fan_yi = input("请输入要翻译的内容:")    # 2.键盘输入翻译内容

该处使用的url网络请求的数据。


3.构建url、headers、data参数

这里面的headers参数因为设备不同可能会报错,大家可以根据我上面的网页分析去找自己电脑浏览器的参数,复制过来就行了。

注意事项:headers参数是以字典的形式存在的,其键和值都是字符串格式,还有User-Agent参数中的U字母和A字母都必须是大写,如果粗心写错了是会报错的哟。

代码如下(示例):

import requests     # 1.导入库
import json
fan_yi = input("请输入要翻译的内容:")    # 2.键盘输入翻译内容
url = "https://fanyi.baidu.com/sug"     # 3.写入url
headers = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) ""AppleWebKit/537.36 "}  # 4.构建headers
data = {"kw":fan_yi}    # 5.构建data
rsponse1 = requests.post(url = url,headers = headers,data = data)   # 6.发起请求
rsponse2 = rsponse1.text    # 获取响应数据
jie_xi = json.loads(rsponse2)   # 解析数据
print(jie_xi)   # 输出结果

4.发起请求,响应数据

代码如下(示例):

rsponse1 = requests.post(url = url,headers = headers,data = data)   # 发起请求
rsponse2 = rsponse1.text    # 获取响应数据

5.解析数据,输出结果

代码如下(示例):

jie_xi = json.loads(rsponse2)   # 解析数据
print(jie_xi)   # 输出结果

三、完整代码

  注意事项:headers = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) ""AppleWebKit/537.36 "} 这一部分中的"Mozilla/5.0 (Windows NT 10.0; Win64; x64) ""AppleWebKit/537.36 "我已经删减所以直接复制过去运行会报错,因按照如下图找到自己电脑浏览器的User-Agent:后面的参数复制进代码修改才行。

重要的事情讲三遍!!!:headers参数是以字典的形式存在的,其键和值都是字符串格式,还有User-Agent参数中的U字母和A字母都必须是大写,如果粗心写错了是会报错的哟。

重要的事情讲三遍!!!:headers参数是以字典的形式存在的,其键和值都是字符串格式,还有User-Agent参数中的U字母和A字母都必须是大写,如果粗心写错了是会报错的哟。

重要的事情讲三遍!!!:headers参数是以字典的形式存在的,其键和值都是字符串格式,还有User-Agent参数中的U字母和A字母都必须是大写,如果粗心写错了是会报错的哟。

方法一:中规中矩写

代码如下(示例):

import requests     # 导入库
import json
fan_yi = input("请输入要翻译的内容:")    # 键盘输入翻译内容
url = "https://fanyi.baidu.com/sug"     # 写入url
# 构建headers
headers = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) ""AppleWebKit/537.36 "}
data = {"kw":fan_yi}    构建data
rsponse1 = requests.post(url = url,headers = headers,data = data)   # 发起请求
rsponse2 = rsponse1.text    # 获取响应数据
jie_xi = json.loads(rsponse2)   # 解析数据
print(jie_xi)   # 输出结果

方法二:将代码封装到函数里

def fangYi(data1):url = "https://fanyi.baidu.com/sug"headers = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64)data = {"kw":data1}rsponse1 = requests.post(url = url,headers = headers,data = data)rsponse2 = rsponse1.content.decode()json1 = json.loads(rsponse2)print(json1)if __name__ == '__main__':while True:data1 = input("+++++请在下方输入要翻译的内容,退出请输入”no“+++++\n\t请输入要翻译的内容:")if data1 == "no":breakelse:fangYi(data1)

python实现百度翻译相关推荐

  1. python代码翻译-用python实现百度翻译的示例代码

    用python实现百度翻译,分享给大家,具体如下: 首先,需要简单的了解一下爬虫,尽可能简单快速的上手,其次,需要了解的是百度的API的接口,搞定这个之后,最后,按照官方给出的demo,然后写自己的一 ...

  2. python爬百度翻译-用python实现百度翻译

    用python实现百度翻译 首先,需要简单的了解一下爬虫,尽可能简单快速的上手,其次,需要了解的是百度的API的接口,搞定这个之后,最后,按照官方给出的demo,然后写自己的一个小程序 打开浏览器 F ...

  3. python的翻译-用python实现百度翻译的示例代码

    用python实现百度翻译,分享给大家,具体如下: 首先,需要简单的了解一下爬虫,尽可能简单快速的上手,其次,需要了解的是百度的API的接口,搞定这个之后,最后,按照官方给出的demo,然后写自己的一 ...

  4. python在线翻译脚本_用python实现百度翻译的示例代码

    用python实现百度翻译,分享给大家,具体如下: 首先,需要简单的了解一下爬虫,尽可能简单快速的上手,其次,需要了解的是百度的API的接口,搞定这个之后,最后,按照官方给出的demo,然后写自己的一 ...

  5. code vs 代码格式化排版_23行代码,教你用python实现百度翻译!(建议收藏)

    前言: 努力折腾的人生虽然不是符合完美生活,但它一定是个很精彩的人生!生命在于折腾,正如敲代码一样,你们说是吗? 文章主要介绍了用23行python代码实现百度翻译,颇有参考性,喜欢的记得转发收藏慢慢 ...

  6. python怎么读发音百度翻译-用python实现百度翻译的示例代码

    用python实现百度翻译,分享给大家,具体如下: 首先,需要简单的了解一下爬虫,尽可能简单快速的上手,其次,需要了解的是百度的API的接口,搞定这个之后,最后,按照官方给出的demo,然后写自己的一 ...

  7. python代码翻译器-用python实现百度翻译的示例代码

    用python实现百度翻译,分享给大家,具体如下: 首先,需要简单的了解一下爬虫,尽可能简单快速的上手,其次,需要了解的是百度的API的接口,搞定这个之后,最后,按照官方给出的demo,然后写自己的一 ...

  8. python怎么读发音百度翻译-用python实现百度翻译

    用python实现百度翻译 首先,需要简单的了解一下爬虫,尽可能简单快速的上手,其次,需要了解的是百度的API的接口,搞定这个之后,最后,按照官方给出的demo,然后写自己的一个小程序 打开浏览器 F ...

  9. python实现离线翻译_基于python实现百度翻译功能

    运行环境: python 3.6.0 今天处于练习的目的,就用 python 写了一个百度翻译,是如何做到的呢,其实呢就是拿到接口,通过这个接口去访问,不过中间确实是出现了点问题,不过都解决掉了 先晾 ...

  10. python调用百度翻译-Python 调用百度翻译API

    由于实习公司这边做的是日文app,有时要看看用户反馈,对于我这种五十音图都没记住的人,表示百度翻译确实还可以.但不想每次都复制粘贴啊,google被墙也是挺蛋疼的事,所以用python结合baidu ...

最新文章

  1. 一文读懂深度学习:这个AI核心技术被美国掌控,很危险
  2. SQL Server数据库重命名、数据导出等若干问题
  3. 鸿蒙开发-实现页面跳转与页面返回
  4. what should you do if you can be silent and do things
  5. netcore一键部署到linux服务器以服务方式后台运行
  6. 【转】DICOM通信 - PDU数据包(1)
  7. LeetCode 452. 用最少数量的箭打破气球(贪心)
  8. Python学习之面向对象
  9. poj2955 Brackets (区间dp)
  10. OSI参考模型和TCP/IP参考模型-详解
  11. 血淋淋的教训—将Vue项目打包成app的跨域问题
  12. 征信报告上那些你不知道的事
  13. python爬虫代码示例 动态_python动态爬虫的实例分享
  14. php 远程文件是否存在,如何通过php判断本地及远程文件是否存在
  15. python pandas常用函数_python:pandas常用功能函数操作
  16. opc服务器协议gsd,S7-300如何通过GSD文件实现PROFIBUS DP主从通讯
  17. 网狐荣耀之微星棋牌搭建ios苹果APP编译
  18. MYSQL 数据库维护常识
  19. 斐尔可(FILCO)67键迷你机械键盘 如何使用快捷键
  20. 应急响应入侵排查之第三篇常见的 Webshell 在线查杀工具

热门文章

  1. 快递物流行业总结(一)中国快递行业生命周期理论
  2. Linux XFS文件系统修复
  3. Netty(四十一) - 心跳(heartbeat)源码剖析
  4. linux系统怎么拨号上网,Linux系统下ADSL拨号上网方法
  5. python3官方说明文档_Python3 官方文档翻译 - 4.7 函数定义
  6. 卡迪夫大数据专业排名_大数据分析:英国哪个大学在国内知名度最高
  7. 用max的角度来解析blender建模!
  8. 计算机函数if使用折扣率,excel1-服装采购表题目要求
  9. ubuntu安装中的小tips
  10. matlab特征值意义,特征值 - MATLAB Simulink - MathWorks 中国