python爬虫程序requests采用get和post方式
第1个爬虫程序:
main.py
#! python
# -*- coding: utf-8 -*-
from urllib.request import urlopen
url = "https://www.hao123.com/"if __name__ == '__main__':resp = urlopen(url)# 把读取到网页的页面源代码写入myGetFile.html文件with open("myGetFile.html", mode="w", encoding='utf-8') as f:f.write(resp.read().decode('utf-8'))f.close() # 关闭文件resp.close() # 关闭resp响应print("结束")
第2个爬虫程序:
main2.py
# -*- coding: utf-8 -*-
import requestsif __name__ == '__main__':query = input("请输入一个你喜欢的明星:")url = f"https://www.baidu.com/s?ie=utf-8&f=8&rsv_bp=1&srcqid=5655130659909863611&tn=50000021_hao_pg&wd={query}"dic = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) ""Chrome/93.0.4577.63 Safari/537.36 Edg/93.0.961.47"}resp = requests.get(url, headers=dic) # 处理一个小小的反爬# print(resp)# print(resp.text) # 打印读取到的网页的页面源代码# 把读取到网页的页面源代码写入myGetFile.html文件with open("myGetFile.html", mode="w", encoding='utf-8') as f:f.write(resp.text) # 读取到网页的页面源代码f.close() # 关闭文件resp.close() # 关闭resp响应连接print("结束")
第3个爬虫程序:
main3.py
# -*- coding: utf-8 -*-
import requestsif __name__ == '__main__':url = "https://fanyi.baidu.com/sug"s = input("请输入你要翻译的英文单词:")# 要翻译的英文单词dat = {"kw": s}# 用户代理dicHeaders = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) ""Chrome/93.0.4577.63 Safari/537.36 Edg/93.0.961.47"}# 发送post请求,发送的数据必须放在字典中,通过data参数进行传递resp = requests.post(url, headers=dicHeaders, data=dat)# print(resp.text)# 将服务器返回的内容直接处理成json(),就是字典格式print(resp.json())resp.close() # 关闭resp响应连接print("结束")
第4个爬虫程序:
main4.py
# -*- coding: utf-8 -*-
import requestsif __name__ == '__main__':url = "https://movie.douban.com/j/chart/top_list"# 参数dicParam = {"type": "24","interval_id": "100:90","action": "","start": "0","limit": "20"}# 用户代理dicHeaders = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) ""Chrome/93.0.4577.63 Safari/537.36 Edg/93.0.961.47"}# 发送get请求,发送的数据必须放在字典中,通过params参数进行传递resp = requests.get(url=url, params=dicParam, headers=dicHeaders) # 处理小小的反爬# print(resp.text)# 将服务器返回的内容直接处理成json(),就是字典格式# print(resp.json())objData = resp.json()# 打印信息for i in range(0, len(objData)):print(objData[i])resp.close() # 关闭resp响应连接print("结束")
第5个爬虫程序:
main5.py
# -*- coding: utf-8 -*-
import requestsif __name__ == '__main__':url = "https://movie.douban.com/j/chart/top_list"# 进行连续2轮获取数据,每轮20个数据for n in range(0, 2):# 参数dicParam = {"type": "24","interval_id": "100:90","action": "","start": f"{20*n}","limit": "20"}# 用户代理dicHeaders = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) ""Chrome/93.0.4577.63 Safari/537.36 Edg/93.0.961.47"}# 发送post请求,发送的数据必须放在字典中,通过data参数进行传递resp = requests.get(url=url, params=dicParam, headers=dicHeaders) # 处理小小的反爬# print(resp.text)# 将服务器返回的内容直接处理成json(),就是字典格式# print(resp.json())objData = resp.json()print(f"第{n+1}轮20个数据:")# 打印信息for i in range(0, len(objData)):print(objData[i])resp.close() # 关闭resp响应连接print("结束")
关注公众号,获取更多资料
python爬虫程序requests采用get和post方式相关推荐
- python爬虫基础-requests库
python爬虫基础-requests库 python爬虫 1.什么是爬虫? 通过编写程序,模拟浏览器上网,然后让其去互联网上抓取数据的过程. 注意:浏览器抓取的数据对应的页面是一个完整的页面. 为什 ...
- 一个简单的python爬虫程序
#简介 在每次论文被拒再投的过程中,都需要查询最近的与自己论文相关的会议列表.每到这种情况,我一遍采用的是遍历会伴www.myhuiban.com的网站,然后逐个查看会议,关注的有三点,投稿日期,cc ...
- 关于python爬虫(requests)设置http代理的源码demo
科技不断发展,网络给我们带来了便利,但有时候也会遇到问题,当我们在网络中畅游时,很可能遇到IP受限导致的访问不了这种事情,这个时候我们就需要使用到http代理IP. 那么如何判断自己遇到的是访问受限呢 ...
- python爬取换页_一个可识别翻页的简易Python爬虫程序
同学拿出一个需求:从某课程教学网站上爬取所有课程的主页面,以及课程简介栏目内容. 于是在之前做的那个练手级的Python爬虫程序中进行修改,最终实现了该功能.与之前那个爬虫不同,这里每一个大类的课程下 ...
- php运行python爬虫_群晖系统中运行python爬虫程序
重要:本文最后更新于2021-01-28 17:02:43,某些文章具有时效性,若有错误或已失效,请在下方留言或联系代码狗. 准备入手一台NAS,事先的学习是必须的,今天在VM虚拟机中安装好NAS后, ...
- Python 异步,协程,学起来好头疼,Python爬虫程序能调用GPU去爬东西吗?
78 技术人社群日报时间 文章目录 Python 爬虫程序能调用 GPU 去爬东西吗? Python 异步,协程--,学起来好头疼 有没有牛子大的说下 `matplotlib` 里 `plot` 和 ...
- python 爬虫 数据抓取的三种方式
python 爬虫 数据抓取的三种方式 常用抽取网页数据的方式有三种:正则表达式.Beautiful Soup.lxml 1.正则表达式 正则表达式有个很大的缺点是难以构造.可读性差.不易适用未来 ...
- python爬虫百科-Python爬虫之requests库介绍(一)
虽然Python的标准库中 urllib2 模块已经包含了平常我们使用的大多数功能,但是它的 API 使用起来让人感觉不太好,而 Requests 自称 "HTTP for Humans&q ...
- Python爬虫之Requests的基础运用
1. Requests库的简介与安装 2. Requests请求方式 2.1 GET请求 2.2 POST请求 2.3 获取响应内容 3. Requests模块简单的使用 3.1 搭建简易采集器 3. ...
最新文章
- jakarta_迁移到Jakarta EE 9
- (转)Mat, vectorpoint2f,Iplimage等等常见类型转换
- iPhone开发过程中调试多次Release问题 message sent to deallocated
- sklearn综合示例5:多分类分类器
- Numpy Math functions
- sqlServer 获取最新的一条数据
- python语言能做什么-python语言可以干什么
- 将[a=1,b=2] 转为对象
- 数据结构——>单向环形链表
- DOTA版设计模式——责任链
- php引用()详解及注意事项
- 项目管理之敏捷开发之道
- PingTunnel隧道搭建
- 初入算法岗的切身经验之谈:干什么?怎么干?如何学?
- iPhone录音转文字怎么操作?手把手教你详细流程
- Java生成二维码图片,手机软件扫码后跳转网页
- 高档微型计算机,五款中高端声卡综合横向评测
- 帝国cms php循环,帝国CMS listshowclass循环栏目标签
- Vue源码翻译之渲染逻辑链
- 数据库工程师考点2023