第1个爬虫程序:
main.py

#! python
# -*- coding: utf-8 -*-
from urllib.request import urlopen
url = "https://www.hao123.com/"if __name__ == '__main__':resp = urlopen(url)# 把读取到网页的页面源代码写入myGetFile.html文件with open("myGetFile.html", mode="w", encoding='utf-8') as f:f.write(resp.read().decode('utf-8'))f.close()  # 关闭文件resp.close()  # 关闭resp响应print("结束")

第2个爬虫程序:
main2.py

# -*- coding: utf-8 -*-
import requestsif __name__ == '__main__':query = input("请输入一个你喜欢的明星:")url = f"https://www.baidu.com/s?ie=utf-8&f=8&rsv_bp=1&srcqid=5655130659909863611&tn=50000021_hao_pg&wd={query}"dic = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) ""Chrome/93.0.4577.63 Safari/537.36 Edg/93.0.961.47"}resp = requests.get(url, headers=dic)  # 处理一个小小的反爬# print(resp)# print(resp.text)  # 打印读取到的网页的页面源代码# 把读取到网页的页面源代码写入myGetFile.html文件with open("myGetFile.html", mode="w", encoding='utf-8') as f:f.write(resp.text)  # 读取到网页的页面源代码f.close()  # 关闭文件resp.close()  # 关闭resp响应连接print("结束")

第3个爬虫程序:
main3.py

# -*- coding: utf-8 -*-
import requestsif __name__ == '__main__':url = "https://fanyi.baidu.com/sug"s = input("请输入你要翻译的英文单词:")# 要翻译的英文单词dat = {"kw": s}# 用户代理dicHeaders = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) ""Chrome/93.0.4577.63 Safari/537.36 Edg/93.0.961.47"}# 发送post请求,发送的数据必须放在字典中,通过data参数进行传递resp = requests.post(url, headers=dicHeaders, data=dat)# print(resp.text)# 将服务器返回的内容直接处理成json(),就是字典格式print(resp.json())resp.close()  # 关闭resp响应连接print("结束")

第4个爬虫程序:
main4.py

# -*- coding: utf-8 -*-
import requestsif __name__ == '__main__':url = "https://movie.douban.com/j/chart/top_list"# 参数dicParam = {"type": "24","interval_id": "100:90","action": "","start": "0","limit": "20"}# 用户代理dicHeaders = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) ""Chrome/93.0.4577.63 Safari/537.36 Edg/93.0.961.47"}# 发送get请求,发送的数据必须放在字典中,通过params参数进行传递resp = requests.get(url=url, params=dicParam, headers=dicHeaders)  # 处理小小的反爬# print(resp.text)# 将服务器返回的内容直接处理成json(),就是字典格式# print(resp.json())objData = resp.json()# 打印信息for i in range(0, len(objData)):print(objData[i])resp.close()  # 关闭resp响应连接print("结束")

第5个爬虫程序:
main5.py

# -*- coding: utf-8 -*-
import requestsif __name__ == '__main__':url = "https://movie.douban.com/j/chart/top_list"# 进行连续2轮获取数据,每轮20个数据for n in range(0, 2):# 参数dicParam = {"type": "24","interval_id": "100:90","action": "","start": f"{20*n}","limit": "20"}# 用户代理dicHeaders = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) ""Chrome/93.0.4577.63 Safari/537.36 Edg/93.0.961.47"}# 发送post请求,发送的数据必须放在字典中,通过data参数进行传递resp = requests.get(url=url, params=dicParam, headers=dicHeaders)  # 处理小小的反爬# print(resp.text)# 将服务器返回的内容直接处理成json(),就是字典格式# print(resp.json())objData = resp.json()print(f"第{n+1}轮20个数据:")# 打印信息for i in range(0, len(objData)):print(objData[i])resp.close()  # 关闭resp响应连接print("结束")

关注公众号,获取更多资料

python爬虫程序requests采用get和post方式相关推荐

  1. python爬虫基础-requests库

    python爬虫基础-requests库 python爬虫 1.什么是爬虫? 通过编写程序,模拟浏览器上网,然后让其去互联网上抓取数据的过程. 注意:浏览器抓取的数据对应的页面是一个完整的页面. 为什 ...

  2. 一个简单的python爬虫程序

    #简介 在每次论文被拒再投的过程中,都需要查询最近的与自己论文相关的会议列表.每到这种情况,我一遍采用的是遍历会伴www.myhuiban.com的网站,然后逐个查看会议,关注的有三点,投稿日期,cc ...

  3. 关于python爬虫(requests)设置http代理的源码demo

    科技不断发展,网络给我们带来了便利,但有时候也会遇到问题,当我们在网络中畅游时,很可能遇到IP受限导致的访问不了这种事情,这个时候我们就需要使用到http代理IP. 那么如何判断自己遇到的是访问受限呢 ...

  4. python爬取换页_一个可识别翻页的简易Python爬虫程序

    同学拿出一个需求:从某课程教学网站上爬取所有课程的主页面,以及课程简介栏目内容. 于是在之前做的那个练手级的Python爬虫程序中进行修改,最终实现了该功能.与之前那个爬虫不同,这里每一个大类的课程下 ...

  5. php运行python爬虫_群晖系统中运行python爬虫程序

    重要:本文最后更新于2021-01-28 17:02:43,某些文章具有时效性,若有错误或已失效,请在下方留言或联系代码狗. 准备入手一台NAS,事先的学习是必须的,今天在VM虚拟机中安装好NAS后, ...

  6. Python 异步,协程,学起来好头疼,Python爬虫程序能调用GPU去爬东西吗?

    78 技术人社群日报时间 文章目录 Python 爬虫程序能调用 GPU 去爬东西吗? Python 异步,协程--,学起来好头疼 有没有牛子大的说下 `matplotlib` 里 `plot` 和 ...

  7. python 爬虫 数据抓取的三种方式

    python 爬虫   数据抓取的三种方式 常用抽取网页数据的方式有三种:正则表达式.Beautiful Soup.lxml 1.正则表达式 正则表达式有个很大的缺点是难以构造.可读性差.不易适用未来 ...

  8. python爬虫百科-Python爬虫之requests库介绍(一)

    虽然Python的标准库中 urllib2 模块已经包含了平常我们使用的大多数功能,但是它的 API 使用起来让人感觉不太好,而 Requests 自称 "HTTP for Humans&q ...

  9. Python爬虫之Requests的基础运用

    1. Requests库的简介与安装 2. Requests请求方式 2.1 GET请求 2.2 POST请求 2.3 获取响应内容 3. Requests模块简单的使用 3.1 搭建简易采集器 3. ...

最新文章

  1. jakarta_迁移到Jakarta EE 9
  2. (转)Mat, vectorpoint2f,Iplimage等等常见类型转换
  3. iPhone开发过程中调试多次Release问题 message sent to deallocated
  4. sklearn综合示例5:多分类分类器
  5. Numpy Math functions
  6. sqlServer 获取最新的一条数据
  7. python语言能做什么-python语言可以干什么
  8. 将[a=1,b=2] 转为对象
  9. 数据结构——>单向环形链表
  10. DOTA版设计模式——责任链
  11. php引用()详解及注意事项
  12. 项目管理之敏捷开发之道
  13. PingTunnel隧道搭建
  14. 初入算法岗的切身经验之谈:干什么?怎么干?如何学?
  15. iPhone录音转文字怎么操作?手把手教你详细流程
  16. Java生成二维码图片,手机软件扫码后跳转网页
  17. 高档微型计算机,五款中高端声卡综合横向评测
  18. 帝国cms php循环,帝国CMS listshowclass循环栏目标签
  19. Vue源码翻译之渲染逻辑链
  20. 数据库工程师考点2023

热门文章

  1. 浏览器拦截跨域请求处理方法(已阻止跨源请求:同源策略禁止读取远程资源)
  2. 最常用的15个前端表单验证JS正则表达式
  3. 【CentOS 7笔记】cp、mv、文档查看方式
  4. 李洪强iOS开发之FMDB线程安全的用法
  5. Nginx严格访问代理HTTP资源
  6. django使用LDAP验证
  7. 推荐系统相关资源汇总
  8. 程序员到底要不要重复造轮子?
  9. Java中的Runnable、Callable、Future、FutureTask的区别与示例
  10. 多个left join 产生多个结果