get提交数据1

get提交的数据就附在提交给服务器的url之后,以?开头参数之间以&隔开,例如/admin/user/123456.aspx?name=123&id=123
案例:写个脚本,在sogou自动搜索周杰伦,并将搜索页面的数据获取
程序如下:

import requestsquery = input("请输入一个你喜欢的明星:")url = f'https://www.sogou.com/web?query={query}'dict = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.212 Safari/537.36','Referer':'https://www.sogou.com/web?query=zhoujielun&_asf=www.sogou.com&_ast=&w=01019900&p=40040100&ie=utf8&from=index-nologin&s_from=index&sut=3117&sst0=1621925126921&lkt=11,1621925123805,1621925126101&sugsuv=001E74F4CA65D1685D50D56F6038D197&sugtime=1621925126921'
}response = requests.get(url,headers=dict)print(response)
print(response.text)

对于dict里面的内容,我们可以在浏览器手动获得,我以Chrome浏览器为例:
F12或者右键页面,找到检查,点击

找到network,如果没有数据,刷新一下,随便点击左边的内容,然后找到Request Headers,就可以找到Referer和User-Agent的值了

对于get的提交数据,使用requests.get(url,headers=dict),url是我们爬虫的页面,url也有我们提交的数据,后面增加的headers是为了反反爬虫的。
运行结果:

get提交数据2

案例:爬取豆瓣数据排行榜的数据
地址:https://movie.douban.com/typerank?type_name=%E5%96%9C%E5%89%A7&type=24&interval_id=100:90&action=


再第二个连接中我们找到了我们需要的数据

观察Headers,找到url和header参数,并且可以发现是get请求

写出程序:

import requestsurl = 'https://movie.douban.com/j/chart/top_list'
#重新封装参数
param = {'type': '24','interval_id': '100:90','action': '','start': 0,'limit': 20,
}headers={'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.212 Safari/537.36',
}
resp = requests.get(url=url,params=param,headers=headers)print(resp.json())
resp.close()

这里可以在使用get方法时使用paams指定get的参数。

post提交数据

post提交数据的方法则是直接将数据放在http的body部分

response = requests.post(url=url,data=data)

data是我们需要提交的数据,字典形式
其他和post一样

python安全攻防---爬虫基础---get和post提交数据相关推荐

  1. python安全攻防---爬虫基础---BeautifulSoup解析

    0x01 基础 使用bs4首先要安装,安装后导入 import bs4 bs对象有两个方法,一个是find,另一个是find_all find(标签名,属性值):只返回一个,返回也是bs对象,可以继续 ...

  2. python安全攻防---爬虫基础--re解析数据

    0x01 re基础 使用re模块,必须先导入re模块 import re findall():匹配所有符合正则的内容,返回的是一个列表 import restr = "我的电话:10086, ...

  3. python 3.x 爬虫基础---http headers详解

    python 3.x 爬虫基础 python 3.x 爬虫基础---http headers详解 python 3.x 爬虫基础---Urllib详解 python 3.x 爬虫基础---Requer ...

  4. python战反爬虫:爬取猫眼电影数据 (一)(Requests, BeautifulSoup, MySQLdb,re等库)

    姓名:隋顺意 博客:Sui_da_xia 微信名:世界上的霸主 本篇文章未涉及猫眼反爬,主要介绍爬取无反爬内容,战反爬内容请去 python战反爬虫:爬取猫眼电影数据 (二)(Requests, Be ...

  5. python战反爬虫:爬取猫眼电影数据 (二)(Requests, BeautifulSoup, MySQLdb,re等库)

    姓名:隋顺意 博客:Sui_da_xia 微信名:世界上的霸主 本文主要介绍破解反爬,可以先去上一篇观看爬取无反爬内容 python战反爬虫:爬取猫眼电影数据 (一)(Requests, Beauti ...

  6. python战反爬虫:爬取猫眼电影数据 (一)

    非常荣幸邀请到 赛迪人工智能大赛(简称AI世青赛)全球总决赛银奖的获得者 隋顺意 小朋友为本公众号投稿,隋小朋友虽然小小年纪,但编程能力已经比大多数大学生强非常多了,欢迎大家关注,捧场. 姓名:隋顺意 ...

  7. Python应用实战- 爬虫基础入门知识必会

    0.爬虫基础流程 把爬虫的过程模块化,基本上可以归纳为以下几个步骤: [√] 分析网页URL:打开你想要爬取数据的网站,然后寻找真实的页面数据URL地址: [√] 请求网页数据:模拟请求网页数据,这里 ...

  8. Python进阶--网络爬虫基础

    Python网络爬虫基础 一.网络请求 ProxyHandler处理器(代理): request库 发送get请求: 发送post请求: 使用代理 requests 处理cookie 信息.处理不信任 ...

  9. python安全攻防---scapy基础---计算机网络各层协议

    网络层次划分 比较常用的是TCP/IP五层协议. 0x01应用层 应用层是网络应用程序以及它们的应用层协议存留的地方.应用层协议和应用程序直接挂钩 DHCP(Dynamic Host Configur ...

最新文章

  1. mysql5.5以上开启慢查询
  2. 你的“苦劳”,真的不值钱!
  3. 互联网企业安全高级指南3.6 需要自己发明安全机制吗
  4. 【Java】如何较好地将int转化成String
  5. 气死N个女孩子的图片
  6. caffeine 4hash lfu频度记录
  7. 设置IDEA显示Services窗口,方面服务启动关停等操作
  8. Python 返回值、方法和函数的区别
  9. 《恋上数据结构第1季》二叉堆原理及实现、最小堆解决 TOP K 问题
  10. linux静态网络带宽分配策略,Xen网络带宽分配优化方案的设计与实现
  11. 查询工商单位注册信息 平台
  12. oracle官方文档下载使用
  13. 用 AlphaGo Zero 参加阿里巴巴全球调度算法大赛
  14. 微信开发者工具的使用和各个文件的作用
  15. 前端开发必配置:html5shiv.js和respond.min.js的作用说明
  16. 小爱同学控制ESP8266点灯
  17. 怎么用python扫描主机_如何调用python-nmap来实现扫描局域网存活主机(代码)
  18. Preferences DataStore全解析
  19. hdu 5510 strstr/find/KMP
  20. 台式计算机开机后黑屏,电脑开机显示黑屏有关的问题与解决方法

热门文章

  1. 九宫格有规律高亮滚动效果
  2. 富文本wangEditor的批量激活
  3. 前端生态混乱,AMPMIP在努力做标准化工作
  4. CSS3中的透明属性opacity的用法实例
  5. 行内元素,块级元素,各自特点及其相互转化
  6. js笔记(六)事件、正则
  7. luoguP4213 【模板】杜教筛(Sum)杜教筛
  8. CF1080F Katya and Segments Sets
  9. ASP.NET获取客户端、服务器端基础信息
  10. Java环境变量的设置