Python 爬虫-requests 和 selenium 伪装 headers 和代理应对反爬机制
- 目录
- 1、requests 伪装 headers
发送请求 - 2、selenium 模拟使用浏览器伪装
headers - 3、requests 使用 ip
代理发送请求 - 4、selenium webdriver 使用代理
ip
- 1、requests 伪装 headers
在编写爬虫的过程中,有些网站会设置反爬机制,对于非浏览器的访问拒绝响应;或短时间频繁爬取会触发网站的反爬机制,导致 ip 被封无法爬取网页。这就需要在爬虫程序中修改请求的 headers 伪装浏览器访问,或者使用代理发起请求。从而绕开网站的反爬机制获取正确的页面。
本文使用 python3.6,常用的请求库 requests 以及自动化测试库 selenium 使用浏览器。
关于这两个库的使用请参考官方文档或本人另一篇博客: python 爬虫获取网页 html 内容以及下载附件的方法。
1、requests 伪装 headers 发送请求
requests 发送的请求所带的请求头中 User-Agent 会标识为 python 程序发送的请求,如下所示:
import requestsurl = 'https://httpbin.org/headers'response = requests.get(url)if response.status_code == 200:print(response.text)
返回结果:
{"headers": {"Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Host": "httpbin.org", "User-Agent": "python-requests/2.20.1"}
}
注:https://httpbin.org 是一个开源的,用于测试网页请求的网站,比如上面的/headers的链接,将会返回所发送请求的请求头。详情请参考其官网。
User-Agent: 用户代理(英语:User Agent)指的是代表用户行为的软件代理程序所提供的对自己的一个标识符。用于标识浏览器类型及版本、操作系统及版本、浏览器内核、等信息的标识。详情见维基百科词条:User agent
对于有反爬的网站会识别其 headers 从而拒绝返回正确的网页。此时需要对发送的请求伪装成浏览器的 headers。
用浏览器打开 https://httpbin.org/headers 网站,将会看的下面的页面,这就是该浏览器的 headers。
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-71I5qEeA-1645508769471)(https://blog.csdn.net/XnCSD/article/resources/anti_crawl_strategy1.jpg)]
将上面的请求头复制下来,传给 requests.get()
函数,即可将请求伪装成浏览器。
import requestsurl = 'https://httpbin.org/headers'myheaders = {"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8","Accept-Encoding": "br, gzip, deflate","Accept-Language": "zh-cn","Host": "httpbin.org","User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/12.0.3 Safari/605.1.15"}response = requests.get(url, headers=myheaders)if response.status_code == 200:print(response.text)
返回的结果变成:
{"headers": {"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8", "Accept-Encoding": "br, gzip, deflate", "Accept-Language": "zh-cn", "Host": "httpbin.org", "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/12.0.3 Safari/605.1.15"}
}
在应用爬虫的时候,可以随机跟换其他 User-Agent 避免触发反爬。
2、selenium 模拟使用浏览器伪装 headers
使用自动化测试工具 selenium 可以模拟使用浏览器访问网站。本文使用 selenium 3.14.0 版本,该版本支持 Chrome 和 Firefox 浏览器。要使用浏览器需下载对应版本的 driver。
Driver 下载地址:
使用 webdriver 访问本身自带浏览器的 headers。
from selenium import webdriverurl = 'https://httpbin.org/headers'driver_path = '/path/to/chromedriver'
browser = webdriver.Chrome(executable_path=driver_path)
browser.get(url)print(browser.page_source)
browser.close()
打印出返回的网页代码:
<html xmlns="http://www.w3.org/1999/xhtml"><head></head><body><pre style="word-wrap: break-word; white-space: pre-wrap;">{"headers": {"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8", "Accept-Encoding": "gzip, deflate, br", "Accept-Language": "zh-CN,zh;q=0.9", "Host": "httpbin.org", "Upgrade-Insecure-Requests": "1", "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.121 Safari/537.36"}
}
</pre></body></html>
浏览器 driver 也能伪装 User-Agent,只需在创建 webdriver 浏览器对象的时候传入设置即可:
from selenium import webdriverurl = 'https://httpbin.org/headers'user_agent = "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/12.0.3 Safari/605.1.15"driver_path = '/path/to/chromedriver'opt = webdriver.ChromeOptions()
opt.add_argument('--user-agent=%s' % user_agent)browser = webdriver.Chrome(executable_path=driver_path, options=opt)
browser.get(url)print(browser.page_source)
browser.close()
此时返回的 User-Agent 就变成传入的设置了。
<html xmlns="http://www.w3.org/1999/xhtml"><head></head><body><pre style="word-wrap: break-word; white-space: pre-wrap;">{"headers": {"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8", "Accept-Encoding": "gzip, deflate, br", "Accept-Language": "zh-CN,zh;q=0.9", "Host": "httpbin.org", "Upgrade-Insecure-Requests": "1", "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/12.0.3 Safari/605.1.15"}
}
</pre></body></html>
Firefox 浏览器 driver 的设置有所不同:
from selenium import webdriverurl = 'https://httpbin.org/headers'user_agent = "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/12.0.3 Safari/605.1.15"driver_path = '/path/to/geckodriver'profile = webdriver.FirefoxProfile()
profile.set_preference("general.useragent.override", user_agent)browser = webdriver.Firefox(executable_path=driver_path, firefox_profile=profile)
browser.get(url)print(browser.page_source)
browser.close()
3、requests 使用 ip 代理发送请求
当一个 ip 短时间访问太过频繁时,网站的反爬机制会被触发,将会要求输入验证码甚至封锁 ip 禁止访问。此时需要使用代理 ip 发起请求才可获取正确的网页。
访问 https://httpbin.org/ip 网址可以查看自己的 ip。
import requestsurl = 'https://httpbin.org/ip'
response = requests.get(url)
print(response.text)
返回本机网络的ip:
{"origin": "202.121.167.254, 202.121.167.254"
}
使用代理 IP 与1中伪装 headers 的方式相似,比如现在得到一个代理ip:58.58.213.55:8888,使用如下:
import requestsproxy = {'http': 'http://58.58.213.55:8888','https': 'http://58.58.213.55:8888'
}
response = requests.get('https://httpbin.org/ip', proxies=proxy)
print(response.text)
返回的就是代理 ip
{"origin": "58.58.213.55, 58.58.213.55"
}
4、selenium webdriver 使用代理 ip
chrome driver 使用代理 ip 的方式与伪装 user-agent 相似:
from selenium import webdriverurl = 'https://httpbin.org/ip'
proxy = '58.58.213.55:8888'
driver_path = '/path/to/chromedriver'
opt = webdriver.ChromeOptions()
opt.add_argument('--proxy-server=' + proxy)browser = webdriver.Chrome(executable_path=driver_path, options=opt)
browser.get(url)
print(browser.page_source)
browser.close()
打印结果:
<html xmlns="http://www.w3.org/1999/xhtml"><head></head><body><pre style="word-wrap: break-word; white-space: pre-wrap;">{"origin": "58.58.213.55, 58.58.213.55"
}
</pre></body></html>
firefox driver 的设置略有不同,并且需要下载浏览器扩展 close_proxy_authentication
取消代理用户认证。可通过谷歌下载,本文使用 firefox 65.0.1 (64 位) 版本,可用的扩展文件是: close_proxy_authentication-1.1-sm+tb+fx.xpi。
代码如下:
from selenium import webdriverurl = 'https://httpbin.org/ip'
proxy_ip = '58.58.213.55'
proxy_port = 8888
xpi = '/path/to/close_proxy_authentication-1.1-sm+tb+fx.xpi'
driver_path = '/path/to/geckodriver'profile = webdriver.FirefoxProfile()
profile.set_preference('network.proxy.type', 1)
profile.set_preference('network.proxy.http', proxy_ip)
profile.set_preference('network.proxy.http_port', proxy_port)
profile.set_preference('network.proxy.ssl', proxy_ip)
profile.set_preference('network.proxy.ssl_port', proxy_port)
profile.set_preference('network.proxy.no_proxies_on', 'localhost, 127.0.0.1')
profile.add_extension(xpi) browser = webdriver.Firefox(executable_path=driver_path, firefox_profile=profile)
browser.get(url)
print(browser.page_source)
browser.close()
打印的同样是代理 ip。
<html platform="mac" class="theme-light" dir="ltr"><head><meta http-equiv="Content-Security-Policy" content="default-src 'none' ; script-src resource:; "><link rel="stylesheet" type="text/css" href="resource://devtools-client-jsonview/css/main.css"></head><body><div id="content"><div id="json">{"origin": "58.58.213.55, 58.58.213.55"
}
</div></div><script src="resource://devtools-client-jsonview/lib/require.js" data-main="resource://devtools-client-jsonview/viewer-config.js"></script></body></html>
转:https://blog.csdn.net/XnCSD/article/details/88615791
Python 爬虫-requests 和 selenium 伪装 headers 和代理应对反爬机制相关推荐
- selenium成功绕过淘宝登录反爬机制!
userAgent 信息与正常模式不一致 Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Hea ...
- selenium 成功绕过淘宝登录反爬机制(headless模式)
Selenium在使用headless模式时,有以下几个问题 userAgent 信息与正常模式不一致 Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit ...
- 爬取某热搜榜,headers添加Cookie应对反爬
今天利用xpath爬取某热搜榜相关数据.首先导入相关模块,设定url和请求头,获取html字符串. from lxml import etree import requests import char ...
- selenium 成功绕过淘宝登录反爬机制
前言 selenium + webdriver 在登录淘宝时会出现反爬滑块,该滑块无论怎么滑也滑不成功,只会出现 哎呀,出错了,点击刷新再来一次 有两个问题存在,导致 selenium + webdr ...
- python爬虫知识点总结(十三)使用代理处理反扒抓取微信文章
待更新 转载于:https://www.cnblogs.com/cthon/p/9424501.html
- python爬虫: 使用knn算法破解猫眼动态字体反爬
猫眼字体反爬 动态变化的字形使用阈值判断误差率较大,甚至看到有的老哥使用ocr去搞-,大概两个月前,第一次看到有大佬使用knn算法搞字体反爬(源码地址),听说效果不错,一直没有时间去尝试,不仅仅是没有 ...
- 从入门到入土:Python爬虫学习|实例练手|爬取百度翻译|Selenium出击|绕过反爬机制|
此博客仅用于记录个人学习进度,学识浅薄,若有错误观点欢迎评论区指出.欢迎各位前来交流.(部分材料来源网络,若有侵权,立即删除) 本人博客所有文章纯属学习之用,不涉及商业利益.不合适引用,自当删除! 若 ...
- day19 学习python爬虫——requests和bs4
day19 学习python爬虫--requests和bs4 一.requests使用详解 import requests 1.发送请求 requests.get(请求地址) - 直接获取请求地址对应 ...
- Python爬虫---requests模块的基本使用
Python爬虫-requests模块的基本使用 基础 什么是爬虫? 就是通过编写程序模拟浏览器上网,然后让其去互联网上爬取数据的过程. 爬虫的分类 通用爬虫 抓取互联网中的一整张页面数据 聚焦爬虫 ...
- Python爬虫 — requests模块(1)
Requests 唯一的一个非转基因的 Python HTTP 库,人类可以安全享用. 警告:非专业使用其他 HTTP 库会导致危险的副作用,包括:安全缺陷症.冗余代码症.重新发明轮子症.啃文档症.抑 ...
最新文章
- CNN如何用于NLP任务?一文简述文本分类任务的7个模型(附代码)
- Linux系统vi编辑器执行命令,linux下vi编辑器命令
- 2021年上半年系统集成项目管理工程师综合知识真题及答案解析
- 索引更新:刚发布的文章就能被搜到,这是怎么做到的?
- ajax调用后台java方法,jquery ajax再次封装,前台调用后台java方法直接返回数据
- python字典长度可变吗_[python] 根据字典中的信息生成列表,每次都会额外变长。...
- linux7 yum安装Mysql5.7
- Atitit topic index Abt 150 toic [原]Atitit hi dev eff topic by use dsl sql coll op 提升开发效率sql ds
- android开发中常用的Eclipse快捷键详细整理
- Symbian S60第三版软件精选介绍
- java通过url获取网页内容_java通过url获取网页内容
- 磁盘 IO 真的比网络 IO 快吗?
- Educational Codeforces Round 92 (Rated for Div. 2) 题解 (A到G)
- 三角形周长最短问题_一次函数动点问题:求三角形周长最小值
- 求 Fibonacci 数列的前 20 项
- 基于Python的头脑王者脚本(纯娱乐)
- matlab中啥叫字符串,在matlab中( )用于括住字符串.
- Qt的基本控件——显示控件
- 一些关于HTML与CSS的总结与实际应用
- 【t101】小明搬家
热门文章
- 二维数组和稀疏数组转化
- php有的图片显示不出来,图片显示不出来,但是数据库里有显示
- Java基础,无需使用复杂语句,实现输出0-130之间的数字,每行显示7个数字。
- python爬虫运行一遍后再运行不成功_python爬虫 - pyspdier run时运行到on_start就停止 但是单步调试可继续...
- LintCode—合并两个排序链表(165)
- gitlab + gitlab-runner 集成 CICD
- Let’s Encrypt 推动了 HTTPS 的普及
- 高并发的常见策略--大型web项目
- Confuser.crproj
- winForm连接数据库(sqlserver2005)