• 目录

    • 1、requests 伪装 headers
      发送请求
    • 2、selenium 模拟使用浏览器伪装
      headers
    • 3、requests 使用 ip
      代理发送请求
    • 4、selenium webdriver 使用代理
      ip

在编写爬虫的过程中,有些网站会设置反爬机制,对于非浏览器的访问拒绝响应;或短时间频繁爬取会触发网站的反爬机制,导致 ip 被封无法爬取网页。这就需要在爬虫程序中修改请求的 headers 伪装浏览器访问,或者使用代理发起请求。从而绕开网站的反爬机制获取正确的页面。

本文使用 python3.6,常用的请求库 requests 以及自动化测试库 selenium 使用浏览器。
关于这两个库的使用请参考官方文档或本人另一篇博客: python 爬虫获取网页 html 内容以及下载附件的方法。

1、requests 伪装 headers 发送请求

requests 发送的请求所带的请求头中 User-Agent 会标识为 python 程序发送的请求,如下所示:

import requestsurl = 'https://httpbin.org/headers'response = requests.get(url)if response.status_code == 200:print(response.text)

返回结果:

{"headers": {"Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Host": "httpbin.org", "User-Agent": "python-requests/2.20.1"}
}

注:https://httpbin.org 是一个开源的,用于测试网页请求的网站,比如上面的/headers的链接,将会返回所发送请求的请求头。详情请参考其官网。

User-Agent: 用户代理(英语:User Agent)指的是代表用户行为的软件代理程序所提供的对自己的一个标识符。用于标识浏览器类型及版本、操作系统及版本、浏览器内核、等信息的标识。详情见维基百科词条:User agent

对于有反爬的网站会识别其 headers 从而拒绝返回正确的网页。此时需要对发送的请求伪装成浏览器的 headers。

用浏览器打开 https://httpbin.org/headers 网站,将会看的下面的页面,这就是该浏览器的 headers。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-71I5qEeA-1645508769471)(https://blog.csdn.net/XnCSD/article/resources/anti_crawl_strategy1.jpg)]

将上面的请求头复制下来,传给 requests.get() 函数,即可将请求伪装成浏览器。

import requestsurl = 'https://httpbin.org/headers'myheaders = {"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8","Accept-Encoding": "br, gzip, deflate","Accept-Language": "zh-cn","Host": "httpbin.org","User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/12.0.3 Safari/605.1.15"}response = requests.get(url, headers=myheaders)if response.status_code == 200:print(response.text)

返回的结果变成:

{"headers": {"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8", "Accept-Encoding": "br, gzip, deflate", "Accept-Language": "zh-cn", "Host": "httpbin.org", "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/12.0.3 Safari/605.1.15"}
}

在应用爬虫的时候,可以随机跟换其他 User-Agent 避免触发反爬。

2、selenium 模拟使用浏览器伪装 headers

使用自动化测试工具 selenium 可以模拟使用浏览器访问网站。本文使用 selenium 3.14.0 版本,该版本支持 Chrome 和 Firefox 浏览器。要使用浏览器需下载对应版本的 driver。

Driver 下载地址:

使用 webdriver 访问本身自带浏览器的 headers。

from selenium import webdriverurl = 'https://httpbin.org/headers'driver_path = '/path/to/chromedriver'
browser = webdriver.Chrome(executable_path=driver_path)
browser.get(url)print(browser.page_source)
browser.close()

打印出返回的网页代码:

<html xmlns="http://www.w3.org/1999/xhtml"><head></head><body><pre style="word-wrap: break-word; white-space: pre-wrap;">{"headers": {"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8", "Accept-Encoding": "gzip, deflate, br", "Accept-Language": "zh-CN,zh;q=0.9", "Host": "httpbin.org", "Upgrade-Insecure-Requests": "1", "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.121 Safari/537.36"}
}
</pre></body></html>

浏览器 driver 也能伪装 User-Agent,只需在创建 webdriver 浏览器对象的时候传入设置即可:

from selenium import webdriverurl = 'https://httpbin.org/headers'user_agent = "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/12.0.3 Safari/605.1.15"driver_path = '/path/to/chromedriver'opt = webdriver.ChromeOptions()
opt.add_argument('--user-agent=%s' % user_agent)browser = webdriver.Chrome(executable_path=driver_path, options=opt)
browser.get(url)print(browser.page_source)
browser.close()

此时返回的 User-Agent 就变成传入的设置了。

<html xmlns="http://www.w3.org/1999/xhtml"><head></head><body><pre style="word-wrap: break-word; white-space: pre-wrap;">{"headers": {"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8", "Accept-Encoding": "gzip, deflate, br", "Accept-Language": "zh-CN,zh;q=0.9", "Host": "httpbin.org", "Upgrade-Insecure-Requests": "1", "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/12.0.3 Safari/605.1.15"}
}
</pre></body></html>

Firefox 浏览器 driver 的设置有所不同:

from selenium import webdriverurl = 'https://httpbin.org/headers'user_agent = "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/12.0.3 Safari/605.1.15"driver_path = '/path/to/geckodriver'profile = webdriver.FirefoxProfile()
profile.set_preference("general.useragent.override", user_agent)browser = webdriver.Firefox(executable_path=driver_path, firefox_profile=profile)
browser.get(url)print(browser.page_source)
browser.close()

3、requests 使用 ip 代理发送请求

当一个 ip 短时间访问太过频繁时,网站的反爬机制会被触发,将会要求输入验证码甚至封锁 ip 禁止访问。此时需要使用代理 ip 发起请求才可获取正确的网页。

访问 https://httpbin.org/ip 网址可以查看自己的 ip。

import requestsurl = 'https://httpbin.org/ip'
response = requests.get(url)
print(response.text)

返回本机网络的ip:

{"origin": "202.121.167.254, 202.121.167.254"
}

使用代理 IP 与1中伪装 headers 的方式相似,比如现在得到一个代理ip:58.58.213.55:8888,使用如下:

import requestsproxy = {'http': 'http://58.58.213.55:8888','https': 'http://58.58.213.55:8888'
}
response = requests.get('https://httpbin.org/ip', proxies=proxy)
print(response.text)

返回的就是代理 ip

{"origin": "58.58.213.55, 58.58.213.55"
}

4、selenium webdriver 使用代理 ip

chrome driver 使用代理 ip 的方式与伪装 user-agent 相似:

from selenium import webdriverurl = 'https://httpbin.org/ip'
proxy = '58.58.213.55:8888'
driver_path = '/path/to/chromedriver'
opt = webdriver.ChromeOptions()
opt.add_argument('--proxy-server=' + proxy)browser = webdriver.Chrome(executable_path=driver_path, options=opt)
browser.get(url)
print(browser.page_source)
browser.close()

打印结果:

<html xmlns="http://www.w3.org/1999/xhtml"><head></head><body><pre style="word-wrap: break-word; white-space: pre-wrap;">{"origin": "58.58.213.55, 58.58.213.55"
}
</pre></body></html>

firefox driver 的设置略有不同,并且需要下载浏览器扩展 close_proxy_authentication 取消代理用户认证。可通过谷歌下载,本文使用 firefox 65.0.1 (64 位) 版本,可用的扩展文件是: close_proxy_authentication-1.1-sm+tb+fx.xpi。

代码如下:

from selenium import webdriverurl = 'https://httpbin.org/ip'
proxy_ip = '58.58.213.55'
proxy_port = 8888
xpi = '/path/to/close_proxy_authentication-1.1-sm+tb+fx.xpi'
driver_path = '/path/to/geckodriver'profile = webdriver.FirefoxProfile()
profile.set_preference('network.proxy.type', 1)
profile.set_preference('network.proxy.http', proxy_ip)
profile.set_preference('network.proxy.http_port', proxy_port)
profile.set_preference('network.proxy.ssl', proxy_ip)
profile.set_preference('network.proxy.ssl_port', proxy_port)
profile.set_preference('network.proxy.no_proxies_on', 'localhost, 127.0.0.1')
profile.add_extension(xpi)  browser = webdriver.Firefox(executable_path=driver_path, firefox_profile=profile)
browser.get(url)
print(browser.page_source)
browser.close()

打印的同样是代理 ip。

<html platform="mac" class="theme-light" dir="ltr"><head><meta http-equiv="Content-Security-Policy" content="default-src 'none' ; script-src resource:; "><link rel="stylesheet" type="text/css" href="resource://devtools-client-jsonview/css/main.css"></head><body><div id="content"><div id="json">{"origin": "58.58.213.55, 58.58.213.55"
}
</div></div><script src="resource://devtools-client-jsonview/lib/require.js" data-main="resource://devtools-client-jsonview/viewer-config.js"></script></body></html>

转:https://blog.csdn.net/XnCSD/article/details/88615791

Python 爬虫-requests 和 selenium 伪装 headers 和代理应对反爬机制相关推荐

  1. selenium成功绕过淘宝登录反爬机制!

    userAgent 信息与正常模式不一致 Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Hea ...

  2. selenium 成功绕过淘宝登录反爬机制(headless模式)

    Selenium在使用headless模式时,有以下几个问题 userAgent 信息与正常模式不一致 Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit ...

  3. 爬取某热搜榜,headers添加Cookie应对反爬

    今天利用xpath爬取某热搜榜相关数据.首先导入相关模块,设定url和请求头,获取html字符串. from lxml import etree import requests import char ...

  4. selenium 成功绕过淘宝登录反爬机制

    前言 selenium + webdriver 在登录淘宝时会出现反爬滑块,该滑块无论怎么滑也滑不成功,只会出现 哎呀,出错了,点击刷新再来一次 有两个问题存在,导致 selenium + webdr ...

  5. python爬虫知识点总结(十三)使用代理处理反扒抓取微信文章

    待更新 转载于:https://www.cnblogs.com/cthon/p/9424501.html

  6. python爬虫: 使用knn算法破解猫眼动态字体反爬

    猫眼字体反爬 动态变化的字形使用阈值判断误差率较大,甚至看到有的老哥使用ocr去搞-,大概两个月前,第一次看到有大佬使用knn算法搞字体反爬(源码地址),听说效果不错,一直没有时间去尝试,不仅仅是没有 ...

  7. 从入门到入土:Python爬虫学习|实例练手|爬取百度翻译|Selenium出击|绕过反爬机制|

    此博客仅用于记录个人学习进度,学识浅薄,若有错误观点欢迎评论区指出.欢迎各位前来交流.(部分材料来源网络,若有侵权,立即删除) 本人博客所有文章纯属学习之用,不涉及商业利益.不合适引用,自当删除! 若 ...

  8. day19 学习python爬虫——requests和bs4

    day19 学习python爬虫--requests和bs4 一.requests使用详解 import requests 1.发送请求 requests.get(请求地址) - 直接获取请求地址对应 ...

  9. Python爬虫---requests模块的基本使用

    Python爬虫-requests模块的基本使用 基础 什么是爬虫? 就是通过编写程序模拟浏览器上网,然后让其去互联网上爬取数据的过程. 爬虫的分类 通用爬虫 抓取互联网中的一整张页面数据 聚焦爬虫 ...

  10. Python爬虫 — requests模块(1)

    Requests 唯一的一个非转基因的 Python HTTP 库,人类可以安全享用. 警告:非专业使用其他 HTTP 库会导致危险的副作用,包括:安全缺陷症.冗余代码症.重新发明轮子症.啃文档症.抑 ...

最新文章

  1. CNN如何用于NLP任务?一文简述文本分类任务的7个模型(附代码)
  2. Linux系统vi编辑器执行命令,linux下vi编辑器命令
  3. 2021年上半年系统集成项目管理工程师综合知识真题及答案解析
  4. 索引更新:刚发布的文章就能被搜到,这是怎么做到的?
  5. ajax调用后台java方法,jquery ajax再次封装,前台调用后台java方法直接返回数据
  6. python字典长度可变吗_[python] 根据字典中的信息生成列表,每次都会额外变长。...
  7. linux7 yum安装Mysql5.7
  8. Atitit topic index Abt 150 toic [原]Atitit hi dev eff topic by use dsl sql coll op 提升开发效率sql ds
  9. android开发中常用的Eclipse快捷键详细整理
  10. Symbian S60第三版软件精选介绍
  11. java通过url获取网页内容_java通过url获取网页内容
  12. 磁盘 IO 真的比网络 IO 快吗?
  13. Educational Codeforces Round 92 (Rated for Div. 2) 题解 (A到G)
  14. 三角形周长最短问题_一次函数动点问题:求三角形周长最小值
  15. 求 Fibonacci 数列的前 20 项
  16. 基于Python的头脑王者脚本(纯娱乐)
  17. matlab中啥叫字符串,在matlab中( )用于括住字符串.
  18. Qt的基本控件——显示控件
  19. 一些关于HTML与CSS的总结与实际应用
  20. 【t101】小明搬家

热门文章

  1. 二维数组和稀疏数组转化
  2. php有的图片显示不出来,图片显示不出来,但是数据库里有显示
  3. Java基础,无需使用复杂语句,实现输出0-130之间的数字,每行显示7个数字。
  4. python爬虫运行一遍后再运行不成功_python爬虫 - pyspdier run时运行到on_start就停止 但是单步调试可继续...
  5. LintCode—合并两个排序链表(165)
  6. gitlab + gitlab-runner 集成 CICD
  7. Let’s Encrypt 推动了 HTTPS 的普及
  8. 高并发的常见策略--大型web项目
  9. Confuser.crproj
  10. winForm连接数据库(sqlserver2005)