ProxyPool 爬虫代理IP池安装与使用(附官方文档)
安装:
GitHub上关于ProxyPool的安装【胎教级教学】_FLIF的博客-CSDN博客_proxypool安装第一步:ProxyPool的下载与配置第二步:Redis的下载与配置第三步:验证是否可用https://blog.csdn.net/weixin_48584917/article/details/121710521?csdn_share_tail=%7B%22type%22%3A%22blog%22%2C%22rType%22%3A%22article%22%2C%22rId%22%3A%22121710521%22%2C%22source%22%3A%22weixin_47251596%22%7D&ctrtid=75Gby
这个博主写的非常细节,可以直接参考。
使用:
基本用法:
接上文,介绍一下proxy_pool的基本用法
import requests# 随机获取一个ip
def get_proxy():return requests.get("http://127.0.0.1:5010/get/").json()# 删除一个ip
def delete_proxy(proxy):requests.get("http://127.0.0.1:5010/delete/?proxy={}".format(proxy))def getHtml():retry_count = 5# 获得一个随机ipproxy = get_proxy().get("proxy")while retry_count > 0:try:# 尝试用获得的ip去访问测试网址html = requests.get('http://www.example.com', proxies={"http": "http://{}".format(proxy)})return html# 如果报错,则尝试次数-1,五次后停止访问except Exception:retry_count -= 1# 用完一次就删除代理池中这条代理ipdelete_proxy(proxy)return NonegetHtml()
常用API:
api | method | Description | params |
---|---|---|---|
/ | GET | api介绍 | None |
/get | GET | 随机获取一个代理 |
可选参数: ?type=https 过滤支持https的代理
|
/pop | GET | 获取并删除一个代理 |
可选参数: ?type=https 过滤支持https的代理
|
/all | GET | 获取所有代理 |
可选参数: ?type=https 过滤支持https的代理
|
/count | GET | 查看代理数量 | None |
/delete | GET | 删除代理 |
?proxy=host:ip
|
扩展代理:
项目默认包含几个免费的代理获取源,但是免费的毕竟质量有限,所以如果直接运行可能拿到的代理质量不理想。所以,提供了代理获取的扩展方法。
添加一个新的代理源方法如下:
- 1、首先在ProxyFetcher类中添加自定义的获取代理的静态方法, 该方法需要以生成器(yield)形式返回
host:ip
格式的代理,例如:
class ProxyFetcher(object):# ....# 自定义代理源获取方法@staticmethoddef freeProxyCustom1(): # 命名不和已有重复即可# 通过某网站或者某接口或某数据库获取代理# 假设你已经拿到了一个代理列表proxies = ["x.x.x.x:3128", "x.x.x.x:80"]for proxy in proxies:yield proxy# 确保每个proxy都是 host:ip正确的格式返回
- 2、添加好方法后,修改setting.py文件中的
PROXY_FETCHER
项:
在PROXY_FETCHER
下添加自定义方法的名字:
PROXY_FETCHER = ["freeProxy01", "freeProxy02",# ...."freeProxyCustom1" # # 确保名字和你添加方法名字一致
]
schedule
进程会每隔一段时间抓取一次代理,下次抓取时会自动识别调用你定义的方法。
官方文档:ProxyPool — ProxyPool 2.1.0 文档
ProxyPool 爬虫代理IP池安装与使用(附官方文档)相关推荐
- ProxyPool 爬虫代理IP池(分享)
GitHub - jhao104/proxy_pool: Python爬虫代理IP池(proxy pool)https://github.com/jhao104/proxy_pool/ProxyPoo ...
- GitHub: ProxyPool 爬虫代理IP池
hello,小伙伴们,大家好,今天给大家分享的开源项目是:proxy_pool,这个开源项目是抓取个大免费代理IP网站,感兴趣的爬虫可以尝试把代码clone下载然后尝试应用一下,加油!!! _____ ...
- Linux + ProxyPool 搭建属于爬虫代理IP池
前言: 当爬虫达到一定速度时,大家都会遇到封Ip的情况,而搭建代理ip池是解决的最好方法,网络上有很多优秀的付费代理,但是作为白嫖党的我们又怎么能付钱那,本文将教会大家用一个成熟的开源项目搭建代理池. ...
- python 代理ip池_GitHub - xuan525/proxy_pool: Python爬虫代理IP池(proxy pool)
ProxyPool 爬虫代理IP池 ______ ______ _ | ___ \_ | ___ \ | | | |_/ / \__ __ __ _ __ _ | |_/ /___ ___ | | | ...
- 如何建立爬虫代理ip池
目录 一.为什么需要建立爬虫代理ip池 二.如何建立一个爬虫代理ip池 原文地址:https://www.cnblogs.com/TurboWay/p/8172246.html 一.为什么需要建立爬虫 ...
- python:从零开始教你建立爬虫代理ip池
一.为什么需要建立爬虫代理ip池 在众多的网站防爬措施中,有一种是根据ip的访问频率进行限制的,在某段时间内,当某个ip的访问量达到一定的阀值时,该ip会被拉黑.在一段时间内被禁止访问.这种时候,可以 ...
- Python爬虫-代理ip池建立
代理IP池建立 前言 之前提到过urllib和requests的利用代理ip的访问方式 . https://blog.csdn.net/zhouchen1998/article/details/813 ...
- 搭建一个自己的百万级爬虫代理ip池.
做爬虫抓取时,我们经常会碰到网站针对IP地址封锁的反爬虫策略.但只要有大量可用的代理IP资源,问题自然迎刃而解. 以前尝试过自己抓取网络上免费代理IP来搭建代理池,可免费IP质量参差不齐,不仅资源少. ...
- python通过ip池爬_python 爬虫 代理ip池(适合初学者)
初次学习python爬虫的朋友在频繁访问被爬取页面网站时都会被拦截,也就是限制ip.这里教教大家建立代理ip池. #!/usr/bin/env python3# -*- coding: utf-8 - ...
最新文章
- “此文件来自其他计算机,可能被阻止以帮助保护该计算机” 教你win7解除阻止程序运行怎么操作...
- 好程序员web前端CSS选择符(选择器):表示要定义样式的对象
- qpushbutton 设置字体大小_怎样设置Qpushbutton 的大小
- 无插件无 Flash HTML5 浏览器直接玩《Quake II》
- c中的指针和直接引用结构体的编译后的差异
- yaas target folder generated and source folder generated
- TCP/IP(一):数据链路层
- 60页论文综述深度学习优化方法,出自UIUC
- Spring入门系列之Spring概述
- python下读sougou中文语料文件
- Pymol教程--Caver插件 研究蛋白通道
- JS高级——浏览器运行前端项目的原理及流程
- 屡陷丑闻的 Facebook,试图靠 AI Bot 管住员工的嘴,可能吗?
- 让人绝望的C语言恶搞小程序,网友:生无可恋!
- bootchart使用
- 介绍几个农业和渔业的搜索引擎
- Java学习推荐:最全JavaWeb全套视频教程——适合零基础入门
- 基于MATLAB计算卫星位置
- 获取iframe实际高度
- 服务器主机如何运行,局域网主机如何登录服务器的方法