爬虫IP代理池

______ ______ _

| ___ \_ | ___ \ | |

| |_/ / \__ __ __ _ __ _ | |_/ /___ ___ | |

| __/| _// _ \ \ \/ /| | | || __// _ \ / _ \ | |

| | | | | (_) | > < \ |_| || | | (_) | (_) || |___

\_| |_| \___/ /_/\_\ \__ |\_| \___/ \___/ \_____\

__ / /

/___ /

下载安装

下载源码:

git clone git@github.com:jhao104/proxy_pool.git

或者直接到https://github.com/jhao104/proxy_pool 下载zip文件

安装依赖:

pip install -r requirements.txt

配置Config.ini:

# Config.ini 为项目配置文件

# 配置DB

type = SSDB # 如果使用SSDB或redis数据库,均配置为SSDB

host = localhost # db host

port = 8888 # db port

name = proxy # 默认配置

# 配置 ProxyGetter

freeProxyFirst = 1 # 这里是启动的抓取函数,可在ProxyGetter/getFreeProxy.py 扩展

freeProxySecond = 1

....

# 配置 HOST (api服务)

ip = 127.0.0.1 # 监听ip,0.0.0.0开启外网访问

port = 5010 # 监听端口

# 上面配置启动后,代理api地址为 http://127.0.0.1:5010

启动:

# 如果你的依赖已经安全完成并且具备运行条件,可以直接在Run下运行main.py

# 到Run目录下:

>>>python main.py

# 如果运行成功你应该看到有4个main.py进程

# 你也可以分别运行他们,

# 依次到Api下启动ProxyApi.py,Schedule下启动ProxyRefreshSchedule.py和ProxyValidSchedule.py即可.

使用

启动过几分钟后就能看到抓取到的代理IP,你可以直接到数据库中查看,推荐一个SSDB可视化工具。

Api

api

method

Description

arg

/

GET

api介绍

None

/get

GET

随机获取一个代理

None

/get_all

GET

获取所有代理

None

/get_status

GET

查看代理数量

None

/delete

GET

删除代理

proxy=host:ip

爬虫使用

如果要在爬虫代码中使用的话, 可以将此api封装成函数直接使用,例如:

import requests

def get_proxy():

return requests.get("http://127.0.0.1:5010/get/").content

def delete_proxy(proxy):

requests.get("http://127.0.0.1:5010/delete/?proxy={}".format(proxy))

# your spider code

def getHtml():

# ....

retry_count = 5

proxy = get_proxy()

while retry_count > 0:

try:

html = requests.get('https://www.example.com', proxies={"http": "http://{}".format(proxy)})

# 使用代理访问

return html

except Exception:

retry_count -= 1

# 出错5次, 删除代理池中代理

delete_proxy(proxy)

return None

扩展代理

项目默认包含几个免费的代理获取方法,但是免费的毕竟质量不好,所以如果直接运行可能拿到的代理质量不理想。所以,提供了代理获取的扩展方法。

添加一个新的代理获取方法如下:

1、首先在GetFreeProxy类中添加你的获取代理的静态方法,

该方法需要以生成器(yield)形式返回host:ip格式的代理,例如:

class GetFreeProxy(object):

# ....

# 你自己的方法

@staticmethod

def freeProxyCustom(): # 命名不和已有重复即可

# 通过某网站或者某接口或某数据库获取代理 任意你喜欢的姿势都行

# 假设你拿到了一个代理列表

proxies = ["139.129.166.68:3128", "139.129.166.61:3128", ...]

for proxy in proxies:

yield proxy

# 确保每个proxy都是 host:ip正确的格式就行

2、添加好方法后,修改Config.ini文件中的[ProxyGetter]项:

在Config.ini的[ProxyGetter]下添加自定义的方法的名字:

[ProxyGetter]

;register the proxy getter function

freeProxyFirst = 0 # 如果要取消某个方法,将其删除或赋为0即可

....

freeProxyCustom = 1 # 确保名字和你添加方法名字一致

ProxyRefreshSchedule会每隔一段时间抓取一次代理,下次抓取时会自动识别调用你定义的方法。

问题反馈

任何问题欢迎在Issues 中反馈,如果没有账号可以去 我的博客中留言。

你的反馈会让此项目变得更加完美。

贡献代码

本项目仅作为基本的通用的代理池架构,不接收特有功能(当然,不限于特别好的idea)。

本项目依然不够完善,如果发现bug或有新的功能添加,请在Issues中提交bug(或新功能)描述,在确认后提交你的代码。

这里感谢以下contributor的无私奉献:

python 爬虫工具 butter_GitHub - TheButterflyOdor/proxy_pool: Python爬虫代理IP池(proxy pool)相关推荐

  1. python 代理ip池_GitHub - xuan525/proxy_pool: Python爬虫代理IP池(proxy pool)

    ProxyPool 爬虫代理IP池 ______ ______ _ | ___ \_ | ___ \ | | | |_/ / \__ __ __ _ __ _ | |_/ /___ ___ | | | ...

  2. ProxyPool 爬虫代理IP池(分享)

    GitHub - jhao104/proxy_pool: Python爬虫代理IP池(proxy pool)https://github.com/jhao104/proxy_pool/ProxyPoo ...

  3. Python构造代理IP池提高访问量

    1.构造代理ip池: def create_proxy_pool():# 从西拉免费ip代理网站获取代理IP列表r = requests.get('https://www.kuaidaili.com/ ...

  4. Python爬虫添加代理IP池(新手)

    给爬虫添加代理IP池 我们在运行爬虫的过程中由于请求次数过多经常会遇到被封IP的情况,这时就需要用到代理IP来解决.代理IP的原理,简单来说就像在本机和web服务器之间开一个中转站,把本机的请求交给代 ...

  5. Python爬虫伪装,请求头User-Agent池,和代理IP池搭建使用

    一.前言 在使用爬虫的时候,很多网站都有一定的反爬措施,甚至在爬取大量的数据或者频繁地访问该网站多次时还可能面临ip被禁,所以这个时候我们通常就可以找一些代理ip,和不用的浏览器来继续爬虫测试.下面就 ...

  6. Python爬虫热点项目之实现代理IP池(IP proxy pool)

    代理池概述 代理池就是由多个稳定可用代理IP组成的池子.用来应对ip反爬,而网上的免费代理稳定可用的极少,更有甚者连收费的也不都是稳定可用. 开发环境: windous,python3,sublime ...

  7. 【python】爬虫入门:代理IP池的使用、文件的写入与网易云爬取时的注意事项

    一.概述 在两天前实现利用爬虫爬取网易云音乐用户的各类公开信息之后,我对现有爬虫进行了功能上的增加.主要有: ①.使用代理IP池防止IP被封: ②.将爬取用户的听歌记录.歌单.关注.粉丝这四类数据的代 ...

  8. 干货分享,使用python爬虫构建免费代理IP池

    在使用python爬虫的时候,经常会遇见所要爬取的网站采取了反爬取技术,高强度.高效率地爬取网页信息常常会给网站服务器带来巨大压力,所以同一个IP反复爬取同一个网页,就很可能被封,那如何解决呢?使用代 ...

  9. python爬虫设置代理ip池

    在使用python爬虫的时候,经常会遇见所要爬取的网站采取了反爬取技术,高强度.高效率地爬取网页信息常常会给网站服务器带来巨大压力,所以同一个IP反复爬取同一个网页,就很可能被封,那如何解决呢?使用代 ...

最新文章

  1. 盘点程序员写过的惊天Bug:亏损30亿、致6人死亡,甚至差点毁灭世界
  2. 日本京都大学 77TB重要数据被删;元宇宙要凉?Meta停止开发 VR/AR系统。 | 一周 IT 资讯...
  3. SQLSERVER2014中的新功能
  4. TextView 的ScrollView滚动效果
  5. MySQL第10天:MySQL索引优化分析之索引介绍
  6. ubuntu下vscode使用cmake编译运行c++配置文件
  7. 用windows通过xrdp远程连接到ubuntu16后 Tab键无法使用
  8. ssm框架中mysql的分页_SSM框架中mapper层,增删改查,如何实现
  9. 手机投屏不是全屏怎么办_手机投屏怎么设置全屏
  10. 计算机打字键盘亮怎么设置,电脑键盘灯亮无法打字怎么解决?
  11. java apktool if_apktool使用教程
  12. 淘咖啡:阿里无人咖啡馆效果图
  13. 个性化精简掉了Win10便签顶部如何恢复
  14. mysql函数 优化_Mysql函数求优化解决思路
  15. 小程序如何跳转到第三方H5页面
  16. 数组的c语言代码带注释,C语言之数组
  17. 人工智能是怎么准备训练样本的
  18. 计算机学科专业基础综合科目(408)
  19. 如何解锁物联网低代码平台操作日志功能?
  20. 漏洞解决方案-跨站请求伪造漏洞

热门文章

  1. springboot开启debug日志_SpringBoot 如何优雅的打印日志?
  2. linux 查找tomcat目录,linux下通过tomcat访问某路径下的文件
  3. python 绘制分布直方图_统计学中常见的4种抽样分布及其分布曲线(Python绘制)...
  4. 厉害了,这个省未来5年将投入63亿人民币扶持博士博士后!
  5. (pytorch-深度学习系列)使用重复元素的网络(VGG)
  6. java 继承作用_java三大特性之继承
  7. 手把手教你写平衡二叉树
  8. KMP 深度讲解next数组的求解
  9. 说一说阿里云弹性公网IP那些事
  10. Flutter for Web 详细预研