本篇文章给大家带来的内容是关于python爬虫批量抓取ip代理的方法(代码),有一定的参考价值,有需要的朋友可以参考一下,希望对你有所帮助。

使用爬虫抓取数据时,经常要用到多个ip代理,防止单个ip访问太过频繁被封禁。

ip代理可以从这个网站获取:http://www.xicidaili.com/nn/。

因此写一个python程序来获取ip代理,保存到本地。

python版本:3.6.3#grab ip proxies from xicidaili

import sys, time, re, requests

from multiprocessing.dummy import Pool as ThreadPool

from lxml import etree

IP_POOL = 'ip_pool.py'

URL = 'http://www.xicidaili.com/nn/' #IP代理 高匿

#URL = 'http://www.xicidaili.com/wt/' #IP代理 http

RUN_TIME = time.strftime("%Y-%m-%d %H:%M", time.localtime()) #执行时间

#用字典存放有效ip代理

alive_ip = {'http': [], 'https': []}

#多线程

pool = ThreadPool(20)

#返回html文本

def get_html(url):

headers = {

"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64; rv:55.0) Gecko/20100101 Firefox/55.0",

"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8",

"Accept-Language": "zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3",

"Accept-Encoding": "gzip, deflate",

"Referer": "https://www.xicidaili.com/",

"Connection": "keep-alive",

"Upgrade-Insecure-Requests": "1"

}

r = requests.get(url, headers=headers)

r.encoding = 'utf-8'

return r.text

#测试ip代理是否存活

def test_alive(proxy):

global alive_ip

proxies = {'http': proxy}

try:

r = requests.get('https://www.baidu.com', proxies=proxies, timeout=3)

if r.status_code == 200:

if proxy.startswith('https'):

alive_ip['https'].append(proxy)

else:

alive_ip['http'].append(proxy)

except:

print("%s无效!"%proxy)

#解析html文本,获取ip代理

def get_alive_ip_address():

iplist = []

html = get_html(URL)

selector = etree.HTML(html)

table = selector.xpath('//table[@id="ip_list"]')[0]

lines = table.xpath('./tr')[1:]

for line in lines:

speed, connect_time = line.xpath('.//div/@title')

data = line.xpath('./td')

ip = data[1].xpath('./text()')[0]

port = data[2].xpath('./text()')[0]

anonymous = data[4].xpath('./text()')[0]

ip_type = data[5].xpath('./text()')[0]

#过滤掉速度慢和非高匿的ip代理

if float(speed[:-1])>1 or float(connect_time[:-1])>1 or anonymous != '高匿':

continue

iplist.append(ip_type.lower() + '://' + ip + ':' + port)

pool.map(test_alive, iplist)

#把抓取到的有效ip代理写入到本地

def write_txt(output_file):

with open(output_file, 'w') as f:

f.write('#create time: %s\n\n' % RUN_TIME)

f.write('http_ip_pool = \\\n')

f.write(str(alive_ip['http']).replace(',', ',\n'))

f.write('\n\n')

with open(output_file, 'a') as f:

f.write('https_ip_pool = \\\n')

f.write(str(alive_ip['https']).replace(',', ',\n'))

print('write successful: %s' % output_file)

def main():

get_alive_ip_address()

write_txt(output_file)

if __name__ == '__main__':

try:

output_file = sys.argv[1] #第一个参数作为文件名

except:

output_file = IP_POOL

main()

运行程序:

root@c:test$ python get_ip_proxies.pywrite successful: ip_pool.py

查看文件:

root@c:test$ vim ip_pool.py

#create time: 2019-03-14 19:53

http_ip_pool = \

['http://183.148.152.1:9999',

'http://112.85.165.234:9999',

'http://112.87.69.162:9999',

'http://111.77.197.10:9999',

'http://113.64.94.80:8118',

'http://61.184.109.33:61320',

'http://125.126.204.82:9999',

'http://125.126.218.8:9999',

'http://36.26.224.56:9999',

'http://123.162.168.192:40274',

'http://116.209.54.125:9999',

'http://183.148.148.211:9999',

'http://111.177.161.111:9999',

'http://116.209.58.245:9999',

'http://183.148.143.38:9999',

'http://116.209.55.218:9999',

'http://114.239.250.15:9999',

'http://116.209.54.109:9999',

'http://125.123.143.98:9999',

'http://183.6.130.6:8118',

'http://183.148.143.166:9999',

'http://125.126.203.228:9999',

'http://111.79.198.74:9999',

'http://116.209.53.215:9999',

'http://112.87.69.124:9999',

'http://112.80.198.13:8123',

'http://182.88.160.16:8123',

'http://116.209.56.24:9999',

'http://112.85.131.25:9999',

'http://116.209.52.234:9999',

'http://175.165.128.223:1133',

'http://122.4.47.199:8010',

'http://112.85.170.204:9999',

'http://49.86.178.206:9999',

'http://125.126.215.187:9999']

https_ip_pool = \

['https://183.148.156.98:9999',

'https://111.79.199.167:808',

'https://61.142.72.150:39894',

'https://119.254.94.71:42788',

'https://221.218.102.146:33323',

'https://122.193.246.29:9999',

'https://183.148.139.173:9999',

'https://60.184.194.157:3128',

'https://118.89.138.129:52699',

'https://112.87.71.67:9999',

'https://58.56.108.226:43296',

'https://182.207.232.135:50465',

'https://111.177.186.32:9999',

'https://58.210.133.98:32741',

'https://115.221.116.71:9999',

'https://183.148.140.191:9999',

'https://183.148.130.143:9999',

'https://116.209.54.84:9999',

'https://125.126.219.125:9999',

'https://112.85.167.158:9999',

'https://112.85.173.76:9999',

'https://60.173.244.133:41306',

'https://183.148.147.223:9999',

'https://116.209.53.68:9999',

'https://111.79.198.102:9999',

'https://123.188.5.11:1133',

'https://60.190.66.131:56882',

'https://112.85.168.140:9999',

'https://110.250.65.108:8118',

'https://221.208.39.160:8118',

'https://116.209.53.77:9999',

'https://116.209.58.29:9999',

'https://183.148.141.129:9999',

'https://124.89.33.59:53281',

'https://116.209.57.149:9999',

'https://58.62.238.150:32431',

'https://218.76.253.201:61408']

之后就可以直接使用了

from ip_pool import http_ip_pool, https_ip_pool

python爬虫ip代理_python爬虫批量抓取ip代理的方法(代码)相关推荐

  1. python爬取新浪微博数据中心_Python爬虫框架Scrapy实战之批量抓取招聘信息

    网络爬虫抓取特定网站网页的html数据,但是一个网站有上千上万条数据,我们不可能知道网站网页的url地址,所以,要有个技巧去抓取网站的所有html页面.Scrapy是纯Python实现的爬虫框架,用户 ...

  2. python爬虫学习基础教程,批量抓取美女图片!

    python的抓取功能其实是非常强大的,当然不能浪费,呵呵.下面就与大家分享一个python写的美女图自动抓取程序吧! 其中用到urllib2模块和正则表达式模块.下面直接上代码: 用python批量 ...

  3. Python 与金融科技5|批量抓取并保存上证50的交易数据

    本期我们将利用上一期爬取到的上证50的五十只股票代码,学习如何使用API接口从雅虎批量获取交易数据,并将每支股票的交易数据以CSV的格式保存到本地.另外本期还会涉及到一些常用的文件操作. 前言 在这个 ...

  4. python实现监控增量_python 日志增量抓取实现方法

    {"moduleinfo":{"card_count":[{"count_phone":1,"count":1}],&q ...

  5. python 代理ip验证_python爬虫成长之路(二):抓取代理IP并多线程验证

    上回说到,突破反爬虫限制的方法之一就是多用几个代理IP,但前提是我们得拥有有效的代理IP,下面我们来介绍抓取代理IP并多线程快速验证其有效性的过程. 一.抓取代理IP 提供免费代理IP的网站还挺多的, ...

  6. python爬虫:批量抓取代理ip,进行验证,抓取豆瓣网站影视信息

    本文作为学习笔记参考用: [1]批量抓取代理ip: 找到第三方ip代理的网站,进行分析,并批量抓取,抓取程序放到Proxies_spider.py中,如下所示: import re import re ...

  7. python批量读取图片并批量保存_Python爬虫:批量抓取花瓣网高清美图并保存

    原标题:Python爬虫:批量抓取花瓣网高清美图并保存 昨天看到了不错的图片分享网--花瓣,里面的图片质量还不错,所以利用selenium+xpath我把它的妹子的栏目下爬取了下来,以图片栏目名称给文 ...

  8. python爬虫抖音_Python 爬虫——抖音App视频抓包

    APP抓包 前面我们了解了一些关于 Python 爬虫的知识,不过都是基于 PC 端浏览器网页中的内容进行爬取.现在手机 App 用的越来越多,而且很多也没有网页端,比如抖音就没有网页版,那么上面的视 ...

  9. python爬虫app步骤_Python爬虫抓取手机APP的传输数据,python爬虫抓取app

    Python爬虫抓取手机APP的传输数据,python爬虫抓取app 大多数APP里面返回的是json格式数据,或者一堆加密过的数据 .这里以超级课程表APP为例,抓取超级课程表里用户发的话题. 1. ...

最新文章

  1. (C#)如何利用Graphics画出一幅图表
  2. ts可展开注释_TS语法之装饰器(注解)
  3. Angular变化检测机制:改善的脏检查
  4. Fedora 14 网卡设置
  5. windows2012同步linux时间,Windows server2012时间同步NTP配置
  6. 【Tensorflow】 Object_detection之训练PASCAL VOC数据集
  7. 无需Docker, 5分钟徒手DIY 一个Linux容器
  8. 微信朋友圈功能测试用例
  9. 8 个顶级网络攻击地图以及如何使用它们
  10. sybase 字符串转数字_sybase字符串转日期
  11. InfoPath 2007 常见问题
  12. 在 Flutter 中创建响应式表单
  13. 蓝桥杯 并查集汇总学习 及其代码
  14. 【DNS】域名解析服务
  15. 动手学深度学习 - 3. 深度学习基础
  16. Simulink中Delay模块的使用
  17. TBschedule入门
  18. 软件测评师知识点(2020.09.10)
  19. pdf-dist实现pdf的预览
  20. 如何用excel制作xy曲线图_如何用Excel计算百分比?

热门文章

  1. 生成器——send用法
  2. Chrome截图 2021-08-20
  3. IDEA 个性化设置系统字体
  4. 联想电脑触摸板突然失灵,提示电脑触摸板预览暂不可用
  5. JavaWeb零基础入门之Cookie和Session
  6. 计算机进制之间的相互转化---大学生的自我救赎
  7. ClearML入门:简化机器学习解决方案的开发和管理
  8. Bootstrap弹性布局Flex
  9. 2014年第五届蓝桥杯省赛试题及详解(Java本科A组)
  10. Ubuntu18.04安装Matlab2018a