代理服务

  • 我们在做爬虫的过程中经常最初爬虫都正常运行,正常爬取数据,一切看起来都是美好,然而一会儿功夫就出现了错误。

  • 如:403 Forbidden错误,“您的IP访问频率太高”错误,或者跳出一个验证码让我们输入,之后解封,但过一会又出现类似情况。

  • 出现这个现象的原因是因为网站采取了一些反爬中措施,如:服务器检测IP在单位时间内请求次数超过某个阀值导致,称为封IP。

  • 为了解决此类问题,代理就派上了用场,如:代理软件、付费代理、ADSL拨号代理,以帮助爬虫脱离封IP的苦海。

  • 测试HTTP请求及响应的网站:http://httpbin.org/

    • httpbin这个网站能测试 HTTP 请求和响应的各种信息,比如 cookie、ip、headers 和登录验证等.
    • 且支持 GET、POST 等多种方法,对 web 开发和测试很有帮助。
      • GET地址 :http://httpbin.org/get
      • POST地址:http://httpbin.org/post
    • 它用 Python + Flask 编写,是一个开源项目。开源地址:https://github.com/Runscope/httpbin
    • 返回信息中origin的字段就是客户端的IP地址,即可判断是否成功伪装IP

代理设置

1 ) urllib的代理设置

from urllib.error import URLError
from urllib.request import ProxyHandler, build_openerproxy = '127.0.0.1:8888'
#需要认证的代理
#proxy = 'username:password@127.0.0.1:8888'#使用ProxyHandler设置代理
proxy_handler = ProxyHandler({'http': 'http://' + proxy,'https': 'https://' + proxy
})
#传入参数创建Opener对象
opener = build_opener(proxy_handler)
try:response = opener.open('http://httpbin.org/get')print(response.read().decode('utf-8'))
except URLError as e:print(e.reason)

2 ) requests的代理设置

import requestsproxy = '127.0.0.1:8888'
#需要认证的代理
#proxy = 'username:password@127.0.0.1:8888'proxies = {'http': 'http://' + proxy,'https': 'https://' + proxy,
}
try:response = requests.get('http://httpbin.org/get', proxies=proxies)print(response.text)
except requests.exceptions.ConnectionError as e:print('Error', e.args)

3 ) Selenium的代理使用

使用的是PhantomJS

from selenium import webdriverservice_args = ['--proxy=127.0.0.1:9743','--proxy-type=http',#'--proxy-auth=username:password' #带认证代理
]browser = webdriver.PhantomJS(service_args=service_args)
browser.get('http://httpbin.org/get')
print(browser.page_source)

使用的是Chrome

from selenium import webdriverproxy = '127.0.0.1:9743'
chrome_options = webdriver.ChromeOptions()
chrome_options.add_argument('--proxy-server=http://' + proxy)
chrome = webdriver.Chrome(chrome_options=chrome_options)
chrome.get('http://httpbin.org/get')

4 ) 在Scrapy使用代理

#在Scrapy的Downloader Middleware中间件里
# ...
def process_request(self, request, spider):request.meta['proxy'] = 'http://127.0.0.1:9743'
# ...

免费代理IP的使用

我们可以从互联网中获取免费的代理IP:如:西刺 http://www.xicidaili.com

import requests,random#定义代理池
proxy_list = ['182.39.6.245:38634','115.210.181.31:34301','123.161.152.38:23201','222.85.5.187:26675','123.161.152.31:23127',
]# 随机选择一个代理
proxy =  random.choice(proxy_list)proxies = {'http': 'http://' + proxy,'https': 'https://' + proxy,
}
try:response = requests.get('http://httpbin.org/get', proxies=proxies)print(response.text)
except requests.exceptions.ConnectionError as e:print('Error', e.args)

收费代理IP的使用

1 ) 收费代理服务商

  • 西刺:http://www.xicidaili.com
  • 讯代理:http://www.xdaili.cn/
  • 快代理:https://www.kuaidaili.com/
  • 大象代理:http://www.daxiangdaili.com/

2 )在requests中使用收费代理

import requests# 从代理服务中获取一个代理IP
proxy =  requests.get("http://tvp.daxiangdaili.com/ip/?tid=此处填写订单号&num=1").text
proxies = {'http': 'http://' + proxy,'https': 'https://' + proxy,
}
try:response = requests.get('http://httpbin.org/get', proxies=proxies)print(response.text)
except requests.exceptions.ConnectionError as e:print('Error', e.args)

3 ) 在scrapy中使用收费代理

  • 创建scrapy项目:$ scrapy startproject httpbin

  • 创建爬虫项目

    cd httpbin
    scrapy genspider hb httpbin.org
    
  • 编写代码

    • 编写爬虫文件hb.py
    import scrapyclass HbSpider(scrapy.Spider):name = 'hb'allowed_domains = ['httpbin.org']start_urls = ['http://httpbin.org/get']def parse(self, response):print(response.body)
    
    • 编写中间件文件:middlewares.py
    class HttpbinProxyMiddleware(object):def process_request(self, request, spider):pro_addr = requests.get('http://127.0.0.1:5000/get').textrequest.meta['proxy'] = 'http://' + pro_addr
    
    • 修改配置文件settings.py
    ROBOTSTXT_OBEY = False #关闭爬虫协议DOWNLOADER_MIDDLEWARES = {'httpbin.middlewares.HttpbinProxyMiddleware': 543,
    }#关闭终端输出,改输出到指定日志文件中
    LOG_LEVEL= 'DEBUG'LOG_FILE ='log.txt'
    
  • 执行信息爬取测试: $ scrapy crawl hb

使用代理抓取信息案例

1 )任务

  • 利用代理爬取微信公众号的文章信息,从中提取标题、摘要、发布日期、公众号以及url地址等内容。

  • 爬取的是搜索关键字为python的,类别为微信的所有文章信息,并将信息存储到MongoDB中。

  • URL地址:http://weixin.sogou.com/weixin?type=2&query=python&ie=utf8&s_from=input

2 ) 分析

  • 首先对要爬取的微信公众号的文章信息进行分析,确定url地址
  • 分析要爬取的信息加载方式,确定属性普通加载(在响应里使用xpath或css解析)
  • 分析如何获取更多页信息的爬取。就是如何跳转下一页。(没有登录的用户只能看到10页,登陆后才可看到其他页)
  • 本次案例需要使用的Python库:Scrapy、requests、pymongo
  • 在MongoDB中创建一个数据库wenxin,让后在此库中创建一个集合wx,最后开启MongoDB数据库

3 ) 具体实现

3.1 创建项目

  • 首先新建项目,名为weixin:$scrapy startproject weixin

  • 进入项目weixin目录下,创建一个Spider(爬虫类wx):

    cd weixin
    scrapy genspider wx weixin.sogou.com
    
  • 进入settings.py的配置文件:将ROBOTSTXT_OBEY改为false,忽略爬虫协议 $ROBOTSTXT_OBEY = False

3.2 定义Item类

# 定义信息封装类(标题、摘要、公众号、时间、URL地址)
import scrapyclass WxItem(scrapy.Item):# define the fields for your item here like:collection = 'wx'title = scrapy.Field()content = scrapy.Field()nickname = scrapy.Field()date = scrapy.Field()url = scrapy.Field()

3.3 解析页面

  • 进入spider/wx.py文件中编写:
# -*- coding: utf-8 -*-
import scrapy
from weixin.items import WxItemclass WxSpider(scrapy.Spider):name = 'wx'allowed_domains = ['weixin.sogou.com']start_urls = ['http://weixin.sogou.com/weixin?query=python&type=2&page=1&ie=utf8']def parse(self, response):if response.status != 200:yield scrapy.Request(url=response.url,callback=sself.parse)# 解析出当前页面中的所有文章ullist = response.selector.css("ul.news-list li")# 遍历文章for ul in ullist:#解析具体信息并封装到item中item = WxItem()item['title'] = ul.css("h3 a").re_first("<a.*?>(.*?)</a>")  item['content'] = ul.css("p.txt-info::text").extract_first()item['nickname'] = ul.css("a.account::text").extract_first()item['date'] = ul.re_first("document.write\(timeConvert\('([0-9]+)'\)\)")item['url'] = ul.css("h3 a::attr(href)").extract_first()# print(item)# 交给pipelines(item管道)处理yield item#解析出下一頁的url地址next_url = response.selector.css("#sogou_next::attr(href)").extract_first()#判断是否存在if next_url:url = response.urljoin(next_url) #构建绝对url地址yield scrapy.Request(url=url,callback=self.parse) #交给调度去继续爬取下一页信息

3.4 存储结果

首先开启相关配置, 修改配置文件settings.py信息:(开启MongoPipeline管道类,设置MongoDB的连接信息)

ITEM_PIPELINES = {'scrapyseleniumtest.pipelines.MongoPipeline': 300,
}MONGO_URI = 'localhost'MONGO_DB = 'weixin'

针对pipeline文件进行编写

import pymongoclass MongoPipeline(object):''' 完成MongoDB数据库对Item信息的存储'''def __init__(self, mongo_uri, mongo_db):'''对象初始化'''self.mongo_uri = mongo_uriself.mongo_db = mongo_db@classmethoddef from_crawler(cls, crawler):'''通过依赖注入方式实例化当前类,并返回,参数是从配置文件获取MongoDB信息'''return cls(mongo_uri=crawler.settings.get('MONGO_URI'), mongo_db=crawler.settings.get('MONGO_DB'))def open_spider(self, spider):'''Spider开启自动调用此方法,负责连接MongoDB,并选择数据库'''self.client = pymongo.MongoClient(self.mongo_uri)self.db = self.client[self.mongo_db]def process_item(self, item, spider):'''选择对应集合并写入Item信息'''self.db[item.collection].insert(dict(item))return itemdef close_spider(self, spider):'''Spider关闭时自动调用,负责关闭MongoDB的连接'''self.client.close()

3.5 执行爬虫文件开始信息爬取

  • $scrapy crawl wx

  • 注意:当前爬取信息过多时会报如下302错误:(IP访问频繁需要进行验证)

    [scrapy.downloadermiddlewares.redirect] DEBUG: Redirecting (
    302) to <GET http://weixin.sogou.com/antispider/?from=%2fweixin%3Fquery%3dpython
    %26type%3d2%26page%3d1%26ie%3dutf8> from <GET http://weixin.sogou.com/weixin?que
    ry=python&type=2&page=1&ie=utf8>
    

3.6 在中间件中使用付费代理服务来解决上面错误

# 在middlewares.py文件中定义一个Downloader中间件
import requests
class HttpbinProxyMiddleware(object):def process_request(self, request, spider):# 此处用的是大象代理pro_addr = requests.get('http://tvp.daxiangdaili.com/ip/?tid=这里填写你的订单号,详见大象代理API文档&num=1').textrequest.meta['proxy'] = 'http://' + pro_addr# 设置启动上面我们写的这个代理#在settings.py配置文件中.设置我们自定义的Downloader MiddleWares中间件设置:
DOWNLOADER_MIDDLEWARES = {'httpbin.middlewares.HttpbinProxyMiddleware': 543,
}

Python笔记:第三方IP代理服务与爬虫IP代理相关推荐

  1. Python爬虫 | 反爬机制:IP限制高匿代理 IP 突破(爬虫 IP 被禁怎么办?)

    一. 什么是代理? 二. 代理服务器的作用 可以进行请求的响应和转发 三. 在爬虫中为何要使用代理 如果我们使用爬虫对一个网站在一段时间内发起一个高频请求,该网站会检测出这个异常的现象,并将异常的请求 ...

  2. 代理IP如何解决爬虫IP被封

    网络爬虫在访问网站的时候,经常使爬虫IP被封.那遇到这种情况呢,大家都会想到用代理IP来解决这个苦恼.那么代理IP是如何解决爬虫IP被封的呢?       通常情况下,代理IP都是通过把真实的爬虫IP ...

  3. 利用Python实现自动投票以及自动爬虫IP代理!

    前言 因为某件事,朋友们在网络上搞起投票行为,为了帮朋友们,特意用python写下了这个投票代码的爬虫 网站投票没有对IP进行限制,也就是说,只要每刷新一次地址,就可以投票一次,但为了防止一个IP出现 ...

  4. Python爬虫-IP代理池和代理池设计

    本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理 以下文章来源于腾讯云 作者:小小科 ( 想要学习Python?Python学习交流 ...

  5. 网页爬虫为什么需要爬虫ip

    在现如今数据满天飞的时代,各行各业对于公开数据的应用越发的广泛,这也就对数据采集的需求日益增多.市场需求在变大变宽,但是配套的技术人员却无法满足需求.因此,越来越多的人选择网络爬虫这个行业. 今天我们 ...

  6. Python 爬虫使用代理 IP 的正确方法

    代理 IP 是爬虫中非常常用的方法,可以避免因为频繁请求而被封禁.下面是 Python 爬虫使用代理 IP 的正确方法: 1. 选择可靠的代理 IP 供应商,购买或者免费使用代理 IP 列表. 2. ...

  7. python爬虫ip proxy_python爬虫ip代理服务器的简要思路

    python爬虫有的时候会遇到被禁ip的情况,这个时候你可以找一下代理网站,抓取一下ip,来进行动态的轮询就没问题了,也可以用别人做好的第三方ip代理平台,比如说crawlera,crawlera是一 ...

  8. python通过ip池爬_python爬虫18 | 就算你被封了也能继续爬,使用IP代理池伪装你的IP地址,让IP飘一会...

    我们上次说了伪装头部 ↓ 让自己的 python 爬虫假装是浏览器 小帅b主要是想让你知道 在爬取网站的时候 要多的站在对方的角度想问题 其实 这和泡妞差不多 你要多站在妹纸的角度思考 她的兴趣是什么 ...

  9. Python爬虫-IP隐藏技术与代理爬取

    文章目录 前言 IP 隐藏 Proxifier 免费代理 自动爬取 前言 在渗透测试或者爬虫运行过程中,目标服务器会记录下我们的IP,甚至会封锁我们的IP,所以我们需要隐藏自己的IP.这时就需要用到代 ...

  10. python 爬虫 ip池维护思路

    对于HTTP代理池的维护,可以从以下几个方面入手: 1.验证HTTP代理的可用性 可以通过requests库向目标网站发送请求,判断HTTP代理是否能够成功返回响应.如果返回成功,则说明HTTP代理可 ...

最新文章

  1. 农林废弃物如何变废为宝?
  2. .Net程序员安卓学习之路5:使用xutils注入View和事件以及图片的显示
  3. Netty核心组件总览
  4. 直方图均衡化计算过程步骤
  5. (六)数据处理——录入、清洗、加工、描述
  6. 【精选】Java高频面试题278道附答案,通关中大型互联网企业工程师必备
  7. 一分钟搞定网页监控,实现网站链接百度自动推送
  8. pano2VR创建沙盘雷达设置以中心点旋转
  9. 语音驱动嘴型与面部动画生成的现状和趋势
  10. unity编辑器拓展九——删除场景中丢失的脚本
  11. eclipse写入mysql乱码问题_怎么办eclipse向mysql插入数据出现乱码
  12. 情商决定了工作方面的成就
  13. 价值180的仿3641美nv图库帝国CMS内核整站源码
  14. 【Shell】Shell脚本(for循环,while循环,break跳出循环,continue结束本次循环)
  15. HTML5权威指南读书笔记03(第7,8章)--icon,base,锚点,一些七七八八的元素
  16. c#中的interface abstract与virtual的介绍与使用
  17. linux内核协议栈 之 GSO逻辑分析
  18. Vue之图片懒加载vue-lazyload
  19. 论如何写出一篇高质量的英文论文
  20. java计算机毕业设计直播管理系统源码+数据库+系统+lw文档

热门文章

  1. C# RichTextBox 制作文本编辑器
  2. oracle 递归用法,oracle递归用法
  3. 【gloomyfish】【原创】数据分析之 – 散点图
  4. Redis可视化工具
  5. 答案原文翻译解释《避凶就吉精明鬼,千变万化心不变》这句话是指什么意思?...
  6. 怎么制作合法有效的电子签名?
  7. px像素和dp像素密度区别
  8. 解决VScode中C语言中文乱码问题
  9. js中ajax提交表单提交表单提交,JS中ajax请求提交form表单
  10. Win10环境下初始化MySQL