使用IP代理

ProxyHandler()格式化IP,第一个参数,请求目标可能是http或者https,对应设置
build_opener()初始化IP
install_opener()将代理IP设置成全局,当使用urlopen()请求时自动使用代理IP

#!/usr/bin/env python
# -*- coding: utf-8 -*-
import urllib
import urllib.request
import random   #引入随机模块文件ip = "180.115.8.212:39109"
proxy = urllib.request.ProxyHandler({"https":ip})                        #格式化IP,注意:第一个参数可能是http或者https,对应设置
opener = urllib.request.build_opener(proxy,urllib.request.HTTPHandler)  #初始化IP
urllib.request.install_opener(opener)       #将代理IP设置成全局,当使用urlopen()请求时自动使用代理IP#请求
url = "https://www.baidu.com/"
data = urllib.request.urlopen(url).read().decode("utf-8")
print(data)

ip代理池构建一

适合IP存活时间长,稳定性好的代理ip,随机调用列表里的ip

#!/usr/bin/env python
# -*- coding: utf-8 -*-
import urllib
from urllib import request
import random   #引入随机模块文件
def dai_li_ip():ip = ['110.73.8.103:8123','115.46.151.100:8123','42.233.187.147:19']shui = random.choice(ip)print(shui)proxy = urllib.request.ProxyHandler({"https": shui})  # 格式化IP,注意,第一个参数,请求目标可能是http或者https,对应设置opener = urllib.request.build_opener(proxy, urllib.request.HTTPHandler)  # 初始化IPurllib.request.install_opener(opener)  # 将代理IP设置成全局,当使用urlopen()请求时自动使用代理IP#请求
dai_li_ip() #执行代理IP函数
url = "https://www.baidu.com/"
data = urllib.request.urlopen(url).read().decode("utf-8")
print(data)

ip代理池构建二,接口方式

每次调用第三方接口动态获取ip,适用于IP存活时间短的情况

我们用http://http.zhimaruanjian.com/第三方接口测试

#!/usr/bin/env python
# -*- coding: utf-8 -*-
import urllib
from urllib import request
import json
def dai_li_ip():url = "http://http-webapi.zhimaruanjian.com/getip?num=1&type=2&pro=&city=0&yys=0&port=11&time=1&ts=0&ys=0&cs=0&lb=1&sb=0&pb=4&mr=1"data = urllib.request.urlopen(url).read().decode("utf-8")data2 = json.loads(data)  # 将字符串还原它本来的数据类型print(data2['data'][0])ip = str(data2['data'][0]['ip'])dkou = str(data2['data'][0]['port'])zh_ip = ip + ':' + dkouprint(zh_ip)proxy = urllib.request.ProxyHandler({"https": zh_ip})  # 格式化IP,注意,第一个参数,请求目标可能是http或者https,对应设置opener = urllib.request.build_opener(proxy, urllib.request.HTTPHandler)  # 初始化IPurllib.request.install_opener(opener)  # 将代理IP设置成全局,当使用urlopen()请求时自动使用代理IP#请求
dai_li_ip() #执行代理IP函数
url = "https://www.baidu.com/"
data = urllib.request.urlopen(url).read().decode("utf-8")
print(data)

用户代理和ip代理结合应用

#!/usr/bin/env python
# -*- coding: utf-8 -*-
import urllib
from urllib import request
import json
import random
def yh_dl():    #创建用户代理池yhdl = ['Mozilla/5.0 (Windows; U; Windows NT 6.1; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50','Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0','Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0)','Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv:2.0.1) Gecko/20100101 Firefox/4.0.1','Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/20100101 Firefox/4.0.1','Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11','Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11','Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Maxthon 2.0)','Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; TencentTraveler 4.0)','Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)','Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; The World)','Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; 360SE)','Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Avant Browser)','Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)','Mozilla/5.0 (iPhone; U; CPU iPhone OS 4_3_3 like Mac OS X; en-us) AppleWebKit/533.17.9 (KHTML, like Gecko) Version/5.0.2 Mobile/8J2 Safari/6533.18.5','User-Agent:Mozilla/5.0 (iPod; U; CPU iPhone OS 4_3_3 like Mac OS X; en-us) AppleWebKit/533.17.9 (KHTML, like Gecko) Version/5.0.2 Mobile/8J2 Safari/6533.18.5','Mozilla/5.0 (iPad; U; CPU OS 4_3_3 like Mac OS X; en-us) AppleWebKit/533.17.9 (KHTML, like Gecko) Version/5.0.2 Mobile/8J2 Safari/6533.18.5','Mozilla/5.0 (Linux; U; Android 2.3.7; en-us; Nexus One Build/FRF91) AppleWebKit/533.1 (KHTML, like Gecko) Version/4.0 Mobile Safari/533.1','Opera/9.80 (Android 2.3.4; Linux; Opera Mobi/build-1107180945; U; en-GB) Presto/2.8.149 Version/11.10','Mozilla/5.0 (Linux; U; Android 3.0; en-us; Xoom Build/HRI39) AppleWebKit/534.13 (KHTML, like Gecko) Version/4.0 Safari/534.13','Mozilla/5.0 (BlackBerry; U; BlackBerry 9800; en) AppleWebKit/534.1+ (KHTML, like Gecko) Version/6.0.0.337 Mobile Safari/534.1+','Mozilla/5.0 (compatible; MSIE 9.0; Windows Phone OS 7.5; Trident/5.0; IEMobile/9.0; HTC; Titan)','UCWEB7.0.2.37/28/999','NOKIA5700/ UCWEB7.0.2.37/28/999','Openwave/ UCWEB7.0.2.37/28/999','Mozilla/4.0 (compatible; MSIE 6.0; ) Opera/UCWEB7.0.2.37/28/999']thisua = random.choice(yhdl)                    #随机获取代理信息headers = ("User-Agent",thisua)                 #拼接报头信息opener = urllib.request.build_opener()          #创建请求对象opener.addheaders=[headers]                     #添加报头到请求对象urllib.request.install_opener(opener)           #将报头信息设置为全局,urlopen()方法请求时也会自动添加报头def dai_li_ip():    #创建ip代理池url = "http://http-webapi.zhimaruanjian.com/getip?num=1&type=2&pro=&city=0&yys=0&port=11&time=1&ts=0&ys=0&cs=0&lb=1&sb=0&pb=4&mr=1"data = urllib.request.urlopen(url).read().decode("utf-8")data2 = json.loads(data)  # 将字符串还原它本来的数据类型print(data2['data'][0])ip = str(data2['data'][0]['ip'])dkou = str(data2['data'][0]['port'])zh_ip = ip + ':' + dkouprint(zh_ip)proxy = urllib.request.ProxyHandler({"https": zh_ip})  # 格式化IP,注意,第一个参数,请求目标可能是http或者https,对应设置opener = urllib.request.build_opener(proxy, urllib.request.HTTPHandler)  # 初始化IPurllib.request.install_opener(opener)  # 将代理IP设置成全局,当使用urlopen()请求时自动使用代理IP#请求
dai_li_ip() #执行代理IP函数
yh_dl()     #执行用户代理池函数gjci = '连衣裙'
zh_gjci = gjc = urllib.request.quote(gjci)         #将关键词转码成浏览器认识的字符,默认网站不能是中文
url = "https://s.taobao.com/search?q=%s&s=0" %(zh_gjci)
# print(url)
data = urllib.request.urlopen(url).read().decode("utf-8")
print(data)

用户代理和ip代理结合应用封装模块

#!/usr/bin/env python
# -*- coding: utf-8 -*-
import urllib
from urllib import request
import json
import random
import re
import urllib.error
def hq_html(hq_url):"""hq_html()封装的爬虫函数,自动启用了用户代理和ip代理接收一个参数url,要爬取页面的url,返回html源码"""def yh_dl():    #创建用户代理池yhdl = ['Mozilla/5.0 (Windows; U; Windows NT 6.1; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50','Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0','Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0)','Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv:2.0.1) Gecko/20100101 Firefox/4.0.1','Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/20100101 Firefox/4.0.1','Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11','Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11','Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Maxthon 2.0)','Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; TencentTraveler 4.0)','Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)','Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; The World)','Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; 360SE)','Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Avant Browser)','Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)','Mozilla/5.0 (iPhone; U; CPU iPhone OS 4_3_3 like Mac OS X; en-us) AppleWebKit/533.17.9 (KHTML, like Gecko) Version/5.0.2 Mobile/8J2 Safari/6533.18.5','User-Agent:Mozilla/5.0 (iPod; U; CPU iPhone OS 4_3_3 like Mac OS X; en-us) AppleWebKit/533.17.9 (KHTML, like Gecko) Version/5.0.2 Mobile/8J2 Safari/6533.18.5','Mozilla/5.0 (iPad; U; CPU OS 4_3_3 like Mac OS X; en-us) AppleWebKit/533.17.9 (KHTML, like Gecko) Version/5.0.2 Mobile/8J2 Safari/6533.18.5','Mozilla/5.0 (Linux; U; Android 2.3.7; en-us; Nexus One Build/FRF91) AppleWebKit/533.1 (KHTML, like Gecko) Version/4.0 Mobile Safari/533.1','Opera/9.80 (Android 2.3.4; Linux; Opera Mobi/build-1107180945; U; en-GB) Presto/2.8.149 Version/11.10','Mozilla/5.0 (Linux; U; Android 3.0; en-us; Xoom Build/HRI39) AppleWebKit/534.13 (KHTML, like Gecko) Version/4.0 Safari/534.13','Mozilla/5.0 (BlackBerry; U; BlackBerry 9800; en) AppleWebKit/534.1+ (KHTML, like Gecko) Version/6.0.0.337 Mobile Safari/534.1+','Mozilla/5.0 (compatible; MSIE 9.0; Windows Phone OS 7.5; Trident/5.0; IEMobile/9.0; HTC; Titan)','UCWEB7.0.2.37/28/999','NOKIA5700/ UCWEB7.0.2.37/28/999','Openwave/ UCWEB7.0.2.37/28/999','Mozilla/4.0 (compatible; MSIE 6.0; ) Opera/UCWEB7.0.2.37/28/999']thisua = random.choice(yhdl)                    #随机获取代理信息headers = ("User-Agent",thisua)                 #拼接报头信息opener = urllib.request.build_opener()          #创建请求对象opener.addheaders=[headers]                     #添加报头到请求对象urllib.request.install_opener(opener)           #将报头信息设置为全局,urlopen()方法请求时也会自动添加报头def dai_li_ip(hq_url):    #创建ip代理池url = "http://http-webapi.zhimaruanjian.com/getip?num=1&type=2&pro=&city=0&yys=0&port=11&time=1&ts=0&ys=0&cs=0&lb=1&sb=0&pb=4&mr=1"if url:data = urllib.request.urlopen(url).read().decode("utf-8")data2 = json.loads(data)  # 将字符串还原它本来的数据类型# print(data2['data'][0])ip = str(data2['data'][0]['ip'])dkou = str(data2['data'][0]['port'])zh_ip = ip + ':' + dkoupat = "(\w*):\w*"rst = re.compile(pat).findall(hq_url)  #正则匹配获取是http协议还是https协议rst2 = rst[0]proxy = urllib.request.ProxyHandler({rst2: zh_ip})  # 格式化IP,注意,第一个参数,请求目标可能是http或者https,对应设置opener = urllib.request.build_opener(proxy, urllib.request.HTTPHandler)  # 初始化IPurllib.request.install_opener(opener)  # 将代理IP设置成全局,当使用urlopen()请求时自动使用代理IPelse:pass#请求try:dai_li_ip(hq_url) #执行代理IP函数yh_dl()     #执行用户代理池函数data = urllib.request.urlopen(hq_url).read().decode("utf-8")return dataexcept urllib.error.URLError as e:  # 如果出现错误if hasattr(e, "code"):  # 如果有错误代码# print(e.code)  # 打印错误代码passif hasattr(e, "reason"):  # 如果有错误信息# print(e.reason)  # 打印错误信息pass# a = hq_html('http://www.baid.com/')
# print(a)

模块使用

#!/usr/bin/env python
# -*- coding: utf-8 -*-
import urllib.request
import fzhpach
gjc = '广告录音'
gjc = urllib.request.quote(gjc)                 #将关键词转码成浏览器认识的字符,默认网站不能是中文
url = 'https://www.baidu.com/s?wd=%s&pn=0' %(gjc)
a = fzhpach.hq_html(url)
print(a)

转载于:https://www.cnblogs.com/meng-wei-zhi/p/8182559.html

八 web爬虫讲解2—urllib库爬虫—ip代理—用户代理和ip代理结合应用相关推荐

  1. 九 web爬虫讲解2—urllib库爬虫—实战爬取搜狗微信公众号—抓包软件安装Fiddler4讲解...

    封装模块 #!/usr/bin/env python # -*- coding: utf-8 -*- import urllib from urllib import request import j ...

  2. python爬虫网络请求超时_6、web爬虫讲解2—urllib库爬虫—基础使用—超时设置—自动模拟http请求...

    利用python系统自带的urllib库写简单爬虫 urlopen()获取一个URL的html源码 read()读出html源码内容 decode("utf-8")将字节转化成字符 ...

  3. 七 web爬虫讲解2—urllib库爬虫—状态吗—异常处理—浏览器伪装技术、设置用户代理...

    如果爬虫没有异常处理,那么爬行中一旦出现错误,程序将崩溃停止工作,有异常处理即使出现错误也能继续执行下去 1.常见状态吗 301:重定向到新的URL,永久性 302:重定向到临时URL,非永久性 30 ...

  4. 爬虫入门之urllib库详解(二)

    爬虫入门之urllib库详解(二) 1 urllib模块 urllib模块是一个运用于URL的包 urllib.request用于访问和读取URLS urllib.error包括了所有urllib.r ...

  5. Crawler:反爬虫之基于urllib库+伪装浏览器方式实现从各种网站上(以百度贴吧为例)获得你喜欢的照片下载到本地电脑上

    Crawler:反爬虫之基于urllib库+伪装浏览器方式实现从各种网站上(以百度贴吧为例)获得你喜欢的照片下载到本地电脑上 目录 输出结果 实现代码 输出结果 后期更新-- 实现代码 import ...

  6. 四、爬虫中的urllib库使用

    这篇介绍如何使用爬虫中的urllib库 小试牛刀 怎样扒网页呢? 其实就是根据URL来获取它的网页信息,虽然我们在浏览器中看到的是一幅幅优美的画面,但是其实是由浏览器解释才呈现出来的,实质它是一段HT ...

  7. 爬虫笔记:Urllib库详解

    如果不懂爬虫,请看链接 爬虫第一课:爬虫的基本原理 什么是Urllib Urllib是python 内置的http的请求库.包含四个模块 urllib.request 请求模块 urllib.erro ...

  8. Python爬虫入门之Urllib库的基本使用

    那么接下来,小伙伴们就一起和我真正迈向我们的爬虫之路吧. 1.分分钟扒一个网页下来 怎样扒网页呢?其实就是根据URL来获取它的网页信息,虽然我们在浏览器中看到的是一幅幅优美的画面,但是其实是由浏览器解 ...

  9. Python3爬虫入门之Urllib库的用法

    urllib库的用法 urlopen urllib.request.urlopen(url,data=None,[timeout,]*,cafile=None,cadefault=False,cont ...

最新文章

  1. iOS UIlabel内容之后添加全文/展开
  2. 下载恶意pcap包的网站
  3. 如何保证RabbitMQ消息队列的高可用?
  4. 微信公众号开发之服务器接入指南之Java版本
  5. 719. Find K-th Smallest Pair Distance
  6. 飞鸽传书绿色版 部分数据库被陆续公开了
  7. includes(), startsWith(), endsWith()
  8. hack wifi android,WiFi Hack AIO 2010 - WiFi v1.2
  9. 心理学巨著《影响力》读后总结
  10. linux sed 不输出,linux-使用awk和sed消除不必要的输出
  11. C++编程语言中整型转换为字符串类型的方法
  12. [Android] Android 任务栈 【转载】
  13. python小人画爱心_用Python画一颗心、小人发射爱心(附源码)
  14. 三维软件Skyline开发初步
  15. 论文写作——latex三线表tabular*文本居中与正文两端对齐、标题加黑
  16. 万能手机解锁工具v1.0绿色加强版
  17. ascii码表 java,JAVA实现打印ascii码表代码
  18. 分布式集群中网络分区问题
  19. cs服务器搭建(cobaltstrike)
  20. 徐思201771010132《面向对象程序设计(java)》第二周学习总结

热门文章

  1. [android] setOnTouchEvent 设置返回值为true 和 false的区别
  2. java得出两个日期之间所有日期
  3. ubuntu16.04 安装CAJViewer 以及 安装wine /deepin-wine 图标异常的解决
  4. MATLAB 与Modelsim之间通过Linker的联合仿真
  5. C++点操作符和箭头操作符
  6. 少一些计较多_人与人之间最舒服的关系:低期待,少索取,不苛求
  7. python迭代器高级例子
  8. JavaScript夯实基础系列(一):词法作用域
  9. 图书馆座位预定系统开发
  10. 简单记事本及目录树形图的Java实现