Python(四)IP代理
一、
import urllib2
if __name__ == '__main__' :
url = 'http://www.baidu.com'
proxy = {'http':'124.235.181.175:80'}
proxy_support = urllib2.ProxyHandler(proxy)
opener = urllib2.build_opener(proxy_support)
opener.addheaders = [('User-Agent','Mozilla/5.0 (Linux; Android 4.0.4; Galaxy Nexus Build/IMM76B) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.133 Mobile Safari/535.19')]
urllib2.install_opener(opener) # 用install_opener将配置好的opener安装到全局环境中,这样所有的urllib2.urlopen都会自动使用代理
response = urllib2.urlopen(url)
html = response.read().decode('GBK')
print html
二、
import urllib2
if __name__ == '__main__' :
url = 'http://www.baidu.com'
proxy = {'http':'124.235.181.175:80'}
proxy_handler = urllib2.ProxyHandler(proxy)
opener = urllib2.build_opener(proxy_handler)
req = opener.open(url) # 只有使用opener.open()方法发送请求才使用自定义的代理,而urlopen()则不使用自定义代理
html = req.read().decode('utf-8')
print html
三、
import urllib2
import random
if __name__ == '__main__' :
url = 'http://www.baidu.com/'
proxy_list = [
{'http' : '124.88.67.81:80'},
{'http' : '124.235.181.175:80'},
{'http' : '123.53.134.254:8010'},
{'http' : '61.135.217.7:80'},
{'http' : '116.77.204.2:80'}
]
proxy = random.choice(proxy_list) # 随机选择一个代理
proxy_handler = urllib2.ProxyHandler(proxy) # 使用选择的代理构建代理处理器对象
opener = urllib2.build_opener(proxy_handler)
opener.addheaders = [('User-Agent','Mozilla/5.0 (Linux; Android 4.0.4; Galaxy Nexus Build/IMM76B) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.133 Mobile Safari/535.19')]
urllib2.install_opener(opener)
req = urllib2.Request(url)
response = urllib2.urlopen(req)
html = response.read().decode('utf-8')
print html
转载于:https://blog.51cto.com/7175088/2309657
Python(四)IP代理相关推荐
- python爬虫ip代理没有作用_可能是一份没什么用的爬虫代理IP指南
写在前面 做爬虫的小伙伴一般都绕不过代理IP这个问题. PS:如果还没遇到被封IP的场景,要不你量太小人家懒得理你,要不就是人家压根不在乎... 爬虫用户自己是没有能力维护一系列的代理服务器和代理IP ...
- python爬虫ip代理池_爬虫教程-Python3网络爬虫开发——IP代理池的维护
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼 准备工作 要实现IP代理池我们首先需要成功安装好了 Redis 数据库并启动服务,另外还需要安装 Aiohttp.Requests.RedisPy.PyQ ...
- Python建立ip代理池(多线程)
转载自公众号:JAVAandPythonJun 说在前面的话 Hello,我是JAP君,相信经常使用爬虫的朋友对代理ip应该比较熟悉,代理ip就是可以模拟一个ip地址去访问某个网站.我们有时候需要爬取 ...
- python免费IP代理,简单采集一下康康能不能用~
嗨害大家好鸭!我是小熊猫❤ 最近疫情有一点严重 在家不知道整点啥好 整个免费的IP代理康康好用不好用 基本开发环境 Python 3.6 Pycharm 相关模块的使用 import requests ...
- Python requests ip代理爬虫报错 HTTPSConnectionPool(host=‘xxxxx‘, port=443) Max retries exceed
本人系统:macOS10.15.6 Catalina 场景:使用Python requests 包+ip代理池爬取网站数据 出现报错:HTTPSConnectionPool(host='xxxxx', ...
- 手把手教你用Python搭建IP代理池,轻松破解请求频率限制反爬虫~
我们所写的爬虫,它对服务器发出的网络请求频率要比正常用户的高的多,从而开发者可以将请求频率过高的用户视为爬虫程序,从而来限制爬虫程序. 今天志斌就来给大家分享一下,如何用Python搭建一个IP代理池 ...
- python爬虫 ip代理_Python 爬虫入门(二)—— IP代理使用
上一节,大概讲述了Python 爬虫的编写流程, 从这节开始主要解决如何突破在爬取的过程中限制.比如,IP.JS.验证码等.这节主要讲利用IP代理突破. 1.关于代理 简单的说,代理就是换个身份.网络 ...
- 手把手教你用Python搭建IP代理池
今天给大家分享一下,如何用Python搭建一个IP代理池,来破解服务器通过对用户请求频率进行限制的反爬虫. 01 原理 因为客户端的IP地址是唯一的,所以开发者便将IP地址作为客户端的身份标识. 服务 ...
- Python requests ip代理爬虫报错 HTTPSConnectionPool(host=‘xxxxx‘, port=443): Max retries exceed...
本人系统:macOS10.15.6 Catalina 场景:使用Python requests 包+ip代理池爬取网站数据 出现报错:HTTPSConnectionPool(host='xxxxx', ...
- python爬虫ip代理_python爬虫批量抓取ip代理的方法(代码)
本篇文章给大家带来的内容是关于python爬虫批量抓取ip代理的方法(代码),有一定的参考价值,有需要的朋友可以参考一下,希望对你有所帮助. 使用爬虫抓取数据时,经常要用到多个ip代理,防止单个ip访 ...
最新文章
- UNIX编程笔记:关于停止的进程接收信号的问题
- Solr和lucene
- linux磁盘分配方案,张明贵-Linux磁盘分区方案
- Mysql Case when 语句
- phpStorm打开提示 failed to create JVM 的解决的方法
- java迷宫队列实现_Creator 迷宫生成: DFS 与 BFS 算法实现
- 深入理解python.md_linux-深入理解python.pdf
- Elasticsearch环境搭建和介绍(Windows)
- Java 中创建对象方式
- 002.MEMS应用在开关电源上,实现大功率超小型化
- 清华发布全国城市AI实力榜,你那里排名第几?
- 基于虚拟仪器的高精度压力信号放大系统设计
- 【网络安全】GitHub项目监控,teemo子域名查询
- 图解GPS原理 为什么需要4颗卫星才能定位,而不是3颗
- OSINT 和 15 大开源情报工具
- 睡眠多少分钟一个循环_快速眼动周期-睡眠循环
- 基于OneFlow实现Unfold、Fold算子
- Dell服务器系统升级,更改引导方式(以戴尔R720为例)
- RadioButtonList控件添加样式
- Linux下挂载u盘和光盘,即移动存储设备
热门文章
- Oracle的连接与会话
- Ext.data.reader.Json reader: json
- 实现操作系统运行稳定流畅如初、免受各类运行异常之苦的六个实用“秘诀”...
- FTP服务器serv-u
- 静态html使用js发送邮件,html实现邮箱发送邮件_js发送邮件至指定邮箱功能
- logback property 默认值_看完这篇文章还不会给spring boot配置logback,请你吃瓜
- Java学习_day004:Scanner与分支结构
- Xamarin Android权限请求
- Visual Studio警告IDE0006的解决办法
- iphone圆点怎么弄出来_新款iPhone放出终极大招,果粉:就没高级点的嘛