目录

一、为什么要使用动态代理ip?

二、如何申请动态代理ip?

三、如何使用动态ip?


一、为什么要使用动态代理ip?

使用它的好处在哪里呢?

  1. 保护你的网络免受外部攻击
  2. 屏蔽你的IP地址
  3. 限制不必要的内容
  4. 更好的帮助你抓取网络数据
  5. 绕过目标网站限制。网站一般会限制单个ip请求数量,使用动态ip可以自定义时间更换ip地址,提高爬虫效率。
  6. 隐藏真实ip地址。出于各种安全原因,有些人选择使用代理来隐藏其真实IP地址。

以上几点,足以知道使用代理动态ip的好处,难不成还用自己电脑的ip呢?ip是能定位到你的好吧,所以咱一般不用自己的本地ip爬(简单的本地爬,某些数据还是要使用代理ip哈)

二、如何申请动态代理ip?

我随便使用的一个代理ip网站。反正你们随便找个代理网站都行。看谁福利多就用谁的咯,这个ipidea 我只是用来测试。

生成代理api

点击生成链接:

认证一下:

再返回,点击生成链接,复制链接(保存在文档):

三、如何使用动态ip?

我们就是用最简单的requests模块:

import requests

然后我们再加上随机请求头模块(反爬用):

from fake_useragent import UserAgent

导入请求的url和随机请求头:

url='https://sjz.anjuke.com/community/p1'headers={'User-Agent':UserAgent().random}

使用api获取到ip:(记得换成你自己的api)

# proxies = {'协议': '协议://IP:端口号'}
api_url='http://tiqu.ipidea.io:81/abroad?num=1&type=1&lb=1&sb=0&flow=1&regions=&port=1'res = requests.post(api_url,headers=headers, verify=True)
proxie = "https://%s"%(res.text)
proxies = {'http': proxie}
print(proxies)

请求网址(以安居二手房为例子):

html=requests.get(url=url,headers=headers,proxies=proxies).text
print(html)

完整源码:

import requests
from fake_useragent import UserAgenturl='https://sjz.anjuke.com/community/p1'headers={'User-Agent':UserAgent().random}# proxies = {'协议': '协议://IP:端口号'}
api_url='http://tiqu.ipidea.io:81/abroad?num=1&type=1&lb=1&sb=0&flow=1&regions=&port=1'res = requests.post(api_url,headers=headers, verify=True)
proxie = "https://%s"%(res.text)
proxies = {'http': proxie}
print(proxies)html=requests.get(url=url,headers=headers,proxies=proxies).text
print(html)

运行如下:

更多案例和具体实战我已经在前面的文章讲过了,这里主要是教一下大家如何使用代理ip,只是在原来的基础上加了一个代理ip。代理ip对于爬虫手来说,用处很大,大家一定要好好学哇!

爬虫必备反爬技能:使用动态ip相关推荐

  1. python爬虫热点代理_Python爬虫实战——反爬策略之代理IP【无忧代理】

    一般情况下,我并不建议使用自己的IP来爬取网站,而是会使用代理IP. 原因很简单:爬虫一般都有很高的访问频率,当服务器监测到某个IP以过高的访问频率在进行访问,它便会认为这个IP是一只"爬虫 ...

  2. python爬虫反爬-python爬虫--爬虫与反爬

    爬虫与反爬 爬虫:自动获取网站数据的程序,关键是批量的获取. 反爬虫:使用技术手段防止爬虫程序的方法 误伤:反爬技术将普通用户识别为爬虫,从而限制其访问,如果误伤过高,反爬效果再好也不能使用(例如封i ...

  3. 爬虫与反爬:一场无休止之战

    现实生活中,其实很多人都与爬虫"打过交道". 比如,逢年过节之时,为确保能买到回家火车票,有人会选择使用"抢票软件",这个软件就是利用网络爬虫来登录铁路售票网络 ...

  4. Python爬虫-2019年我破解了商标网数据爬虫-破解反爬技术那些事情

    Python爬虫-2019年我破解了商标网!数据爬虫-破解反爬技术那些事情 由于自己一直做Python大数据挖掘技术开发,最近有不少的朋友要做大数据分析,找我帮忙商标网的数据挖掘,实现爬取中国商标网全 ...

  5. 第三百四十五节,Python分布式爬虫打造搜索引擎Scrapy精讲—爬虫和反爬的对抗过程以及策略—scrapy架构源码分析图...

    第三百四十五节,Python分布式爬虫打造搜索引擎Scrapy精讲-爬虫和反爬的对抗过程以及策略-scrapy架构源码分析图 1.基本概念 2.反爬虫的目的 3.爬虫和反爬的对抗过程以及策略 scra ...

  6. 16.网络爬虫—字体反爬(实战演示)

    网络爬虫-字体反爬 一·字体反爬原理 二·字体反爬模块Fonttools TTF文件 三·FontCreator 14.0.0.2790 FontCreatorPortable下载与安装 四·实战演示 ...

  7. 爬虫笔记38之反爬系列一:ip反爬、

    1.遇到的问题:使用爬虫在爬取数据的时候,如果爬取的频率过快,或者是一些其它的原因,被对方网站识别出来是爬虫程序,这个时候我们的IP就会被面临封杀的危险,一旦IP被封了之后,我们的爬虫程序就无法去爬取 ...

  8. python3爬虫系列19之反爬随机 User-Agent 和 ip代理池的使用

    python3爬虫系列19之随机User-Agent 和ip代理池的使用 我们前面几篇讲了爬虫增速多进程,进程池的用法之类的,爬虫速度加快呢,也会带来一些坏事!!! 1. 前言 比如随着我们爬虫的速度 ...

  9. python爬虫常见反爬措施_爬虫常见的反爬措施有哪些

    爬虫常见的反爬措施有三种: 1.header头部信息 解决方法: 加User-Agent值: 如果不加header头,部分网站服务器判断不到用户的访问来源,所以会返回一个404错误来告知你是一个爬虫, ...

最新文章

  1. 完成工作表-使用Google Spreadsheets作为数据后端
  2. python序列类型包括哪三种映射类型_python序列类型包括哪三种_后端开发
  3. 向下钻取按钮位置设置
  4. java并发编程之美-阅读记录2
  5. 感知算法论文(十):Towards Universal Object Detection by Domain Attention(2019)
  6. LeetCode 53:最大子序和解题以及优化思路(第一次独立刷题记录)
  7. vue 多点触控手势_涨姿势了!Appium也可以多点触控操作
  8. java_if_else__的应用1
  9. Windows10:将cmd命令行添加到右键中的方法
  10. android windowmanager 分析,WindowManagerService
  11. linux内核类型lagency,使用u盘安装linux(manjaro)时Grub报错
  12. Unity与安卓开发的一些路径知识
  13. 数据结构视频教程 -《新东方计算机考研数据结构强化班》
  14. halcon自动对焦
  15. MOSFET的雪崩失效
  16. 南京财经的计算机科学与技术,2021年南京财经大学计算机科学与技术(081200)考研专业目录_硕士研究生考试范围 - 学途吧...
  17. 如何写好一个数据分析报告,需要注意哪些?
  18. 非接触借记贷记流程报文解析
  19. 华为P30销量破千万有多少含金量?
  20. 匀思电商:抖音短视频四大主流变现方式,你都知道哪些?

热门文章

  1. 被动声呐 相移波束形成_100天计划-DAY9-拖曳声呐
  2. windows7系统软件无法卸载的解决方法
  3. 计算机系统维护是学什么,《计算机系统维护》教学大纲.doc
  4. 什么是Eureka? 单机版Eureka如何使用?
  5. Java数据库篇3——SQL
  6. flash调用swf文件服务器,浏览器如何加载Flash文件? (SWF)
  7. mysql is needed by_libnuma.so.1()(64bit) is needed by mysql-community-server-5.7.9-1.el6.x86_64
  8. python使用蓝牙功能_python bluetooth蓝牙信息获取蓝牙设备类型的方法
  9. 测试用例设计方法_黑盒测试——测试用例设计方法
  10. Vue 封装的过渡与动画