文章目录

  • 代理
    • 步骤:
      • 1.参数是一个字典{'类型':'代理ip:端口号'}
      • 2.定制,创建一个opener
      • 3a.安装opener
        • 3b.调用opener
      • 如何加headers头
  • 实现代码
    • 单独的代理ip:
    • 代理ip形成一个list:

代理

步骤:

1.参数是一个字典{‘类型’:‘代理ip:端口号’}

proxy_support=urllib.request.ProxyHandler({})

2.定制,创建一个opener

opener=urllib.request.build_opener(proxy_support)

3a.安装opener

urllib.request.install_opener(opener)

3b.调用opener

opener_open(url)

如何加headers头

代理ip也可以弄Use-Agent,在第二步下方加上如下代码

opener.addheaders=[('User-Agent','Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3866.400 QQBrowser/10.8.4379.400')]

即可

实现代码

至于代理ip去哪找的话,可以在这里寻找,国内代理服务器

单独的代理ip:

import urllib.requesturl='https://www.baidu.com/'proxy_support=urllib.request.ProxyHandler({'http':'165.227.35.172:8768'})opener=urllib.request.build_opener(proxy_support)urllib.request.install_opener(opener)response=urllib.request.urlopen(url)html=response.read().decode('utf-8')print(html)

代理ip形成一个list:

mport urllib.request
import random
url='https://www.baidu.com/'iplist=['165.227.35.172:8768','165.227.35.172:8768','165.227.35.172:8768']proxy_support=urllib.request.ProxyHandler({'http':random.choice(iplist)})opener=urllib.request.build_opener(proxy_support)urllib.request.install_opener(opener)response=urllib.request.urlopen(url)html=response.read().decode('utf-8')print(html)

Python通过代理ip访问网站相关推荐

  1. python使用代理ip访问网站_python使用代理ip访问网站的实例

    实例如下所示: # -*- coding: UTF-8 -*- from urllib import request if __name__ == "__main__": #访问网 ...

  2. python使用代理ip访问网站

    # -*- coding: UTF-8 -*- from urllib import requestif __name__ == "__main__":#访问网址url = 'ht ...

  3. Python爬虫 | 代理IP的获取和使用

    GiThub项目地址:https://github.com/xylon666/Proxy_IP 在使用爬虫大规模爬取网站信息时,有时会遇到反爬虫策略,比如当网站检测到一个IP地址频繁访问时,就会默认其 ...

  4. Python搭建代理IP池(一)- 获取 IP

    使用爬虫时,大部分网站都有一定的反爬措施,有些网站会限制每个 IP 的访问速度或访问次数,超出了它的限制你的 IP 就会被封掉.对于访问速度的处理比较简单,只要间隔一段时间爬取一次就行了,避免频繁访问 ...

  5. python 使用代理ip爬虫

    Python 使用代理ip爬虫 爬虫定义 代理ip 为什么要用代理ip 代理ip来源 如何代理 简单吗 结束 爬虫定义 网络爬虫(又称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者 ...

  6. Python 免费代理ip的批量获取

    Python 免费代理ip的批量获取 简介 网络爬虫的世界,向来都是一场精彩的攻防战.现在许多网站的反爬虫机制在不断的完善,其中最令人头疼的,莫过于直接封锁你的ip.但是道高一尺魔高一丈,在爬取网页的 ...

  7. Python搭建代理IP池(三)- 检测 IP

    在获取 IP 时,已经成功将各个网站的代理 IP 获取下来了,然后就需要一个检测模块来对所有的代理进行一轮轮的检测,检测可用就设置为满分,不可用分数就减 1,这样就可以实时改变每个代理的可用情况,在获 ...

  8. Python爬虫代理IP的使用

    做测试前需要先获取一个可用的代理,搜索引擎搜索"代理"关键字,就可以看到很多代理服务网站,会有很多免费代理可以使用,推荐www.xicidaili.com,以下是自动获取西刺代理网 ...

  9. Python爬虫代理IP(1)

    定义 代替原来的IP去对接网络的IP 作用 隐藏自身真实IP,避免被目标网站封掉 分类 高匿代理 web站点只能看到代理ip 普通代理 web站点知道这次请求是有人通过代理IP访问的,但不知道用户的真 ...

最新文章

  1. 从事JAVA 20年最终却败给了Python,哭了!
  2. stm32l0的停止模式怎么唤醒_探索者 STM32F407 开发板资料连载第二十二章 待机唤醒实验
  3. 获取应用程序文件夹路径的最佳方法
  4. leetcode算法题--分割等和子集★
  5. java信息管理系统总结_java实现科研信息管理系统
  6. 图像处理------应用卷积一实现噪声消去
  7. HDU - 4825 Xor Sum(字典树)
  8. ssm整合2 增删改
  9. ubunt 下 配置samba 服务器
  10. 自定义控件-实现TextBox的禁止粘贴
  11. 实验1-4 输出三角形 (5 分)
  12. 机器学习基础算法21-多输出的决策树回归
  13. 13.卷1(套接字联网API)---守护进程和 inetd 超级服务器
  14. 源码分析ElasticJob任务错过机制(misfire)与幂等性
  15. c语言程序设计学校运动会管理系统,【纯小白求助】 课程设计里面《校际运动会管理系统》源代码运行...
  16. 【2019.05】腾讯防水墙滑动验证码破解 python + selenium + OpenCV
  17. Codeforces 1023G:Pisces(最长反链)
  18. 只使用适用于DatetimeIndex的方法
  19. CTFshow-菜狗杯-misc(1-6)
  20. 全景视频预测头部移动-Predicting Head Movement in Panoramic Video: A Deep Reinforcement Learning Approach

热门文章

  1. DL之GD:利用LogisticGD算法(梯度下降)依次基于一次函数和二次函数分布的数据集实现二分类预测(超平面可视化)
  2. ML之nyoka:基于nyoka库利用LGBMClassifier模型实现对iris数据集训练、保存为pmml模型并重新载入pmml模型进而实现推理
  3. 成功解决cv2.error: OpenCV(4.1.2) /io/opencv/modules/imgproc/src/color.cpp:182: error: (-215:Assertion fa
  4. 成功解决VirtualBox is not installed. Please re-run the Toolbox Installer and try again.
  5. 成功解决D8016“/ZI”和“/Gy-”命令行选项不兼容
  6. CV之API:利用Face++的人体识别接口,实现摄像头实时手势识别
  7. ML之LoRSGD:基于LoR(逻辑回归)、SGD梯度下降算法对乳腺癌肿瘤(10+1)进行二分类预测(良/恶性)
  8. TF之DNN:对DNN神经网络进行Tensorboard可视化(得到events.out.tfevents本地服务器输出到网页可视化)
  9. OS_CORE.C(1)
  10. 超哥笔记--linux准备知识(1)