• 本人系统:macOS10.15.6 Catalina
  • 场景:使用Python requests 包+ip代理池爬取网站数据
  • 出现报错:HTTPSConnectionPool(host=‘xxxxx’, port=443): Max retries exceeded with url:xxxxxxxx (Caused by Ne…

具体情况下面这个博主已经基本提到了:

点击这里

但是依然出现这个报错。


import time
import random
import requestsUSER_AGENTS = ["Mozilla/5.0 (iPad; U; CPU OS 4_2_1 like Mac OS X; zh-cn) AppleWebKit/533.17.9 (KHTML, like Gecko) Version/5.0.2 Mobile/8C148 Safari/6533.18.5","Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:2.0b13pre) Gecko/20110307 Firefox/4.0b13pre","Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:16.0) Gecko/20100101 Firefox/16.0","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.11 (KHTML, like Gecko) Chrome/23.0.1271.64 Safari/537.11","Mozilla/5.0 (X11; U; Linux x86_64; zh-CN; rv:1.9.2.10) Gecko/20100922 Ubuntu/10.10 (maverick) Firefox/3.6.10"
]headers = {"User-Agent": ""
}
# 借助上面的USER-AGENT反爬
s = requests.session()
s.keep_alive = False
requests.adapters.DEFAULT_RETRIES = 10url = "https://baike.baidu.com/item/人工智能/9180?fromtitle=AI&fromid=25417&fr=aladdin"
for i in range(10):proxys = {# news_ip是已经读取好的ip 就不放上面代码了"https": "http://"+ new_ips[i],"http": "http://" + new_ips[i]}headers['User-Agent'] = random.choice(USER_AGENTS)print(proxys)print(headers['User-Agent'])req = requests.get(url, headers=headers, verify = False, proxies = proxys, timeout = 20).content.decode('utf-8')print(req)time.sleep(5)

首先需要确认自己的的IP地址是否可行。这里参考
传送门
给出的方式,确认不是IP不可行的问题。

后来在知乎上看到有人在传入proxy给proxies的时候,

将 字 典 中 的 " h t t p s " 和 " h t t p " 全 部 大 写 了 , 尝 试 之 后 确 实 可 行 了 将字典中的"https"和"http"全部大写了,尝试之后确实可行了 将字典中的"https"和"http"全部大写了,尝试之后确实可行了.

for i in range(10):proxys = {"HTTPS": "HTTP://"+ new_ips[i],"HTTP": "HTTP://" + new_ips[i]# 在这里全部大写了!}headers['User-Agent'] = random.choice(USER_AGENTS)print(proxys)print(headers['User-Agent'])req = requests.get(url, headers=headers, verify = False, proxies = proxys, timeout = 20).content.decode('utf-8')print(req)time.sleep(5)

记录一下今晚踩的几个雷:

  • 注意字典proxy中,对于每个value无论key是HTTP还是HTTPS,都用HTTP开头!只有key用HTTPS!
  • 如果requests想要爬取的网站是https:// ,那么一定一定需要在requests里加上verify = False这句话
  • 这里是我用的免费ip代理池,勉强能用。下面把这个网站的爬取ip的代码放在这:
# 获取可用的IP代理
import re
import requests
header = {
#     'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',"User-Agent" : "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36"
}response = requests.get("http://www.66ip.cn/areaindex_11/1.html", headers = header)encode_content = response.content.decode('gb18030', 'replace')ips = re.findall("<td>(?:[0-9]{1,3}\.){3}[0-9]{1,3}</td><td>[0-9]{1,5}</td>", encode_content)
new_ips = []
# proxies = []for i in ips:
#     print(i)new_ips.append(i.replace("</td><td>", ":"))
#     print(i)for i in range(len(new_ips)):new_ips[i] = new_ips[i].replace("<td>", "")new_ips[i] = new_ips[i].replace("</td>", "")
for i in new_ips:print(i)

Python requests ip代理爬虫报错 HTTPSConnectionPool(host=‘xxxxx‘, port=443): Max retries exceed...相关推荐

  1. Python requests ip代理爬虫报错 HTTPSConnectionPool(host=‘xxxxx‘, port=443) Max retries exceed

    本人系统:macOS10.15.6 Catalina 场景:使用Python requests 包+ip代理池爬取网站数据 出现报错:HTTPSConnectionPool(host='xxxxx', ...

  2. 解决requests.exceptions.SSLError: HTTPSConnectionPool(host=xxxxx‘, port=443): Max retries exceeded

    问题描述 使用scrapy框架时报错SSL,于是另起一个文件,使用requests,报错requests.exceptions.SSLError: HTTPSConnectionPool(host=' ...

  3. Python爬虫报错HTTPSConnectionPool(host=‘heat.qq.com‘, port=443)处理

    1.在爬虫时出现报错: requests.exceptions.SSLError: HTTPSConnectionPool(host='heat.qq.com', port=443): Max ret ...

  4. 解决Python3 urllib3 urllib3.exceptions.maxretryerror: httpsconnectionpool(host=‘xxxxx‘, port=443)

    报错原因 ​ 在使用代理进行请求时,代理只通过HTTP请求,此时请求进行HTTPS验证时验证失败. 两种解决方案 在1.25版本之前,请求时不会进行HTTPS验证.故可降低urllib3版本. pip ...

  5. 解决python爬虫requests.exceptions.SSLError: HTTPSConnectionPool(host=‘XXXXXXX‘, port=443)问题

    报错如下 Traceback (most recent call last):File "C:/Users/17653/Desktop/测试.py", line 23, in &l ...

  6. Python代理IP异常:requests.exceptions.ProxyError: HTTPSConnectionPool(host=‘xxxx‘, port=443)

    背景 这是我在使用Python爬取网页信息的时候出现的异常. 由于很多要爬取的网站会把"IP限制"作为反爬虫手段,所以我偶尔会使用"代理IP服务器"去处理相关需 ...

  7. 【报错】爬虫 HTTPSConnectionPool(host=‘xxx‘, port=443) 解决方案

    报错情况: 执行如下代码请求webscan.cc时报ssl错误: domain = "taobao.com" results = requests.get('https://www ...

  8. 关于requests.exceptions.SSLError: HTTPSConnectionPool(host='XXX', port=443)问题

    在运行一下代码的时候,会进行报错 requests.exceptions.SSLError: HTTPSConnectionPool(host='XXX', port=443) 解决方法如下: 1.先 ...

  9. requests.exceptions.SSLError: HTTPSConnectionPool(host='XXX', port=443)问题

    具体报错是这样的: requests.exceptions.SSLError: HTTPSConnectionPool(host='某某某网站', port=443):Max retries exce ...

最新文章

  1. des vue 双倍长 解密_3DES双倍长加密 - osc_ojx9hm4t的个人空间 - OSCHINA - 中文开源技术交流社区...
  2. 【转】每天读一遍,思考一下:我是否浮躁?
  3. ajax post 空格变加号,Ajax Post数据加号变空格详解
  4. 水下清淤机器人_新余市政管道清淤怎么收费2021-励志环保
  5. Hibernate之HQL检索(查询)方式
  6. mysql.data.dll win10_【MySQL】Windows10下安装
  7. Yann LeCun遭三位UC伯克利教授连怼:双重职位多重危害
  8. sql server 新语法 收藏
  9. 开发QQ桌球瞄准器(1):桌球瞄准器介绍与使用方法
  10. 技嘉ide模式怎么改_bios如何设置为ide兼容模式_怎么进入bios把硬盘模式改成ide
  11. 全球及中国触屏控制器芯片行业研究及十四五规划分析报告
  12. excel页码怎么设置从4开始?
  13. android刷机包基带,手机刷机有必要刷底包基带吗?刷安卓机中基带/底包/固件详解...
  14. echarts 地图自定义图标_echarts自定义图标的点击事件怎么添加
  15. 【OJ每日一练】1029 - 字母密码
  16. 3D视觉感知市场规模现状及行业发展前景分析
  17. 后端返回Json字符串出现乱码问题解决
  18. 2018年科研大事件——科学和伦理之间的较量
  19. 大于2TB的卷的知识.主要关于windows, EFI,GPT
  20. 【结构体】C语言结构体使用教程

热门文章

  1. Animation和Animator 的区别
  2. linux文件目录挂载与解挂
  3. Linux重启网卡失败解决办法
  4. python下载所需要的库时,下载速度太慢,这篇文章教你如何解决
  5. 2022/5/30 Mybatis-Plus详解
  6. [指导]Lenovo ThinkPad E550 (Haswell)使用clover引导驱动macOS EIcaption
  7. pc端网易云音乐可自定义背景插件。
  8. 前端做CRM管理系统是做什么_企业部署crm客户管理系统的意义是什么?
  9. 用this.$route.meta.title直接修改title不更新解决方案
  10. vite源码分析之dev