转载,验证可行:
https://www.jianshu.com/p/33bee611fa7d

一、爬取百度图片一页

import requests
import re
import os#url = input("请输入百度图片首页地址")
url = r'https://image.baidu.com/search/index?tn=baiduimage&ct=201326592&lm=-1&cl=2&ie=gbk&word=%C3%C0%C5%AE&fr=ala&ala=1&alatpl=cover&pos=0&hs=2&xthttps=111111'html = requests.get(url).text
links = re.findall(r'"objURL":"(.*?)"', html)  #一个图片对应许多链接,经测试图片链接在 objURL 这个标签内。用正则找出
dirpath = os.getcwd() + '\\pictures'
if not os.path.isdir(dirpath):os.mkdir(dirpath)index = 1
for link in links:print("Downloading:", link)try:res = requests.get(link)if str(res.status_code)[0] == "4":print("未下载成功:", link)continueexcept Exception as e:print("未下载成功:", link)filename = os.path.join(dirpath, str(index) + ".jpg")with open(filename, 'wb') as f:f.write(res.content)index += 1print("下载结束,一共 {}张图片" .format(index))

二、爬取更多图片

通过上面的方法我们可以成功爬取百度的一页图片。

但是要获取更多图片呢?可以用 selenium 库,但用别的方法呢?

从网页中我们可以看到要通过下拉才能显示出更多图片,但网址的url并没有改变。

按 F12 后在 Network 中观察,可以发现在下拉过程中,出现了 xhr 这个东东。

点进去看看。

把这个请求头的 URL 复制下,在浏览器地址栏输入,可以看到是 JSON 格式的数据。

所以这是一个传输 JSON 格式的网址。

那么图片在哪呢?

点开 preview ,在 data 中看到了0~30 的数据,随便点开一个。

可以看到,图片就是以 json 格式存在这里。图片链接地址还是在 objURL 标签内。

那么要下载图片的方法就是通过爬取一个个 json 格式的网址,找出里面的图片链接就行了。

通过不断下拉网页,分析几个请求头的 URL ,我们可以分析出它的规律。

我们可以写出任意关键词和它匹配的所有图片网址链接。

import itertools
import urllibdef buildUrls(word):word = urllib.parse.quote(word)url = r"http://image.baidu.com/search/acjson?tn=resultjson_com&ipn=rj&ct=201326592&fp=result&queryWord={word}&cl=2&lm=-1&ie=utf-8&oe=utf-8&st=-1&ic=0&word={word}&face=0&istype=2nc=1&pn={pn}&rn=60"urls = (url.format(word=word, pn=x) for x in itertools.count(start=0, step=60)) #创建一个生成器return urls

所需的 json 图片网址搞定了,那么接下去我们要从传回的 json 字符串中找出图片的下载链接

re_url = re.compile(r'"objURL":"(.*?)"')
imgs = re_url.findall(html)

查看一下 objURL 内的图片下载链接

这是什么下载链接 ?0.0

"objURL":"ippr_z2C$qAzdH3FAzdH3Ft42a_z&e3Bri_z&e3B8dm_z&e3BgjpAzdH3FTUvBJufGp8ysKmCr4RTyFQ==AzdH3Fdm0ancn8a98c98alb9a_z&e3B3r2"

原来是加密了,破解方法还是在上面的链接中。

所以我们可以写出解密方法了。

import requests
import resign_table = {              #解码 : . / 这三个符号'_z2C$q': ':','_z&e3B': '.','AzdH3F': '/'
}char_table = {              #解码其他字符'w': 'a','k': 'b','v': 'c','1': 'd','j': 'e','u': 'f','2': 'g','i': 'h','t': 'i','3': 'j','h': 'k','s': 'l','4': 'm','g': 'n','5': 'o','r': 'p','q': 'q','6': 'r','f': 's','p': 't','7': 'u','e': 'v','o': 'w','8': '1','d': '2','n': '3','9': '4','c': '5','m': '6','0': '7','b': '8','l': '9','a': '0'
}# python3字符串的translate方法需要用单个字符的十进制unicode编码作为key
# value 中的数字会被当成十进制unicode编码转换成字符
# 也可以直接用字符串作为value
char_table = {ord(key): ord(value) for key, value in char_table.items()}def decode(url):# 先替换字符串for key, value in sign_table.items():url = url.replace(key, value)# 再替换剩下的字符return url.translate(char_table)if __name__ == '__main__':url = r"ippr_z2C$qAzdH3FAzdH3Ft42a_z&e3Bri_z&e3B8dm_z&e3BgjpAzdH3FTUvBJufGp8ysKmCr4RTyFQ==AzdH3Fdm0ancn8a98c98alb9a_z&e3B3r2"print(decode(url))

得出正确图片下载链接:

http://img0.ph.126.net/TUcBJfsGt1ylK6CpmRTyFQ==/2670353104154109840.jpg

三、下载代码

归纳一下思路:

  • 发送 json 格式的 HTTP 请求,获取 json 数据
  • 解析数据得到图片下载链接
  • 下载图片
import requests
import urllib
import os, re
import itertoolssign_table = {              #解码 : . / 这三个符号'_z2C$q': ':','_z&e3B': '.','AzdH3F': '/'
}char_table = {              #解码其他字符'w': 'a','k': 'b','v': 'c','1': 'd','j': 'e','u': 'f','2': 'g','i': 'h','t': 'i','3': 'j','h': 'k','s': 'l','4': 'm','g': 'n','5': 'o','r': 'p','q': 'q','6': 'r','f': 's','p': 't','7': 'u','e': 'v','o': 'w','8': '1','d': '2','n': '3','9': '4','c': '5','m': '6','0': '7','b': '8','l': '9','a': '0'
}# python3字符串的translate方法需要用单个字符的十进制unicode编码作为key
# value 中的数字会被当成十进制unicode编码转换成字符
# 也可以直接用字符串作为value
char_table = {ord(key): ord(value) for key, value in char_table.items()}# 解码图片URL
def decode(url):# 先替换字符串for key, value in sign_table.items():url = url.replace(key, value)# 再替换剩下的字符return url.translate(char_table)# 生成网址列表
def buildUrls(word):word = urllib.parse.quote(word)url = r"http://image.baidu.com/search/acjson?tn=resultjson_com&ipn=rj&ct=201326592&fp=result&queryWord={word}&cl=2&lm=-1&ie=utf-8&oe=utf-8&st=-1&ic=0&word={word}&face=0&istype=2nc=1&pn={pn}&rn=60"urls = (url.format(word=word, pn=x) for x in itertools.count(start=0, step=60))return urls# 解析JSON获取图片URL
re_url = re.compile(r'"objURL":"(.*?)"')
def resolveImgUrl(html):imgUrls = [decode(x) for x in re_url.findall(html)]return imgUrls# 下载图片
def downImg(imgUrl, dirpath, imgName):filename = os.path.join(dirpath, imgName)try:res = requests.get(imgUrl, timeout=15)if str(res.status_code)[0] == "4":print(str(res.status_code), ":" , imgUrl)return Falseexcept Exception as e:print("抛出异常:", imgUrl)print(e)return Falsewith open(filename, "wb") as f:f.write(res.content)return Trueif __name__ == '__main__':print("欢迎使用百度图片下载脚本!目前仅支持单个关键词。")print("下载结果保存在脚本目录下的picture文件夹中。")print("=" * 50)word = input("请输入你要下载的图片关键词:\n")dirpath = os.getcwd() + '\\pictures'if not os.path.isdir(dirpath):os.mkdir(dirpath)urls = buildUrls(word)index = 0for url in urls:print("正在请求:", url)html = requests.get(url, timeout=10).content.decode('utf-8')imgUrls = resolveImgUrl(html)if len(imgUrls) == 0:  # 没有图片则结束breakfor url in imgUrls:if downImg(url, dirpath, str(index) + ".jpg"):index += 1print("已下载 %s 张" % index)

python爬取大量百度图片相关推荐

  1. python爬取明星百度图片并存入本地文件夹

    python爬取明星百度图片并存入本地文件夹 想要一个明星图片的时候,发现图片量过大,一张张保存太累,不太现实 这时候就可以用到爬虫,批量爬取图片 现在又出现一个问题,当发现一个明星爬完后,再爬取下一 ...

  2. python爬取图片教程-推荐|Python 爬虫系列教程一爬取批量百度图片

    Python 爬虫系列教程一爬取批量百度图片https://blog.csdn.net/qq_40774175/article/details/81273198# -*- coding: utf-8 ...

  3. python3爬虫系列03之requests库:根据关键词自动爬取下载百度图片

    python3爬虫系列03之requests库:根据关键词自动爬取下载百度图片 1.前言 在上一篇文章urllib使用:根据关键词自动爬取下载百度图片 当中,我们已经分析过了百度图片的搜索URL的变化 ...

  4. python爬取贴吧图片_Python爬取贴吧多页图片

    Python爬取贴吧图片都只能爬取第一页的,加了循环也不行,现在可以了. #coding:utf-8 import urllib import urllib2 import re import os ...

  5. Python爬取自然风景图片代码

    Python爬取自然风景图片代码 \qquad 需要用到python的etree库和requests库,需要提前下载安装. from lxml import etree import requests ...

  6. python爬取网站的图片

    python爬取网站的图片 本次爬取图片所需要用到的库:Requests库,BeautifulSoup库,正则表达式,os库. 思路:先爬一张图片,再爬一个网站的图片 先爬一张图片: 首先要得到这张图 ...

  7. python爬取网站源代码+图片

    python爬取网站源代码+图片 需求分析 基础知识 正则表达式 python网络请求 文件读写 实现 基本思路 具体实现 结果 总结 需求分析 大部分有志青年都想建立属于自己的个人网站,从零开始设计 ...

  8. python 爬取5566图库图片

    python 爬取5566图库图片 1 import requests 2 import random 3 import re 4 import time 5 import os 6 from bs4 ...

  9. python爬取动态网页图片

    爬取某知名网站图片(爬取动态网页) python爬取动态网页图片 python爬取动态网页图片 环境: python3.pycharm 库: requests.urllib.json 思路: 1.分析 ...

最新文章

  1. cmd开无线服务器,使用cmd命令开启wifi
  2. 使用VS2015远程GDB调试
  3. Exchange2010恢复已禁用邮箱后用户登录会出错
  4. jquery简洁遮罩插件
  5. 夺命雷公狗—angularjs—19—angular-route
  6. QTP基础学习(二)启动与设置
  7. 如何删除旧的和未使用的Docker映像
  8. 用C++做一个通讯录管理系统(手把手教学)
  9. tensorflow2.0内存溢出解决办法
  10. 在MAC上安装mysql
  11. 手撸CAPL(二)——OSEK网络管理N个节点建环机制(包含节点建环/丢失/跳过等)代码自取
  12. 开wifi微信定位服务器,企业微信wifi定位
  13. 怎么查看视频的md5值
  14. 【无标题】Windows10安全中心永久关闭教程
  15. mysql 联合主键 自增_mysal 数据库联合主键自增问题
  16. SptingBoot构建电商基础秒杀项目时遇到的问题
  17. c语言程序设计指针何钦铭ppt,C语言程序设计 教学课件 作者 何钦铭 c2.ppt
  18. 新浪微博情感分析--含爬虫及数据分析
  19. 不管SDLC还是Devops,请把好安全质量门
  20. 一唯,ev录屏过程中断电视频的恢复,视频恢复修复

热门文章

  1. 【1064】奥运奖牌计数
  2. android资源列表对应国家名称
  3. 计算机网络中帧和字节的关系,关于“帧frame”、“比特bite”、“字节byte”
  4. 手机wem文件转换软件_格式转换器app安卓版下载-格式转换器app手机文件转换器最新版 - APP软件乐园...
  5. S32K144 PWM实践
  6. tflearn教程_利用 TFLearn 快速搭建经典深度学习模型
  7. 惠普战66怎么用u盘进入系统_惠普战66笔记本怎么装系统?惠普战66装win10系统步骤...
  8. WebBench压力测试工具(详细源码注释+分析)
  9. UltraISOPE 9.6简体中文|单文件版|软碟通
  10. 华南X99主板安装ESXi7.0或ESXi8.0的配置说明