一、分析需要爬取的网站

①、打开官方王者荣耀壁纸网站

  • 网站地址: https://pvp.qq.com/web201605/wallpaper.shtml

②、快捷键F12,调出控制台进行抓包

③、找到正确的链接并分析

④、查看返回数据格式

⑤、解析url链接

⑥、查看url内容是否是所需图片,发现其实是缩略图

⑦、那就去分析网站,随便点开一张壁纸,查看指定格式的链接

⑧、找到目标地址

⑨、分析目标链接和缩略图的链接区别

  • 缩略图:http://shp.qpic.cn/ishow/2735090714/1599460171_84828260_8311_sProdImgNo_6.jpg/200
  • 目标图:http://shp.qpic.cn/ishow/2735090714/1599460171_84828260_8311_sProdImgNo_6.jpg/0
  • 可以知道,将指定格式的缩略图地址后面200替换成0就是目标真实图片

二、爬虫代码

①、至此,爬虫分析完成,爬虫完整代码如下

#!/usr/bin/env python
# encoding: utf-8
'''
#-------------------------------------------------------------------
#                   CONFIDENTIAL --- CUSTOM STUDIOS
#-------------------------------------------------------------------
#
#                   @Project Name : 王者荣耀壁纸下载
#
#                   @File Name    : main.py
#
#                   @Programmer   : Felix
#
#                   @Start Date   : 2020/7/30 14:42
#
#                   @Last Update  : 2020/7/30 14:42
#
#-------------------------------------------------------------------
'''
import os, time, requests, json, re
from retrying import retry
from urllib import parseclass HonorOfKings:'''This is a main Class, the file contains all documents.One document contains paragraphs that have several sentencesIt loads the original file and converts the original file to new contentThen the new content will be saved by this class'''def __init__(self, save_path='./heros'):self.save_path = save_pathself.time = str(time.time()).split('.')self.url = 'https://apps.game.qq.com/cgi-bin/ams/module/ishow/V1.0/query/workList_inc.cgi?activityId=2735&sVerifyCode=ABCD&sDataType=JSON&iListNum=20&totalpage=0&page={}&iOrder=0&iSortNumClose=1&iAMSActivityId=51991&_everyRead=true&iTypeId=2&iFlowId=267733&iActId=2735&iModuleId=2735&_=%s' % self.time[0]def hello(self):'''This is a welcome speech:return: self'''print("*" * 50)print(' ' * 18 + '王者荣耀壁纸下载')print(' ' * 5 + '作者: Felix  Date: 2020-05-20 13:14')print("*" * 50)return selfdef run(self):'''The program entry'''print('↓' * 20 + ' 格式选择: ' + '↓' * 20)print('1.缩略图 2.1024x768 3.1280x720 4.1280x1024 5.1440x900 6.1920x1080 7.1920x1200 8.1920x1440')size = input('请输入您想下载的格式序号,默认6:')size = size if size and int(size) in [1,2,3,4,5,6,7,8] else 6print('---下载开始...')page = 0offset = 0total_response = self.request(self.url.format(page)).texttotal_res = json.loads(total_response)total_page = --int(total_res['iTotalPages'])print('---总共 {} 页...' . format(total_page))while True:if offset > total_page:breakurl = self.url.format(offset)response = self.request(url).textresult = json.loads(response)now = 0for item in result["List"]:now += 1hero_name = parse.unquote(item['sProdName']).split('-')[0]hero_name = re.sub(r'[【】:.<>|·@#$%^&() ]', '', hero_name)print('---正在下载第 {} 页 {} 英雄 进度{}/{}...' . format(offset, hero_name, now, len(result["List"])))hero_url = parse.unquote(item['sProdImgNo_{}'.format(str(size))])save_path = self.save_path + '/' + hero_namesave_name = save_path + '/' + hero_url.split('/')[-2]if not os.path.exists(save_path):os.makedirs(save_path)if not os.path.exists(save_name):with open(save_name, 'wb') as f:response_content = self.request(hero_url.replace("/200", "/0")).contentf.write(response_content)offset += 1print('---下载完成...')@retry(stop_max_attempt_number=3)def request(self, url):'''Send a request:param url: the url of request:param timeout: the time of request:return: the result of request'''response = requests.get(url, timeout=10)assert response.status_code == 200return responseif __name__ == "__main__":HonorOfKings().hello().run()

②、详细分析链接

  • 其实前端发送的是jsonp请求,这样的数据在python不好处理,因为不是标准的json格式
  • 因为其前面JQuery1710418919222这个字符串,而知道jsonp的请求的都知道,有这个前缀,必然请求链接中有相同的callback参数,将其删除即可
  • 因此我python代码中是删除了这个参数的
  • 这个链接还有很多参数,其实我觉得很多都可以删除,但是我懒得慢慢去试
  • 这个请求链接中最重要的一个参数必然就是页码数,也就是page这个参数,iListNum=20&totalpage=0&page={}
  • 上面的三个参数是可用的,一个是20,指每页的数量,totalpage估计没啥用,page抓包发现是从0开始的,这个需要注意一下,因为下面代码需要将总页数减1
self.url = 'https://apps.game.qq.com/cgi-bin/ams/module/ishow/V1.0/query/workList_inc.cgi?activityId=2735&sVerifyCode=ABCD&sDataType=JSON&iListNum=20&totalpage=0&page={}&iOrder=0&iSortNumClose=1&iAMSActivityId=51991&_everyRead=true&iTypeId=2&iFlowId=267733&iActId=2735&iModuleId=2735&_=%s' % self.time[0]

③、格式选择

  • 开始运行时,让你选择想下载格式的序号,为什么是8个格式呢,看原网页就知道了,8种不同分辨率的
  • 看上面的图片,缩略图链接有1-8,对应了8中分辨率的缩略图,那么原图必然也是8种
  • 这里我默认1920*1080的,一般电脑用这个分辨率的都可以
  • 其中1的原图,你自己试下,其实也是一个缩略图,所以一般下载选择2-8
print('↓' * 20 + ' 格式选择: ' + '↓' * 20)
print('1.缩略图 2.1024x768 3.1280x720 4.1280x1024 5.1440x900 6.1920x1080 7.1920x1200 8.1920x1440')
size = input('请输入您想下载的格式序号,默认6:')
size = size if size and int(size) in [1,2,3,4,5,6,7,8] else 6

④、下载代码分析

  • 第一次请求主要是为了获取总页数,但是请求是从0开始为第一页,所以需要减去1
  • while true中就是开始从0循环去请求地址,先找到缩略图地址,然后将缩略图的地址链接200替换成0就是目标图片地址了
  • 如果名字中有特殊字符,就将其用正则去除,不然可能会影响路径的查找
print('---下载开始...')
page = 0
offset = 0
total_response = self.request(self.url.format(page)).text
total_res = json.loads(total_response)
total_page = --int(total_res['iTotalPages'])
print('---总共 {} 页...' . format(total_page))
while True:if offset > total_page:breakurl = self.url.format(offset)response = self.request(url).textresult = json.loads(response)now = 0for item in result["List"]:now += 1hero_name = parse.unquote(item['sProdName']).split('-')[0]hero_name = re.sub(r'[【】:.<>|·@#$%^&() ]', '', hero_name)print('---正在下载第 {} 页 {} 英雄 进度{}/{}...' . format(offset, hero_name, now, len(result["List"])))hero_url = parse.unquote(item['sProdImgNo_{}'.format(str(size))])save_path = self.save_path + '/' + hero_namesave_name = save_path + '/' + hero_url.split('/')[-2]if not os.path.exists(save_path):os.makedirs(save_path)if not os.path.exists(save_name):with open(save_name, 'wb') as f:response_content = self.request(hero_url.replace("/200", "/0")).contentf.write(response_content)offset += 1
print('---下载完成...')

⑤、爬虫运行的结果,相同名字的放在同一个文件夹下

你学会了吗?

此文转载文,著作权归作者所有,如有侵权联系小编删除!

原文地址:https://blog.csdn.net/weixin_41635750/article/details

完整项目代码或者视频教程点这!

手把手教你从分析到实现,王者荣耀壁纸爬虫!表弟馋哭了!相关推荐

  1. python使用selenium爬英雄联盟/王者荣耀壁纸 附源码

    文章目录 LOL壁纸 分析 写代码 王者荣耀壁纸 分析 写代码 源码 lol 王者荣耀 之前看到好多爬王者荣耀和英雄联盟壁纸的,现在有时间,自己也搞个玩玩 记录一下,也帮助一下想要学习的朋友 LOL壁 ...

  2. 守望先锋服务器不稳定,《守望先锋》国服频现高延迟掉线 手把手教你如何分析网络情况...

    原标题:<守望先锋>国服频现高延迟掉线 手把手教你如何分析网络情况 最近<守望先锋>国服玩家普遍遇到高延迟和掉线问题,尤其是北方和西南地区的玩家感觉尤为严重.目前官方已经在论坛 ...

  3. 教你用python爬取王者荣耀英雄皮肤图片,并将图片保存在各自英雄的文件夹中。(附源码)

    教你用python爬取王者荣耀英雄皮肤图片,并将图片保存在各自英雄的文件夹中.(附源码) 代码展示: 保存在各自的文件夹中 美么? 让我们开始爬虫之路 开发环境 windows 10 python3. ...

  4. 王者荣耀壁纸上面的英雄太酷了,为什么不把它们下载下来呢?

    原标题:应用python多线程爬虫下载王者荣耀壁纸 文章目录 原标题:应用python多线程爬虫下载王者荣耀壁纸 1.了解完成这个项目需要的模块 2.怎样实现多线程下载壁纸 3.运行结果 4.完整代码 ...

  5. 多线程下载王者荣耀壁纸

    多线程下载王者荣耀壁纸 该程序中: 生产者:产生图片网址请求和生成目录 消费者:下载由生产者生产的网址中的图片 import requests from urllib import parse fro ...

  6. 利用Python进行王者荣耀壁纸下载

    利用Python进行王者荣耀壁纸下载 Python版本:3.5+ 相关模块:urllib模块,json模块,os模块 参考程序: import urllib.request import json i ...

  7. python玩王者荣耀皮肤碎片怎么获得_大神教你用Python爬取王者荣耀英雄皮肤,不充钱也能入手!...

    前言 临下班前,看到群里有人在讨论用王者农药的一些皮肤作为电脑的壁纸,什么高清的,什么像素稍低的,网上查了一手,也有,但像素都不一样,所以,我就想着,自己去官网直接爬他的高清皮肤就好了,然后就有了这边 ...

  8. 教你用PHP爬取王者荣耀英雄皮肤高清壁纸(附源码)

    午饭后看到一篇文章关于"用Python爬取王者荣耀官网的英雄皮肤图片",于是顺手用PHP也写了一个,在这里给大家分享一下,贴出源码: //下载王者荣耀皮肤图片 public fun ...

  9. 以游戏设计的角度分析热门游戏——王者荣耀

    五大类 总述 机制 规则 目标 障碍 奖励 总述 在一款游戏中大致可以分为以下5类:机制.规则.目标.障碍.奖励.[1] 机制 机制是游戏核心部分的规则.流程.数据.[2] 王者荣耀是一款MOBA类手 ...

最新文章

  1. 中心信令服务器编码,基于SIP的中心信令控制服务器①.PDF
  2. 调用python 报R6034 错误
  3. kafka 同步提交 异步_详解Kafka设计架构核心——Kafka副本机制详解
  4. 数组字符串那些经典算法:最大子序列和,最长递增子序列,最长公共子串,最长公共子序列,字符串编辑距离,最长不重复子串,最长回文子串 (转)...
  5. [转载]上善若水,厚德载物
  6. 德国Vue.js2终极开发教程024--32
  7. 增加javascript的trim函数
  8. 板翅式换热器(锯齿形)matlab的
  9. 知识图谱-构建:知识图谱构建流程【本体构建、知识抽取(实体抽取、 关系抽取、属性抽取)、知识表示、知识融合、知识存储】
  10. 防火墙服务器-iptables
  11. js function
  12. linux ps命令详细解读
  13. 入门级概述光学相干层析(OCT)原理
  14. python新建记事本_python怎么创建文本文件
  15. 《小话投行》转自2011 Morgan Stanley HK IBD唯一的大陆本科生
  16. 无心剑汉英双语诗005.《抒怀》
  17. 2020前端工程师的发展前景
  18. 如何快速实现移动 App 对智能设备的连接和控制,打造丰富的智能生活场景?
  19. 【51单片机】51单片机学习资料合集
  20. python爬虫百度安全验证_爬虫黑科技-绕开百度人机验证

热门文章

  1. I.MX6UL 时钟略解
  2. 物联网大学生就业培训有哪些?物联网工程师培训机构靠谱吗?
  3. python脚本获取华为边缘设备NPU信息
  4. 常用的几个在线生成网址二维码的API接口
  5. jenkin swindows启动_windows本地安装以及使用Jenkins
  6. 申宝股票-煤炭等周期股大跌
  7. Win32汇编(SMU—子程序)
  8. 【转】前端——实用UI组件库
  9. 观点丨Fortinet谈ChatGPT火爆引发的网络安全行业剧变
  10. 自定义checkbox