一、前言


前文说过我的设计师小伙伴的设计需求,他想做一个披头士乐队历年专辑的瀑布图。

通过搜索,发现网易云音乐上有比较全的历年专辑信息加配图,图片质量还可以,虽然有大有小。

我的例子怎么都是爬取图片?(谁让你总是跟设计师小伙伴一起玩耍。。。)看来图片对于设计师来说还是有着很深的情节,那就看他用这些图片能做出什么样的作品啦,期待一下,后续会展示一下他的作品。

其实爬取网易云音乐跟之前爬取的网站稍稍有点不同,当然,爬虫写的多了就觉得套路都是固定的,见招拆招而已。

二、运行环境


我的运行环境如下:

  • 系统版本
    Windows10。

  • Python版本
    Python3.5,推荐使用Anaconda 这个科学计算版本,主要是因为它自带一个包管理工具,可以解决有些包安装错误的问题。去Anaconda官网,选择Python3.5版本,然后下载安装。

  • IDE
    我使用的是PyCharm,是专门为Python开发的IDE。这是JetBrians的产品,点我下载。

三、实战


上面提到过,网易云音乐的网页跟普通的网页相比主要有两点不同:

  • 网页是 js 动态加载的
  • 使用了iframe框架

所以,
首先,网页请求不能使用requests库,需要使用Selenium + PhatomJS。
其次,使用Selenium + PhatomJS后,还需要针对 iframe 做特定处理。

废话不多说,看实际操作步骤:
首先打开网页 http://music.163.com

1240

在右上角的搜索框中输入“The Beatles”,然后会有一个下拉选项,选择歌手 The Beatles (红框中的内容)。

1240

然后看到如下页面,选择红框中的“所有专辑”,点击。

1240

这样就会看见所有的专辑列表,以及下方的翻页按钮。

1240

我们需要的就是所有专辑的图片、专辑名和专辑出版时间。看到这就可以构想一下爬虫的爬取逻辑了。定位到该页面,然后获取页码,然后挨个请求页面来爬取页面中的内容。

点击一下翻页按钮看看url 有没有什么规律。

1240

点击第二页后,看到上面的地址栏!!!看到这个地址栏我都懒得翻页了。。。

limit 参数是限制一个页面加载专辑的个数
offset 参数是前面过滤多少个专辑,现在是一页12个专辑,所以第二页是offset=12,第三页offset=24,以此类推。。。

一共9页,一页12个,也不到120个。So... ... 改一下url 就不用翻页了!!

limit 参数等于120,offset 参数 等于0,就搞定了! 输入下面的url,看看是不是所有的专辑都加载出来了。

http://music.163.com/#/artist/album?id=101988&limit=120&offset=0

下面就开始爬虫代码了。
这里我们会用到上一篇博文中写好的几个工具方法:

    def save_img(self, url, file_name): ##保存图片print('开始请求图片地址,过程会有点长...')img = self.request(url)print('开始保存图片')f = open(file_name, 'ab')f.write(img.content)print(file_name,'图片保存成功!')f.close()def request(self, url):  #封装的requests 请求r = requests.get(url)  # 像目标url地址发送get请求,返回一个response对象。有没有headers参数都可以。return rdef mkdir(self, path):  ##这个函数创建文件夹path = path.strip()isExists = os.path.exists(path)if not isExists:print('创建名字叫做', path, '的文件夹')os.makedirs(path)print('创建成功!')return Trueelse:print(path, '文件夹已经存在了,不再创建')return Falsedef get_files(self, path): #获取文件夹中的文件名称列表pic_names = os.listdir(path)return pic_names

OK, 开始我们的爬虫逻辑部分:

这里值得注意的是,该页面使用frame 框架,使用Selenium + PhantomJS 后并不会加载iframe 框架中的网页内容。iframe 框架相当于在页面中又加载了一个页面,需要使用Selenium 的 switch_to.frame() 方法加载(官网给的方法是switch_to_frame(),但是IDE提醒使用前面的方法替代该方法)。

看下面的网页结构,iframe的id是“g_iframe”:
1240

加载 iframe 框架中的内容:

driver = webdriver.PhantomJS()
driver.get(self.init_url)
driver.switch_to.frame("g_iframe")
html = driver.page_source

然后找到所有的封面元素:

1240

根据上图的网页结构可以看出,所有的专辑信息都在ul 标签里面,每一个专辑在一个li 标签里。li 标签中包含了图片url、专辑名字、以及专辑时间。

抓取其中的内容就好了。

all_li = BeautifulSoup(html, 'lxml').find(id='m-song-module').find_all('li')for li in all_li:album_img = li.find('img')['src']album_name = li.find('p', class_='dec')['title']album_date = li.find('span', class_='s-fc3').get_text()

这里获取到的图片url 依然是有图片宽高参数的,所以要过滤宽高参数:
http://p4.music.126.net/pLA1GX0KtU-vU4ZA6Cr-OQ==/1401877340532770.jpg?param=120y120

把问号后面的参数过滤掉:

end_pos = album_img.index('?')  #找到问号的位置
album_img_url = album_img[:end_pos]  #截取问号之前的内容

图片命名逻辑:专辑时间 + 专辑名。
专辑名可能有一些特殊字符,需要替换掉!
photo_name = album_date + ' - ' + album_name.replace('/','').replace(':',',') + '.jpg'

再使用上一篇博文例子中的去重逻辑,修改后的爬虫逻辑部分如下:

    def spider(self):print("Start!")driver = webdriver.PhantomJS()driver.get(self.init_url)driver.switch_to.frame("g_iframe")html = driver.page_sourceself.mkdir(self.folder_path)  # 创建文件夹print('开始切换文件夹')os.chdir(self.folder_path)  # 切换路径至上面创建的文件夹file_names = self.get_files(self.folder_path)  # 获取文件夹中的所有文件名,类型是listall_li = BeautifulSoup(html, 'lxml').find(id='m-song-module').find_all('li')# print(type(all_li))for li in all_li:album_img = li.find('img')['src']album_name = li.find('p', class_='dec')['title']album_date = li.find('span', class_='s-fc3').get_text()end_pos = album_img.index('?')album_img_url = album_img[:end_pos]photo_name = album_date + ' - ' + album_name.replace('/','').replace(':',',') + '.jpg'print(album_img_url, photo_name)if photo_name in file_names:print('图片已经存在,不再重新下载')else:self.save_img(album_img_url, photo_name)

其实相对于上篇博文的例子,这个爬虫的逻辑部分还是挺简洁的。

最后上一个完整的代码: 也可以从GitHub下载

from selenium import webdriver
from bs4 import BeautifulSoup
import requests
import osclass AlbumCover():def __init__(self):self.init_url = "http://music.163.com/#/artist/album?id=101988&limit=120&offset=0" #请求网址self.folder_path = "C:\D\TheBeatles" #想要存放的文件目录def save_img(self, url, file_name):  ##保存图片print('开始请求图片地址,过程会有点长...')img = self.request(url)print('开始保存图片')f = open(file_name, 'ab')f.write(img.content)print(file_name, '图片保存成功!')f.close()def request(self, url):  # 封装的requests 请求r = requests.get(url)  # 像目标url地址发送get请求,返回一个response对象。有没有headers参数都可以。return rdef mkdir(self, path):  ##这个函数创建文件夹path = path.strip()isExists = os.path.exists(path)if not isExists:print('创建名字叫做', path, '的文件夹')os.makedirs(path)print('创建成功!')return Trueelse:print(path, '文件夹已经存在了,不再创建')return Falsedef get_files(self, path):  # 获取文件夹中的文件名称列表pic_names = os.listdir(path)return pic_namesdef spider(self):print("Start!")driver = webdriver.PhantomJS()driver.get(self.init_url)driver.switch_to.frame("g_iframe")html = driver.page_sourceself.mkdir(self.folder_path)  # 创建文件夹print('开始切换文件夹')os.chdir(self.folder_path)  # 切换路径至上面创建的文件夹file_names = self.get_files(self.folder_path)  # 获取文件夹中的所有文件名,类型是listall_li = BeautifulSoup(html, 'lxml').find(id='m-song-module').find_all('li')# print(type(all_li))for li in all_li:album_img = li.find('img')['src']album_name = li.find('p', class_='dec')['title']album_date = li.find('span', class_='s-fc3').get_text()end_pos = album_img.index('?')album_img_url = album_img[:end_pos]photo_name = album_date + ' - ' + album_name.replace('/', '').replace(':', ',') + '.jpg'print(album_img_url, photo_name)if photo_name in file_names:print('图片已经存在,不再重新下载')else:self.save_img(album_img_url, photo_name)album_cover = AlbumCover()
album_cover.spider()

执行结果:

1240

看看文件夹里面什么样:

1240

历年的专辑封面已经到手啦,还有专辑的名称和发行日期。

四、后语


这个实战很好的运用了咱们之前讲解的知识:

  • 使用Selenium + PhatomJS 抓取动态页面
  • 使用Selenium 的switch_to.frame() 加载 iframe 中的内容
  • 使用requests 库获取图片
  • 使用BeautifulSoup 库解析抓取网页内容。
  • 使用os 库创建文件夹和获取文件夹中的文件名称列表

使用现有的知识编写简单的爬虫是不成问题了。接下来会讲讲爬虫框架,就从现在比较流行的Scrapy 框架讲起吧。

我得找找比较合适的例子,工作中用到的爬虫不太方便贴上来,有合适的实例我会继续更新。

有任何的疑问可以留言,就先酱紫吧。

See you then.

转载于:https://www.cnblogs.com/Albert-Lee/p/6276847.html

Python爬虫小白入门(六)爬取披头士乐队历年专辑封面-网易云音乐相关推荐

  1. python爬取音乐专辑时间_Python爬取披头士乐队历年专辑封面-网易云音乐

    运行环境 我的运行环境如下:系统版本 Windows10. Python版本 Python3.5,推荐使用Anaconda 这个科学计算版本,主要是因为它自带一个包管理工具,可以解决有些包安装错误的问 ...

  2. Python爬虫菜鸟入门,爬取豆瓣top250电影 (自己学习,如有侵权,请联系我删除)

    Python爬虫菜鸟入门,爬取豆瓣top250电影 (自己学习,如有侵权,请联系我删除) import requests from bs4 import BeautifulSoup import ti ...

  3. 爬虫小白入门实例 —— 爬取全国某天所有火车的运行时刻表

    受好朋友的委托,帮忙爬取全国某天所有火车的运行时刻表. 在此之前没有用过爬虫,但是会用python,所以迅速学习了一下. 把自己的学习过程整理如下,爬虫小白可以通过下述内容快速入门. 任务描述: 爬取 ...

  4. python爬虫——Scrapy入门(爬取西刺代理ip和port)

    一.创建项目 创建好的项目 二.创建爬虫 1.创建 一定要先进入刚才创建的爬虫项目文件中再创建爬虫 对比未创建爬虫,发现多了一个xici.py文件 2.查看网站君子协议(robots): 3.解释爬虫 ...

  5. python爬虫基础Ⅱ——Ajax数据爬取、带参请求:QQ音乐歌单、QQ音乐评论

    文章目录 基础爬虫部分Ⅱ Ajax技术 json 1. Network 2. XHR怎么请求? 3. 什么是json? 4. json数据如何解析? 带参数请求 1. 复习 2. params 3. ...

  6. Python爬虫实战一之爬取糗事百科段子

    点我进入原文 另外, 中间遇到两个问题: 1. ascii codec can't decode byte 0xe8 in position 0:ordinal not in range(128) 解 ...

  7. 数据采集与存储案例——基于Python爬虫框架Scrapy的爬取网络数据与MySQL数据持久化

    此案例需要预先安装pymsql python3.7.4 scrapy2.7.1 一.安装scrapy框架 1.使用pip命令安装scrapy pip install scrapy 在这里下载太慢可以使 ...

  8. python爬取图片教程-推荐|Python 爬虫系列教程一爬取批量百度图片

    Python 爬虫系列教程一爬取批量百度图片https://blog.csdn.net/qq_40774175/article/details/81273198# -*- coding: utf-8 ...

  9. python爬虫对炒股有没有用_使用python爬虫实现网络股票信息爬取的demo

    实例如下所示: import requests from bs4 import BeautifulSoup import traceback import re def getHTMLText(url ...

最新文章

  1. Prometheus监控业务指标
  2. 技术人员如何摆脱移生万物时代的焦虑
  3. UA MATH563 概率论的数学基础 中心极限定理16 Kolmogorov 3-series定理
  4. c语言24点程序,C语言24点问题
  5. insert into 插入空值_MySQL数据库的表中 NULL 和 空值 到底有什么区别呢
  6. java double add,Java中的DoubleStream.Builder add()方法
  7. UIActionSheet与UIAlertView
  8. REDO LOG大小引起的Oracle数据库性能下降
  9. 【BZOJ3152】组合子逻辑,贪心+堆
  10. 全国计算机考试可以异地考吗,公务员省考可以异地考吗
  11. bzoj2648/2716 kdtree
  12. java仿百度分页_java仿百度假分页代码实现
  13. 2022-9-28 c高级的复习
  14. Android N四项新功能iPhone也无法抗衡
  15. java-net-php-python-java门诊信息管理系统计算机毕业设计程序
  16. linux中mtd是什么目录,Linux mtd system
  17. 【日记本砸】21.01.08-12 最快的成长方式就是慢慢来
  18. 巴西龟饲养日志-----日常护理
  19. 毕业两年后开贴!给应届毕业的DDMM们的建议(一)
  20. 什么是期权期权的简介蕴含着哪些知识

热门文章

  1. python symbols函数,Python
  2. 计算机网络—计算机网络核心
  3. 文件包含漏洞的审计(审计思路)
  4. 2018 Multi-University Training Contest 3: G. Interstellar Travel(凸包)
  5. [Python] 矩阵拼接 np.c_[a,b]和np.r_[a,b]
  6. [Python] 维度交换函数:transpose(m,n,r)和permute(m,n,r)
  7. Latex除法a/b \frac{a}{b}
  8. MySQL命令行导入导出sql文件
  9. (转)IBM AIX系统安装
  10. webpack模块定义和使用的模式