Python爬取福利图要在中午,因为早晚会出事!我才存了2000文件夹
爱美之心人皆有之,我们爬取找寻这些漂亮小姐姐的图片并不是出于什么龌龊的目的。而是欣赏美好的东西总是会让人心情愉悦的,对于美丽事物的追求是人与生俱来的天性。
爬虫成果
发现很多想要学习Python却不知道该怎么下手的朋友,正好我这里整理了一些关于Python的学习资料,包括从基础的python脚本到web开发、爬虫、数据分析、数据可视化、机器学习等…有需要的朋友可以文末免费领取,希望能够帮助到大家!!!
当你运行代码后,文件夹就会越来越多,如果爬完的话会有2000多个文件夹,20000多张图片。不过会很耗时间,可以在最后的代码设置爬取页码范围。
本文目标
1.熟悉 Requests 库,Beautiful Soup 库
2.熟悉多线程爬取
3.送福利,妹子图
网站结构
图一:
可以看到是一组一组的套图,点击任何一组图片会进入到详情界面,如图二所示
图二:
可以看到图片是依次排开的,一般会有十张左右的图片。
实现思路
看了界面的结构,那么我们的思路就有了。
1.构造 url 链接,去请求图一所示的套图列表界面,拿到每一个页面中的套图列表。
2.分别进入每个套图中去,下载相应的图片。
代码说明
1.下载界面的函数,利用 Requests 很方便实现。
def download_page(url):
‘’’
用于下载页面
‘’’
headers = {“User-Agent”: “Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0”}
r = requests.get(url, headers=headers)
r.encoding = ‘gb2312’
return r.text
2、获取图一所示的所有套图列表,函数中 link 表示套图的链接,text表示套图的名字
def get_pic_list(html):
‘’’
获取每个页面的套图列表,之后循环调用get_pic函数获取图片
‘’’
soup = BeautifulSoup(html, ‘html.parser’)
pic_list = soup.find_all(‘li’, class_=‘wp-item’)
for i in pic_list:
a_tag = i.find(‘h3’, class_=‘tit’).find(‘a’)
link = a_tag.get(‘href’) # 套图链接
text = a_tag.get_text() # 套图名字
get_pic(link, text)
3、传入上一步中获取到的套图链接及套图名字,获取每组套图里面的图片,并保存,我在代码中注释了。
def get_pic(link, text):
‘’’
获取当前页面的图片,并保存
‘’’
html = download_page(link) # 下载界面
soup = BeautifulSoup(html, ‘html.parser’)
pic_list = soup.find(‘div’, id=“picture”).find_all(‘img’) # 找到界面所有图片
headers = {“User-Agent”: “Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0”}
create_dir(‘pic/{}’.format(text))
for i in pic_list:
pic_link = i.get(‘src’) # 拿到图片的具体 url
r = requests.get(pic_link, headers=headers) # 下载图片,之后保存到文件
with open(‘pic/{}/{}’.format(text, pic_link.split(‘/’)[-1]), ‘wb’) as f:
f.write(r.content)
time.sleep(1)
完整代码
完整代码如下,包括了创建文件夹,利用多线程爬取,我设置的是5个线程,可以根据自己机器自己来设置一下。
import requests
import os
import time
import threading
from bs4 import BeautifulSoup
def download_page(url):
‘’’
用于下载页面
‘’’
headers = {“User-Agent”: “Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0”}
r = requests.get(url, headers=headers)
r.encoding = ‘gb2312’
return r.text
def get_pic_list(html):
‘’’
获取每个页面的套图列表,之后循环调用get_pic函数获取图片
‘’’
soup = BeautifulSoup(html, ‘html.parser’)
pic_list = soup.find_all(‘li’, class_=‘wp-item’)
for i in pic_list:
a_tag = i.find(‘h3’, class_=‘tit’).find(‘a’)
link = a_tag.get(‘href’)
text = a_tag.get_text()
get_pic(link, text)
def get_pic(link, text):
‘’’
获取当前页面的图片,并保存
‘’’
html = download_page(link) # 下载界面
soup = BeautifulSoup(html, ‘html.parser’)
pic_list = soup.find(‘div’, id=“picture”).find_all(‘img’) # 找到界面所有图片
headers = {“User-Agent”: “Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0”}
create_dir(‘pic/{}’.format(text))
for i in pic_list:
pic_link = i.get(‘src’) # 拿到图片的具体 url
r = requests.get(pic_link, headers=headers) # 下载图片,之后保存到文件
with open(‘pic/{}/{}’.format(text, pic_link.split(‘/’)[-1]), ‘wb’) as f:
f.write(r.content)
time.sleep(1) # 休息一下,不要给网站太大压力,避免被封
def create_dir(name):
if not os.path.exists(name):
os.makedirs(name)
def execute(url):
page_html = download_page(url)
get_pic_list(page_html)
def main():
create_dir(‘pic’)
queue = [i for i in range(1, 72)] # 构造 url 链接 页码。
threads = []
while len(queue) > 0:
for thread in threads:
if not thread.is_alive():
threads.remove(thread)
while len(threads) < 5 and len(queue) > 0: # 最大线程数设置为 5
cur_page = queue.pop(0)
url = ‘http://meizitu.com/a/more_{}.html’.format(cur_page)
thread = threading.Thread(target=execute, args=(url,))
thread.setDaemon(True)
thread.start()
print(‘{}正在下载{}页’.format(threading.current_thread().name, cur_page))
threads.append(thread)
if name == ‘main’:
main()
最后
最后多说一句,小编是一名python开发工程师,这里有我自己整理了一套最新的python系统学习教程,包括从基础的python脚本到web开发、爬虫、数据分析、数据可视化、机器学习等。学好 Python 不论是就业还是做副业赚钱都不错,但要学会 Python 还是要有一个学习规划。最后给大家分享一份全套的 Python 学习资料,给那些想学习 Python 的小伙伴们一点帮助!(文末领取)
一、Python所有方向的学习路线
Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。
二、Python必备开发工具
三、Python视频合集
观看零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。(文末领读者福利)
四、实战案例
光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。(文末领读者福利)
五、Python练习题
六、面试资料
这份完整版的Python全套学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
Python爬取福利图要在中午,因为早晚会出事!我才存了2000文件夹相关推荐
- 教你用python爬取王者荣耀英雄皮肤图片,并将图片保存在各自英雄的文件夹中。(附源码)
教你用python爬取王者荣耀英雄皮肤图片,并将图片保存在各自英雄的文件夹中.(附源码) 代码展示: 保存在各自的文件夹中 美么? 让我们开始爬虫之路 开发环境 windows 10 python3. ...
- 使用python爬取斗图网的图片
使用python爬取斗图网的图片 以下是代码部分: # -*- coding: utf-8 -*- """ Created on Wed Apr 14 14:41:42 ...
- Python爬取彼岸图4k壁纸,想要什么类型的壁纸就输入什么壁纸,太方便了。
你桌面的壁纸还是用的默认壁纸么?太low了,今天教你用python爬取彼岸图网的4k壁纸,想要什么类型的壁纸就爬什么壁纸,快点来跟我一起试试吧! 这个壁纸怎么样?喜欢吗?你值得拥有... 代码操作一下 ...
- 用Python爬取彼岸图网图片
用Python爬取彼岸图网图片 *使用了 四个模块 import time import requests from lxml import etree import os 没有的话自行百度安装. ...
- python爬取斗图
python使用requests模块请求网址,使用lxml模块中etree抓取数据,并使用time模块延时 爬取斗图啦如图所示: 将爬取到每页的数据保存在文件夹中 打开任意一个文件,将图片保存在内: ...
- python爬取千图网图片并保存_Python数据分析与挖掘实战-课程作业5爬取千图网某个频道的高清图片...
作业要求:爬取千图网(http://www.58pic.com)某个频道的高清图片 作业难点:正确找到图片链接并用正则表达式写出 代码如下: """ Created on ...
- python爬取千图网_python爬取lol官网英雄图片代码
python爬取lol官网英雄图片代码可以帮助用户对英雄联盟官网平台的皮肤图片进行抓取,有很多喜欢lol的玩家们想要官方的英雄图片当作自己的背景或者头像,可以使用这款软件为你爬取图片资源,操作很简单, ...
- python爬取斗图啦表情包并下载到本地
迫于无聊,又刚好正在学习python,就来记录一篇关于python爬取图片链接下载本地的入门文章... 主要用到的模块: request 和 BeautifulSoup4 开发之前建议先看一下官方给出 ...
- python爬取的内容不是中午_大年初六中午,全国各区县哪里最冷?
作者:国服帅座 经济学在读硕士 知乎专栏: https://zhuanlan.zhihu.com/c_1051263791760863232 认识高德地图API 在先前的文章中,我们曾了解过如何在高 ...
最新文章
- fiddler无法抓取chrome浏览器请求的解决方案之关闭代理软件
- 字符设备驱动程序框架
- 病毒木马防御与分析实战
- 具有Aspects的Java中的Mixin –用于Scala特性示例
- Java并发Semaphore信号量的学习
- JavaScript-简单的页面输入控制
- 关于COM的Reg-Free(免注册)技术简介及实例讲解。
- 判断当前窗体是否是顶级窗体
- 计算机网络安全 单词
- svm 10折交叉验证 matlab,怎么用10折交叉验证程序?
- 虚拟机桥接模式下和windows相互ping通
- JAVA使用465端口与25端口实现发送邮件的业务,以及执行时常见的错误解决方法
- 银行卡四要素实名验证,你知道多少?
- es 初识调研,相关知识点汇总
- T检验与F检验的区别_f检验和t检验的关系
- 各种Lisp系语言大检阅
- 阿克曼(Ackmann)函数
- 手机收费看高清电影能否成为趋势?
- 是谁点燃了人们居家健身的热情?
- 计算机联锁工程设计的必要性和目的,计算机联锁系统工程设计的分析