python妹子图软件下载_【简单爬虫】 爬取妹子图 自动下载 [改进]
# 爬取妹子图
import requests
import os
from bs4 import BeautifulSoup
MZITU = 'https://www.mzitu.com'
USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.108 Safari/537.36'
HEADERS = {
'User-Agent': USER_AGENT,
'Referer': MZITU}
SAVE_PATH = 'D:\妹子图\\'
def get_request(url):
res = requests.get(url, headers=HEADERS)
print("正在请求 " + url)
return res
def get_request_soup(url):
html = get_request(url).text
print("正在解析 ")
return BeautifulSoup(html, 'lxml')
def get_girl_list(url):
soup = get_request_soup(url)
next_url = soup.find(class_='next page-numbers').get('href')
girls = soup.find(class_='postlist').select('li')
for girl in girls:
url = girl.find('a').get('href')
name = girl.find('span').find('a').string
get_girl_group(url, 1, name)
if not next_url == "":
get_girl_list(next_url)
def get_girl_group(url, page, name):
soup = get_request_soup(url + "/" + str(page))
max_page = int(soup.find(class_='pagenavi').select('span')[-2].string)
image = soup.find(class_='main-image').find('img').get('src')
save_img(image, name, page)
page += 1
if page < max_page:
get_girl_group(url, page, name)
# 存储妹子图片到本地
def save_img(url, file_name, page):
file_path = SAVE_PATH + file_name
image_path = file_path + "\" + str(page) + ".jpg"
print('检查文件是否存在 ' + image_path)
if not os.path.exists(image_path):
print("文件正在下载...")
html = get_request(url).content
print("下载成功")
print("检查文件夹是否存在")
exi = os.path.exists(file_path)
if not exi:
print("创建文件夹 " + file_name)
os.makedirs(file_path)
else:
print("文件夹已存在 " + file_name)
print("存入磁盘中...")
f = open(image_path, 'wb')
f.write(html)
print("存放完成")
f.close()
else:
print("文件已存在,无需重复下载" + image_path)
get_girl_list(MZITU)
python妹子图软件下载_【简单爬虫】 爬取妹子图 自动下载 [改进]相关推荐
- 初始python爬虫-爬取彼岸图单张到全部图片
初始python爬虫-爬取彼岸图单张到全部图片 1.单张图片爬取 2.一页图片 3.多页图片 彼岸图链接: https://pic.netbian.com/new/ 用到的库: import requ ...
- python爬虫爬取彼岸图网图片
python爬虫爬取彼岸图网图片 话不多说,直接上代码! import requests from PIL import Image from io import BytesIO import re ...
- python3爬虫爬取百度贴吧下载图片
python3爬虫爬取百度贴吧下载图片 学习爬虫时没事做的小练习. 百度对爬虫还是很友好的,在爬取内容方面还是较为容易. 可以方便各位读者去百度贴吧一键下载每个楼主的图片,至于是什么类型的图片,就看你 ...
- Python使用BeautifulSoup简单实现爬取妹子mm图片--初级篇
先来个效果截图(屈服在我的淫威之下吧!坏坏...嘿0.0) 因为是简易版而且是自己写着玩玩而已,自己也刚学,亦是笔记亦是分享,大佬轻喷就好.主要目的是希望更多人能够体验爬取一些seqing图片的 快乐 ...
- python爬虫豆瓣电影评价_使用爬虫爬取豆瓣电影影评数据Python版
在 使用爬虫爬取豆瓣电影影评数据Java版 一文中已详细讲解了爬虫的实现细节,本篇仅为展示Python版本爬虫实现,所以直接上代码 完整代码 爬虫主程序 # 爬虫启动入口 from C02.data ...
- python网络爬虫网易云音乐下载_python网络爬虫爬取网易云音乐
#爬取网易云音乐 url="https://music.163.com/discover/toplist" #歌单连接地址 url2 = 'http://music.163.com ...
- java用爬虫爬一个页面_使用Java写一个简单爬虫爬取单页面
使用Java爬虫爬取人民日报公众号页面图片 使用Java框架Jsoup和HttpClient实现,先看代码 爬取目标页面 1.使用Maven构建一个普通Java工程 加入依赖: org.jsoup j ...
- Jsoup学习 JAVA爬虫爬取美女网站 JAVA爬虫爬取美图网站 爬虫
最近对爬虫起了兴趣,但是网上都说做爬虫最好得语言是py.但是我只会java,所以就想能不能用java实现一个爬虫,百度搜索发现,其实java也有很多优秀得开源爬虫框架,包括Gecco,webmagic ...
- python跑一亿次循环_python爬虫爬取微博评论
原标题:python爬虫爬取微博评论 python爬虫是程序员们一定会掌握的知识,练习python爬虫时,很多人会选择爬取微博练手.python爬虫微博根据微博存在于不同媒介上,所爬取的难度有差异,无 ...
- 简单爬虫,爬取天猫商品信息
前言 这是我第一次用Java来写爬虫项目,研究的也不是很透彻,所以爬虫技术的理论方面的就不说太多了. 主要还是以如何爬取商品信息为主,爬取最简单的商品信息,给出大概的思路和方法. 对于没有反爬技术的网 ...
最新文章
- Forefront for OCS2007之部署
- 如何编写项目总结报告(转)
- 三元组顺序表表示的稀疏矩阵加法_数据结构实验题(三元组顺序表表示的稀疏矩阵转置运算)...
- 计算机基础学习必看书籍汇总
- java.util.NoSuchElementException: No value present
- (MoMoCMS教程11)页面的SEO优化与外链
- Android魔术——手把手教你实现水晶球波浪进度条
- tr69 GatewayInfo 节点添加
- Asp.NetCoreWebApi入门 - 从零开始新建api项目
- Linux 启动失败 磁盘阵列,组建RAID5重启系统,出现md127的解决办法
- P1001 蓝桥杯算法提高-用字符串处理大数乘法
- ASRT语音识别asrserver http协议测试专用客户端
- 立志欲坚不欲锐 - 2019 年小结
- X1000代码烧写配置
- 用Python玩玩OSMnx包获取道路数据并可视化分析
- python 重命名的方法,python 怎么重命名文件
- 百度api英文验证码
- android模拟器玩手游,电脑上玩手游PC安卓模拟器哪个好用?哪个手机模拟器最好...
- 十大报表工具 BI 产品深度点评-----BI报表行业专家干货分享----一文读懂报表与BI的行业现状----最新常用BI报表工具对比科普帖
- 关于微信表情及输入法emoji显示问题解决方案