嘿嘿 召唤老色批
今天带大家爬去一下美女的图片

用的是requests和xpath去解析

获取网页和解析网页的函数

def get_tag(response,tag):html=etree.HTML(response)ret=html.xpath(tag)return retdef parse_url(url):response=requests.get(url,headers=headers)return response.text

获取网页url

def url_find(url):r=parse_url(url)url_list=get_tag(r,'//*[@id="pins"]/li/span[1]/a/@href')title=get_tag(r, '//*[@id="pins"]/li/span[1]/a/text()')# print(len(url_list))for i in range(len(url_list)):url_jpg_find(url_list[i],title[i])print(title,'保存完毕')

获取图片的url

def url_jpg_find(url,title):global pagepage=0r=parse_url(url)url_last=int(get_tag(r,'/html/body/div[2]/div[1]/div[4]/a[5]/span/text()')[0])url_list=[url]+[url + '/' + str(i) for i in range(2, url_last + 1)]if not os.path.exists(title):os.makedirs(title)# else:#     returnfor i in url_list:content_find(i,title)# break

获取图片的信息

def content_find(url,title):# print(url)r=parse_url(url)# print(r)name=get_tag(r,'/html/body/div[2]/div[1]/h2/text()')[0]url_jpg=get_tag(r,'//div[@class="main-image"]//a/img/@src')[0]# print(name,url_jpg)time.sleep(0.2)save(name,url_jpg,title)

保存图片

def save(name,url_jpg,title):global pager=requests.get(url_jpg,headers=headers)with open(os.getcwd()+'/'+title+'/'+name+'.jpg','wb') as j:j.write(r.content)j.close()page+=1print(page)
import requests,os,time
from lxml import etreeheaders={"User-Agent" : "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36","Referer" : "https://www.mzitu.com",
}page=0def get_tag(response,tag):html=etree.HTML(response)ret=html.xpath(tag)return retdef parse_url(url):response=requests.get(url,headers=headers)return response.textdef url_find(url):r=parse_url(url)url_list=get_tag(r,'//*[@id="pins"]/li/span[1]/a/@href')title=get_tag(r, '//*[@id="pins"]/li/span[1]/a/text()')# print(len(url_list))for i in range(len(url_list)):url_jpg_find(url_list[i],title[i])print(title,'保存完毕')def url_jpg_find(url,title):global pagepage=0r=parse_url(url)url_last=int(get_tag(r,'/html/body/div[2]/div[1]/div[4]/a[5]/span/text()')[0])url_list=[url]+[url + '/' + str(i) for i in range(2, url_last + 1)]if not os.path.exists(title):os.makedirs(title)# else:#     returnfor i in url_list:content_find(i,title)# breakdef content_find(url,title):# print(url)r=parse_url(url)# print(r)name=get_tag(r,'/html/body/div[2]/div[1]/h2/text()')[0]url_jpg=get_tag(r,'//div[@class="main-image"]//a/img/@src')[0]# print(name,url_jpg)time.sleep(0.2)save(name,url_jpg,title)def save(name,url_jpg,title):global pager=requests.get(url_jpg,headers=headers)with open(os.getcwd()+'/'+title+'/'+name+'.jpg','wb') as j:j.write(r.content)j.close()page+=1print(page)def main():start_url='https://www.mzitu.com'r=parse_url(start_url)url_last=int(get_tag(r,'/html/body/div[2]/div[1]/div[3]/div/a[4]/text()')[0])url='https://www.mzitu.com/page/'url_list=['https://www.mzitu.com']+[url+str(i) for i in range(2,url_last+1)]# print(url_list)for url in url_list:url_find(url)# breakif __name__ == '__main__':main()

效果图就不放了
咳咳 太诱人 会被封掉
请大家自行脑补一下

一起学习python,小白指导,教学分享记得私信我

宅男福利 用Python爬取美女图片相关推荐

  1. python爬取美女图片的练习

    python 爬取美女图片的练习 主要使用 xpath 定位获取 图片的链接 本次练习使用到os库 ,lmxl库 , requests库 import requests from lxml impor ...

  2. 【爬虫实战】手把手教你使用python爬取美女图片

    本文目录 写作缘起 上代码 思路分析 效果展示 写在最后 写作缘起 用python爬虫实现的图片资源下载器,一页页下载图片过于缓慢,当我们要欣赏一些好看的图片时一页页翻太复杂了,干脆写一个图片下载器 ...

  3. 用python爬取美女图片

    import urllib.request import os for i in range(2000, 2400): if not os.path.exists('tupian/' + str(i) ...

  4. 爬取美女图片保存本地与入MySQL库(宅男福利)

    本文详细记录如何爬取美女图片,并将图片下载保存在本地,同时将图片url进行入库.保存在本地肯定是为了没事能拿出来养养眼啊,那入库就是为了定位图片啊,要懂点技术的话,还能搬运搬运做个小图片网站,不为别的 ...

  5. 【考公人的福利】Python爬取中公官网资料

    [考公人的福利]Python爬取中公官网资料 一.简述 二.代码 三.运行结果 一.简述 写这个代码的目的是能够高效率提取中公官网的资料,例如:申论.行测.面试热点.公安基础知识等.大家可以根据个人需 ...

  6. Scrapy爬取美女图片续集 (原创)

    上一篇咱们讲解了Scrapy的工作机制和如何使用Scrapy爬取美女图片,而今天接着讲解Scrapy爬取美女图片,不过采取了不同的方式和代码实现,对Scrapy的功能进行更深入的运用. 在学习Scra ...

  7. Python爬取bing图片

    我之前写过一篇Python爬取百度图片,有兴趣的朋友可以去读一下,这次写的是爬取Bing的图片. 打开Bing图片,搜索关键词,开始分析页面,可以发现bing和百度一样都是下滑自动加载,百度默认一次加 ...

  8. Scrapy爬取美女图片续集

    上一篇咱们讲解了Scrapy的工作机制和如何使用Scrapy爬取美女图片,而今天接着讲解Scrapy爬取美女图片,不过采取了不同的方式和代码实现,对Scrapy的功能进行更深入的运用. 在学习Scra ...

  9. 使用Python爬取网页图片

    使用Python爬取网页图片 李晓文 21 天前 近一段时间在学习如何使用Python进行网络爬虫,越来越觉得Python在处理爬虫问题是非常便捷的,那么接下来我就陆陆续续的将自己学习的爬虫知识分享给 ...

最新文章

  1. 2022-2028年中国第五代移动通信技术(5G)市场研究及前瞻分析报告
  2. MySQL 性能测试
  3. JQuery 总结(7) index() data() each() 选项卡 表单验证
  4. 云数据中心异构资源管理大有可为
  5. python多线程网络编程_python网络编程之线程
  6. pytorch学习笔记(1):开始一个简单的分类器
  7. Spark RDD Transformation
  8. 8.9 NOIP模拟测试15 建设城市(city)+轰炸行动(bomb)+石头剪刀布(rps)
  9. objective-c中的@selector()和 c /c++的函数指针
  10. 神经网络工具箱——nn.funtional、初始化策略
  11. 关于FbinstTool加入360急救盘见解
  12. Application.DoEvents()
  13. COM in Wine(1)——COM基本概念
  14. springboot+Rabit实战二:(Rabbit MQ web 界面管理)
  15. 吴恩达深度学习课程笔记(初步认识神经网络)
  16. 从“汽转球”、“差分机”到“机巧伊武”——蒸汽朋克补完计划
  17. 轩小陌的Python笔记-day08 模块一总结
  18. 《谁动了我的奶酪》书评
  19. Ubuntu系统编译opencv4.0以上以及opencv_contrib
  20. 轻松玩转新编日语3 zz江沪

热门文章

  1. Qcom 平台 LK 阶段配置 I2C
  2. 高红梅:第四章 第三节 现代工业文明的反思与高贵野蛮人的身份认同
  3. 2006年世界杯——巴西队最后一次世界冠军
  4. ArcMap中属性字段计算器(Field Calculator)的使用技巧
  5. Google Earth Engine (GEE) ——export 导出指定尺寸的影像
  6. ubuntu 必备软件
  7. 耶鲁大学Michel H. Devoret教授荣获2021年“墨子量子奖”
  8. BUCK型开关电源中的损耗与效率的计算
  9. nodejs 打印五彩斑斓的黑
  10. 【java】对URL中的中文和符号进行UrlEncode转码