python爬取妹子图片_利用爬虫爬取清纯妹子图片
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
from bs4 import BeautifulSoup
import requests
import time
import os
def get_html(url):
try:
response=requests.get(url)
response.encoding='gb2312'
if response.status_code==200:
print('成功连接!网址为'+url)
return response.text
except requests.RequestException:
return None
def get_url_and_name(url):
"传入的参数为主页面链接,返回值是一个含有2元素的列表,元素1为图包链接,元素2为图包名"
html=get_html(url)
soup=BeautifulSoup(html,'lxml')
name=[]
url_1=[]
list2=soup.find_all(class_='t')
sign=1
for item in list2:
if(sign!=1 and sign!=42):
url_temp=item.find('a').get('href')
name_temp=item.find(class_='title').find('a').get('title')
url_1.append(url_temp)
name.append(name_temp)
sign=sign+1
temp=[url_1,name]
return temp
def get_pic_url(url):
"传入的参数为图包的链接,返回值为图包的所有图片的链接"
address=[]
html1=get_html(url)
soup=BeautifulSoup(html1,'lxml')
list4=soup.find(class_='page').find_all('a')
temp=1
while(temp
if(temp==1):
url_3=url
else:
url_3=url.replace('.html','_'+str(temp)+'.html')
temp=temp+1
html2=get_html(url_3)
soup1=BeautifulSoup(html2,'lxml')
list3=soup1.find(class_='content').find_all('img')
for item in list3:
address.append(item.get('src'))
return address
def pic_download(url,name,path):
"url为一个图包的所有图片链接的列表,name为图包的名字,path为下载的目录"
os.mkdir(path+'./'+name)
//因为使用的是mkdir函数,所以需要保证要创建的文件夹不能存在,否则会报错
print('正在下载的图包名为'+name)
index=1
for i1 in url:
filename = path+'./'+name+'./'+str(index) +'.jpg'
with open(filename, 'wb') as f:
img = requests.get(i1).content
f.write(img)
index += 1
time.sleep(2)
print(name+'下载完毕!')
def main(i):
//i为该图站首页的页数(第几页)
url='https://www.keke234.com/gaoqing/list_5_'+str(i)+'.html'
path=r'N:\pic_download'
//path为自定义路径
information=get_url_and_name(url)
num=0
for item in information[0]:
address=get_pic_url(item)
pic_download(address,information[1][num],path)
num=num+1
if __name__ == '__main__':
for i in range(1,2):
main(i)
python爬取妹子图片_利用爬虫爬取清纯妹子图片相关推荐
- python抓取数据包_利用python-pypcap抓取带VLAN标签的数据包方法
1.背景介绍 在采用通常的socket抓包方式下,操作系统会自动将收到包的VLAN信息剥离,导致上层应用收到的包不会含有VLAN标签信息.而libpcap虽然是基于socket实现抓包,但在收到数据包 ...
- python 按键精灵识图_利用-百度云通用文字识别-图片转文字
Import "ShanHai.lua" Dim access_token,params,post数据,网页源文件,data,img,ocrHttp,path,cmd //acce ...
- java抓取并保存图片_利用JAVA抓取网站的所有图片并保存于本地
由于今天我要保存一个网页上的所有图片并做一个ppt,但是这个网页比较蛋疼,是微信上的一个类似于动画的东西,所以没法保存整个网页然后直接取照片, 所以我采用java写了一个程序,采用类似于网络爬虫的思路 ...
- 利用爬虫爬取wallhaven壁纸
利用爬虫爬取wallhaven壁纸 '''解析网页''' headers={'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) Apple ...
- 【Python爬虫】利用爬虫抓取双色球开奖号码,获取完整数据,简洁45行代码实现,更新时间2023-06-28
链接:https://pan.baidu.com/s/18oE308_NVNPaCOACw_H5Hw?pwd=abc1 利用爬虫抓取双色球开奖号码,获取完整数据,简洁45行代码实现,更新时间2023- ...
- 小白必看、手把手教你利用爬虫爬网页
接下来从网络爬虫的概念.用处与价值和结构等三个方面,让大家对网络爬虫有一个基本的了解. 网络爬虫及其应用 随着网络的迅速发展,万维网成为大量信息的载体,如何有效地提取并利用这些信息成为一个巨大的挑战, ...
- python爬虫好友图片_利用Python网络爬虫抓取微信好友的签名及其可视化展示
前几天给大家分享了如何利用Python词云和wordart可视化工具对朋友圈数据进行可视化,利用Python网络爬虫抓取微信好友数量以及微信好友的男女比例,以及利用Python网络爬虫抓取微信好友的所 ...
- python爬图片_网络爬虫经验:反爬和反反爬
我想很多人入门python是图片爬虫,就是HTTP请求,保存一下图片,用python实现非常快.网上很多爬虫的教程就讲到这里,实际上很单一,看了跟没看没什么区别,都是找一下网页的规律,然后Beauti ...
- application实现网页计数_手把手教你利用爬虫爬网页(Python代码)
本文主要分为两个部分:一部分是网络爬虫的概述,帮助大家详细了解网络爬虫:另一部分是HTTP请求的Python实现,帮助大家了解Python中实现HTTP请求的各种方式,以便具备编写HTTP网络程序的能 ...
最新文章
- NOIp 2014 #4 无线网络发射器选址 Label:模拟
- Christopher Manning​:Uber 出售自动驾驶部门是一个标志性事件​ | AI日报
- 【JVM调优】JVM的运行参数
- JAVA核心技术卷2:高级特征(原书第8版)
- 简单实现TabBar的自定义
- 第二篇:浅谈自定义头文件可能导致的重定义问题
- Rsync服务及搭建备份服务器
- html中滚动条属性设置
- iTerm2 + Fish 打造高效终端
- 行为型设计模式:模板模式
- 基于pytorch-openpose框架的的人体姿态检测
- 关于Lua的下载以及wlua、luac等文件的解释
- epsonl360打印机连接电脑_epsonl360打印机脱机如何解决
- Python 实现毫秒级淘宝抢购脚本
- -1 转换成二进制数是多少,负数左移右移。
- 数据增强——基本方法
- win10删除Windows更新和预览的版本,关闭自动更新
- ”Could not find tag for codec none in stream #0, codec not currently supported in container”的解决方法
- 特征提取算法_基于特征选择与特征提取融合的鸡蛋新鲜度光谱快速检测模型优化...
- xp系统禁止开机启动服务器,win xp开机启动项怎么设置-win xp关闭开机启动项的方法 - 河东软件园...