1.1 网址

# 谷歌浏览器http://www.netbian.com/weimei/

1.2 查看网页源代码

# 1 直接获取会遇到防火墙,添加verify=False去掉安全认证# 2 response.encoding = 'gbk'需要考虑原页面的代码# 查看代码中charest然后设定格式
*- 网址特点需要二进宫,进入该网址然后将结果输出

爬取数据

2.1 导入包

import requestsfrom bs4 import BeautifulSoup

2.2 获取数据

url= 'http://www.netbian.com/weimei/'headers = {    "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.131 Safari/537.36"}
# 获取主页面的页面的源代码并处理文字response = requests.get(url,headers=headers,verify=False)response.encoding = 'gbk'print(response.text)

2.3 解析数据

# 主页面的源代码交给bs4domain = 'http://www.netbian.com/'main_page = BeautifulSoup(response.text,"html.parser")a_list = main_page.find("div",class_="list").find_all("a")   # 范围第一次缩小a_list​​​​​​
*- 提取到的内容:href="/desk/23552.htm"
*- 实际网址:http://www.netbian.com/desk/23552.htm
*- 解决思路domain = 'http://www.netbian.com/'href = domain + b 获取第二次爬取的链接进入子链接后查看网页源代码——>通过获取信息下载该图片

2.4 下载数据

# 获取子页面的链接并进入子页面for a  in a_list:    b = a.get("href").strip("/")    if b.startswith('desk'):     # 判断开头        href = domain + b        # 直接通过get获取相关图片的链接                                                   child_response = requests.get(href,headers=headers,verify=False)    child_response.encoding = 'gbk'    child_page_text = child_response.text         # 获取子页面的内容
    child_page = BeautifulSoup(child_page_text,"html.parser")    div = child_page.find("div",class_="endpage")   # 范围第二次缩小
    img = div.find("img")          # 发现整个链接前一个    src = img.get("src")           #  需要什么属性就get什么,获取高清图片链接        # 下载图片    img_response = requests.get(src)
    # 图片内容下载到文件    img_name = src.split("/")[-1]   # 定义名字    with open("img2/"+img_name,mode="wb") as f:        f.write(img_response.content)
    print("over!",img_name)
print('all over !!!')

Python源代码

import requests
from bs4 import BeautifulSoup
url= 'http://www.netbian.com/weimei/'
headers = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.131 Safari/537.36"
}# 获取主页面的页面的源代码并处理文字
response = requests.get(url,headers=headers,verify=False)
response.encoding = 'gbk'
print(response.text)
# 主页面的源代码交给bs4
domain = 'http://www.netbian.com/'
main_page = BeautifulSoup(response.text,"html.parser")
a_list = main_page.find("div",class_="list").find_all("a")   # 范围第一次缩小
a_list
# 获取子页面的链接并进入子页面
for a in a_list:b = a.get("href").strip("/")if b.startswith('desk'):  # 判断开头href = domain + b  # 直接通过get获取相关图片的链接child_response = requests.get(href, headers=headers, verify=False)child_response.encoding = 'gbk'child_page_text = child_response.text  # 获取子页面的内容child_page = BeautifulSoup(child_page_text, "html.parser")div = child_page.find("div", class_="endpage")  # 范围第二次缩小img = div.find("img")  # 发现整个链接前一个src = img.get("src")  # 需要什么属性就get什么,获取高清图片链接# 下载图片img_response = requests.get(src)# 图片内容下载到文件img_name = src.split("/")[-1]  # 定义名字with open("img2/" + img_name, mode="wb") as f:f.write(img_response.content)print("over!", img_name)print('all over !!!')

 下载图片之前要建立文件夹

 下载图片之前要建立文件夹

 下载图片之前要建立文件夹

简易爬虫教程爬取4K高清图片相关推荐

  1. Python 网络爬虫:爬取4K高清美图

    爬取4K高清美图 这篇爬虫主要是用来爬取网站高清4K图片,这也是笔者学初学爬虫的时候最先写一个的爬虫脚本,现在回过头来重新梳理一下,也算是对从前知识的一个总结,希望对大家有所帮助! 文章目录 爬取4K ...

  2. Python爬虫从入门到精通:(9)数据解析_xpath解析2_爬取4K高清动漫图片_Python涛哥

    使用xpath爬取4K高清动漫图片名称和图片数据 爬取当前页: # 创建文件夹 存储图片 dirName = 'GirlsLib' if not os.path.exists(dirName):os. ...

  3. 全网最细------爬取4k高清大图

    本次案例将教大家免费爬取4k高清大图,即使你是爬虫新手,也可以食用本次文章实现你的免费下载梦,话不多说,先看效果 网站视图: 看到这些图片你是否怦然心动,跟着我一起看下去. 一.思路分析 首先最基本的 ...

  4. python爬取4k高清壁纸(多线程版)

    刚学了多线程,于是把上次写的博客拿出来进行改写, 原文链接:python爬取4k高清壁纸(再也不怕没有壁纸了) 爬取过程已经在上一次写过了,可以点击原文链接查看. 废话不多说,直接上多线程代码: im ...

  5. python利用bs4爬取外国高清图片网站

    python利用bs4爬取外国高清图片网站 爬取高清图片 爬取高清图片 import re import requests from bs4 import BeautifulSoup import o ...

  6. python按关键字爬取必应高清图片

    通过查询前人的博客,发现必应可通过url按关键字查找图片: https://www.bing.com/images/async?q=查询关键字&first=图片编号&count=图片数 ...

  7. selenium、requests爬取新浪微博高清图片

    文章目录 案例介绍 step1:导入必要的包,模拟浏览器打开新浪微博首页 step2:登录微博账号,进入艾漫数据的微博主页,搜索"全部艺人活跃粉丝榜" step3:获取目标图片的u ...

  8. python爬取4k高清壁纸(再也不怕没有壁纸了)

    今天突然想换壁纸,在网上找了一圈没有找到满意的,正好学了爬虫,于是我就想把它们全都爬取下来,慢慢挑选. 这次爬取的目标是:彼岸图网动漫壁纸 接下来,我将详细讲解爬取过程: 首先点开网站,右键–检查 观 ...

  9. python爬虫爬取海量高清图片,小白都能学习的简单操作

    正文 目标网站divinl 首先看看这网站是怎样加载数据的; 打开网站后发现底部有下一页的按钮,ok,爬这个网站就很简单了; 日文的 我们目标是获取每张图片的高清的源地址,并且下载图片到桌面; 先随便 ...

最新文章

  1. 打包tomcat没有xml文件_Spring Boot 项目打包 War 并部署到 Tomcat
  2. 李飞飞、吴恩达、Bengio等人的15大顶级深度学习课程,你收集全了吗?
  3. awk 控制语句(if for do while)
  4. weblogic线程阻塞性能调优(图解)转
  5. Centos7安装netstat及简单使用
  6. 信号量 读者写者问题
  7. failed to accept an incoming connection: connection from 127.0.0.1 rejected, allowed hosts:
  8. PostgreSQL逻辑优化——整体架构
  9. 2017-5-29学习记录——WebApi(1)
  10. Eclipse安装svn插件的几种方式
  11. tcpudp测试工具的使用,串口转wifi模块udp测试
  12. (Applied Intelligence-2022)TransGait: 基于多模态的步态识别与集合Transformer
  13. iRightMouse 1.2.0 中文版 (超赞的Mac右键菜单扩展)
  14. HDC1080 驱动程序代码(C语言版)
  15. 图像处理与计算机视觉:基础,经典以及最近发展(转)
  16. 360T7路由器进行WiFi无线中继教程
  17. DNA计算 与 肽展公式 推导 AOPM-A 变胸腺苷, AOPM-O尿胞变腺苷, AOPM-P尿胞变鸟苷, AOPM-M鸟腺苷的 S形螺旋纹 血氧峰 触发器分子式 严谨完整过程
  18. ncbi blast MATLAB,NCBI-BLAST在线使用教程详细攻略(图解)
  19. aimesh r6400 开_适合家用的路由器有哪些?
  20. win10、win7 脚本导证书到系统中

热门文章

  1. 大数据系列教程001-初识大数据
  2. 2022SDUT知到/智慧树----C语言第九章测试题解
  3. 「github资料」40个Python可视化图表案例(附零基础学习资料)篇幅较长,建议收藏
  4. 江苏专技岗计算机类真题,2019江苏事业单位统考招聘笔试内容及题型题量
  5. 计算机中的所有信息都是以什么形式存在,信息格式
  6. SQL Sever数据库简介
  7. 手机常用术语英文翻译
  8. unity spine动画播放隐藏后马上显示播放抽搐的bug
  9. 全球商品期货量化交易策略
  10. 2.ADS操作入门_线性/非线性仿真工具