import requests
import re
import os
url = 'http://image.baidu.com/search/index'
date = {'cl': '2','ct': '201326592','fp': 'result','gsm': '1e','ie': 'utf-8','ipn': 'rj','istype': '2','lm': '-1','nc': '1','oe': 'utf-8','pn': '30','queryword': '唯美意境图片','rn': '30','st': '-1','tn': 'resultjson_com','word': '唯美意境图片'
}
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64; rv:44.0) Gecko/20100101 Firefox/44.0','Accept': 'text/plain, */*; q=0.01','Accept-Language': 'zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3','Accept-Encoding': 'gzip, deflate','X-Requested-With': 'XMLHttpRequest','Referer': 'http://image.baidu.com/search/index?ct=201326592&cl=2&st=-1&lm=-1&nc=1&ie=utf-8&tn=baiduimage&ipn=r&rps=1&pv=&fm=rs3&word=%E5%94%AF%E7%BE%8E%E6%84%8F%E5%A2%83%E5%9B%BE%E7%89%87&ofr=%E9%AB%98%E6%B8%85%E6%91%84%E5%BD%B1','Cookie': 'BDqhfp=%E5%94%AF%E7%BE%8E%E6%84%8F%E5%A2%83%E5%9B%BE%E7%89%87%26%26NaN-1undefined-1undefined%26%260%26%261; Hm_lvt_737dbb498415dd39d8abf5bc2404b290=1455016371,1455712809,1455769605,1455772886; PSTM=1454309602; BAIDUID=E5493FD55CFE5424BA25B1996943B3B6:FG=1; BIDUPSID=B7D6D9EFA208B7B8C7CB6EF8F827BD4E; BDUSS=VSeFB6UXBmRWc3UEdFeXhKOFRvQm4ySmVmTkVEN2N0bldnM2o5RHdyaE54ZDlXQVFBQUFBJCQAAAAAAAAAAAEAAABzhCtU3Mbj5cfl0e8AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAE04uFZNOLhWZW; H_PS_PSSID=1447_18282_17946_15479_12166_18086_10634; Hm_lpvt_737dbb498415dd39d8abf5bc2404b290=1455788775; firstShowTip=1; BDRCVFR[-pGxjrCMryR]=mk3SLVN4HKm; BDRCVFR[dG2JNJb_ajR]=mk3SLVN4HKm','Connection': 'keep-alive'
}def get_page(url, date, headers):page = requests.get(url, date, headers=headers).textreturn pagedef get_img(page, headers):reg = re.compile('http://.*?\.jpg')imglist = re.findall(reg, page)[::3]x = 0if not os.path.exists("D:/Pic"):os.makedirs("D:/Pic")for imgurl in imglist:with open('D:/Pic/%s.jpg' % x, 'wb') as file:file.write(requests.get(imgurl, headers=headers).content)x += 1if __name__ == '__main__':page = get_page(url, date, headers)get_img(page, headers)

效果

使用requests 爬取唯美意境图片相关推荐

  1. Ajax爬取唯美女孩图片

    requests爬取唯美女孩图片 一.前言 二.实现项目 1.分析网页 2.爬取网页 2-1.模拟POST请求 2-2.解析图集列表页面 2-2.解析图集页面 2-3.保存图片 2-4.执行爬虫 3. ...

  2. Python爬取 | 唯美女生图片

    这里只是代码展示,且复制后不能直接运行,需要配置一些设置才行,具体请查看下方链接介绍: Python爬取 | 唯美女生图片 from selenium import webdriver from fa ...

  3. python爬虫之爬取“唯美“主流图片

    个人名片:

  4. 爬取唯美女生网站上所有小姐姐的照片

    爬取唯美女生网站 前几天刚好看到有人在教学爬取唯美女生网站(https://www.vmgirls.com)的图片,大致听了一下,只是介绍了一次爬取某一个小姐姐的照片,因此就尝试做一个爬取全站小姐姐照 ...

  5. 第一个爬虫项目-爬取唯美小姐姐网站

    爬取唯美小姐姐网站 链接: 源代码文件下载地址 展示 源代码 import requests import re import os import time# 伪装 用于可以伪装成浏览器. heade ...

  6. python使用 Scrapy 爬取唯美女生网站的图片资源

    python  python使用 Scrapy 爬取唯美女生网站 的资源,图片很好,爬取也有一定的难度,最终使用Scrapy获取了该网站 1.5W多张美眉照片....如有侵权,联系,立删除. ==== ...

  7. python超详细零基础 bs4解析之爬取唯美图片

    文章目录 前言 前言 本篇文章主要介绍使用bs4解析来爬取某网站上的唯美高清大图,涉及到的零碎知识较多,详细易懂,适合新手小白爬虫入门. 思路如下: ①拿到主页面的源代码,然后提取到子页面的链接地址h ...

  8. BeautifulSoup爬取唯美girls小姐姐图片

    0. 美好的事务能够使人心情预约,尤其是美丽的小姐姐哈哈哈,这篇文章是一篇爬虫实战,没有什么技术难点,主要使用BeautifulSoup库进行分析,重点讲解拿到一个网站时如何去分析页面源码. 1.用到 ...

  9. 练习使用WebMagic爬取唯美图片

    文章目录 前言 第一步 分析网站数据结构 第二步 代码实现 1.Maven仓库配置 2.PageProcessor代码 3.主程序 第三步 打完收工 前言 周末闲着没事,准备练习一下爬虫技术,同时也拓 ...

最新文章

  1. 进制转换converse
  2. LINUX下c语言调用math.h库函数的注意事项
  3. 页面乱码问题的解决方案
  4. 从 DevOps 到 Serverless:通过“不用做”的方式解决“如何更高效做”的问题
  5. 【C++】Visual Studio 2019 三个版本比较
  6. 1535C. Unstable String
  7. 如何将两部手机内容互换_两部iPhone手机之间如何大量互传照片?
  8. C++ 构造函数 与 析构函数
  9. 企业启动计划预算管理的原因解析
  10. Redis主从,哨兵架构简单搭建
  11. Windows10安装Matlab 2018b教程
  12. EJB到底是什么?(通俗易懂白话文)
  13. 杭电1001 java_杭电ACM1001
  14. 用户画像基础之应用落地和案例展示
  15. 桌面图标出现蓝色问号
  16. 嵌入式设备开发专题《NB-IoT开发,解读SIM卡、USIM卡、UICC卡、eSIM卡的区别》
  17. 如何快速增加NFC能力到任何应用程序
  18. 目前网页制作的基本语言html,第二讲网页制作基本语言HTML”.ppt
  19. 微信小程序-后台使用富文本编辑器返回数据,小程序编译富文本编辑器返回的数据
  20. C语言struct用法详解

热门文章

  1. AIDE能进行C语言编译吗,java手机编译器AIDE
  2. 如何对某一位置0或者置1?
  3. android 新浪天气,新浪天气通发布Android 1.5版 助盲人听天气
  4. 2022世界杯漫谈与猜想,谁是你心目中的第一
  5. echarts地图罗平县的json_echarts全国各省、市、区县地图JS、JSON
  6. 外勤人员管理的重要性
  7. Qt编写物联网管理平台49-设备模拟工具
  8. select分页要调优100倍,说说你的思路? (内含Mysql的36军规)
  9. 数值分析总结笔记1——向量范数、矩阵范数
  10. 如何微信增粉5万?从偶遇微信地推员说起