使用requests 爬取唯美意境图片
import requests
import re
import os
url = 'http://image.baidu.com/search/index'
date = {'cl': '2','ct': '201326592','fp': 'result','gsm': '1e','ie': 'utf-8','ipn': 'rj','istype': '2','lm': '-1','nc': '1','oe': 'utf-8','pn': '30','queryword': '唯美意境图片','rn': '30','st': '-1','tn': 'resultjson_com','word': '唯美意境图片'
}
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64; rv:44.0) Gecko/20100101 Firefox/44.0','Accept': 'text/plain, */*; q=0.01','Accept-Language': 'zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3','Accept-Encoding': 'gzip, deflate','X-Requested-With': 'XMLHttpRequest','Referer': 'http://image.baidu.com/search/index?ct=201326592&cl=2&st=-1&lm=-1&nc=1&ie=utf-8&tn=baiduimage&ipn=r&rps=1&pv=&fm=rs3&word=%E5%94%AF%E7%BE%8E%E6%84%8F%E5%A2%83%E5%9B%BE%E7%89%87&ofr=%E9%AB%98%E6%B8%85%E6%91%84%E5%BD%B1','Cookie': 'BDqhfp=%E5%94%AF%E7%BE%8E%E6%84%8F%E5%A2%83%E5%9B%BE%E7%89%87%26%26NaN-1undefined-1undefined%26%260%26%261; Hm_lvt_737dbb498415dd39d8abf5bc2404b290=1455016371,1455712809,1455769605,1455772886; PSTM=1454309602; BAIDUID=E5493FD55CFE5424BA25B1996943B3B6:FG=1; BIDUPSID=B7D6D9EFA208B7B8C7CB6EF8F827BD4E; BDUSS=VSeFB6UXBmRWc3UEdFeXhKOFRvQm4ySmVmTkVEN2N0bldnM2o5RHdyaE54ZDlXQVFBQUFBJCQAAAAAAAAAAAEAAABzhCtU3Mbj5cfl0e8AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAE04uFZNOLhWZW; H_PS_PSSID=1447_18282_17946_15479_12166_18086_10634; Hm_lpvt_737dbb498415dd39d8abf5bc2404b290=1455788775; firstShowTip=1; BDRCVFR[-pGxjrCMryR]=mk3SLVN4HKm; BDRCVFR[dG2JNJb_ajR]=mk3SLVN4HKm','Connection': 'keep-alive'
}def get_page(url, date, headers):page = requests.get(url, date, headers=headers).textreturn pagedef get_img(page, headers):reg = re.compile('http://.*?\.jpg')imglist = re.findall(reg, page)[::3]x = 0if not os.path.exists("D:/Pic"):os.makedirs("D:/Pic")for imgurl in imglist:with open('D:/Pic/%s.jpg' % x, 'wb') as file:file.write(requests.get(imgurl, headers=headers).content)x += 1if __name__ == '__main__':page = get_page(url, date, headers)get_img(page, headers)
效果
使用requests 爬取唯美意境图片相关推荐
- Ajax爬取唯美女孩图片
requests爬取唯美女孩图片 一.前言 二.实现项目 1.分析网页 2.爬取网页 2-1.模拟POST请求 2-2.解析图集列表页面 2-2.解析图集页面 2-3.保存图片 2-4.执行爬虫 3. ...
- Python爬取 | 唯美女生图片
这里只是代码展示,且复制后不能直接运行,需要配置一些设置才行,具体请查看下方链接介绍: Python爬取 | 唯美女生图片 from selenium import webdriver from fa ...
- python爬虫之爬取“唯美“主流图片
个人名片:
- 爬取唯美女生网站上所有小姐姐的照片
爬取唯美女生网站 前几天刚好看到有人在教学爬取唯美女生网站(https://www.vmgirls.com)的图片,大致听了一下,只是介绍了一次爬取某一个小姐姐的照片,因此就尝试做一个爬取全站小姐姐照 ...
- 第一个爬虫项目-爬取唯美小姐姐网站
爬取唯美小姐姐网站 链接: 源代码文件下载地址 展示 源代码 import requests import re import os import time# 伪装 用于可以伪装成浏览器. heade ...
- python使用 Scrapy 爬取唯美女生网站的图片资源
python python使用 Scrapy 爬取唯美女生网站 的资源,图片很好,爬取也有一定的难度,最终使用Scrapy获取了该网站 1.5W多张美眉照片....如有侵权,联系,立删除. ==== ...
- python超详细零基础 bs4解析之爬取唯美图片
文章目录 前言 前言 本篇文章主要介绍使用bs4解析来爬取某网站上的唯美高清大图,涉及到的零碎知识较多,详细易懂,适合新手小白爬虫入门. 思路如下: ①拿到主页面的源代码,然后提取到子页面的链接地址h ...
- BeautifulSoup爬取唯美girls小姐姐图片
0. 美好的事务能够使人心情预约,尤其是美丽的小姐姐哈哈哈,这篇文章是一篇爬虫实战,没有什么技术难点,主要使用BeautifulSoup库进行分析,重点讲解拿到一个网站时如何去分析页面源码. 1.用到 ...
- 练习使用WebMagic爬取唯美图片
文章目录 前言 第一步 分析网站数据结构 第二步 代码实现 1.Maven仓库配置 2.PageProcessor代码 3.主程序 第三步 打完收工 前言 周末闲着没事,准备练习一下爬虫技术,同时也拓 ...
最新文章
- 进制转换converse
- LINUX下c语言调用math.h库函数的注意事项
- 页面乱码问题的解决方案
- 从 DevOps 到 Serverless:通过“不用做”的方式解决“如何更高效做”的问题
- 【C++】Visual Studio 2019 三个版本比较
- 1535C. Unstable String
- 如何将两部手机内容互换_两部iPhone手机之间如何大量互传照片?
- C++ 构造函数 与 析构函数
- 企业启动计划预算管理的原因解析
- Redis主从,哨兵架构简单搭建
- Windows10安装Matlab 2018b教程
- EJB到底是什么?(通俗易懂白话文)
- 杭电1001 java_杭电ACM1001
- 用户画像基础之应用落地和案例展示
- 桌面图标出现蓝色问号
- 嵌入式设备开发专题《NB-IoT开发,解读SIM卡、USIM卡、UICC卡、eSIM卡的区别》
- 如何快速增加NFC能力到任何应用程序
- 目前网页制作的基本语言html,第二讲网页制作基本语言HTML”.ppt
- 微信小程序-后台使用富文本编辑器返回数据,小程序编译富文本编辑器返回的数据
- C语言struct用法详解