文章目录

  • 写在前面
  • 准备工作
    • 驱动安装
    • 模块使用与介绍
  • 流程解析
  • 完整代码
  • 效果展示

写在前面

这不快过年了,又是要买年货,又是要给女朋友买礼物的,分析一下价格,看看哪些是真的降价了~

准备工作

驱动安装

实现案例之前,我们要先安装一个谷歌驱动,因为我们是使用selenium 操控谷歌驱动,然后操控浏览器实现自动操作的,模拟人的行为去操作浏览器。

以谷歌浏览器为例,打开浏览器看下我们自己的版本,然后下载跟自己浏览器版本一样或者最相近的版本,下载后解压一下,把解压好的插件放到我们的python环境里面,或者和代码放到一起也可以。

模块使用与介绍

  • selenium pip install selenium ,直接输入selenium的话是默认安装最新的,selenium后面加上版本号就是安装对应的的版本;
  • csv 内置模块,不需要安装,把数据保存到Excel表格用的;
  • time 内置模块,不需要安装,时间模块,主要用于延时等待;

流程解析

我们访问一个网站,要输入一个网址,所以代码也是这么写的。

首先导入模块

from selenium import webdriver

文件名或者包名不要命名为selenium,会导致无法导入。
webdriver可以认为是浏览器的驱动器,要驱动浏览器必须用到webdriver,支持多种浏览器。

实例化浏览器对象 ,我这里用的是谷歌,建议大家用谷歌,方便一点。

driver = webdriver.Chrome()

我们用get访问一个网址,自动打开网址。

driver.get('https://www.jd.com/')

运行一下

打开网址后,以买口红为例。

我们首先要通过你想购买的商品关键字来搜索得到商品信息,用搜索结果去获取信息。

那我们也要写一个输入,空白处点击右键,选择检查。

选择element 元素面板

鼠标点击左边的箭头按钮,去点击搜索框,它就会直接定位到搜索标签。

在标签上点击右键,选择copy,选择copy selector 。

如果你是xpath ,就copy它的xpath 。

然后把我们想要搜索的内容写出来

driver.find_element_by_css_selector('#key').send_keys('口红')

再运行的时候,它就会自动打开浏览器进入目标网址搜索口红。

同样的方法,找到搜索按钮进行点击。

driver.find_element_by_css_selector('.button').click()

再运行就会自动点击搜索了

页面搜索出来了,那么咱们正常浏览网页是要下拉网页对吧,咱们让它自动下拉就好了。
先导入time模块

import time

执行页面滚动的操作

def drop_down():"""执行页面滚动的操作"""  # javascriptfor x in range(1, 12, 2):  # for循环下拉次数,取1 3 5 7 9 11, 在你不断的下拉过程中, 页面高度也会变的;time.sleep(1)j = x / 9  # 1/9  3/9  5/9  9/9# document.documentElement.scrollTop  指定滚动条的位置# document.documentElement.scrollHeight 获取浏览器页面的最大高度js = 'document.documentElement.scrollTop = document.documentElement.scrollHeight * %f' % jdriver.execute_script(js)  # 执行我们JS代码

循环写好了,然后调用一下。

drop_down()

我们再给它来个延时

driver.implicitly_wait(10)

这是一个隐式等待,等待网页延时,网不好的话加载很慢。

隐式等待不是必须等十秒,在十秒内你的网络加载好后,它随时会加载,十秒后没加载出来的话才会强行加载。

还有另外一种死等的,你写的几秒就等几秒,相对没有那么人性化。

time.sleep(10)

加载完数据后我们需要去找商品数据来源

价格/标题/评价/封面/店铺等等

还是鼠标右键点击检查,在element ,点击小箭头去点击你想查看的数据。

可以看到都在li标签里面

获取所有的 li 标签内容,还是一样的,直接copy 。

在左下角就有了

这里表示的是取的第一个,但是我们是要获取所有的标签,所以左边框框里 li 后面的可以删掉不要。

不要的话,可以看到这里是60个商品数据,一页是60个。

所以我们把剩下的复制过来, 用lis接收一下 。

lis = driver.find_elements_by_css_selector('#J_goodsList ul li')

因为我们是获取所有的标签数据,所以比之前多了一个s

打印一下

print(lis)

通过lis返回数据 列表 [] 列表里面的元素 <> 对象

遍历一下,把所有的元素拿出来。

for li in lis:title = li.find_element_by_css_selector('.p-name em').text.replace('\n', '')  # 商品标题 获取标签文本数据price = li.find_element_by_css_selector('.p-price strong i').text  # 价格commit = li.find_element_by_css_selector('.p-commit strong a').text  # 评论量shop_name = li.find_element_by_css_selector('.J_im_icon a').text  # 店铺名字href = li.find_element_by_css_selector('.p-img a').get_attribute('href')  # 商品详情页icons = li.find_elements_by_css_selector('.p-icons i')icon = ','.join([i.text for i in icons])  # 列表推导式  ','.join 以逗号把列表中的元素拼接成一个字符串数据dit = {'商品标题': title,'商品价格': price,'评论量': commit,'店铺名字': shop_name,'标签': icon,'商品详情页': href,}csv_writer.writerow(dit)print(title, price, commit, href, icon, sep=' | ')

搜索功能

key_world = input('请输入你想要获取商品数据: ')

要获取的数据 ,获取到后保存CSV

f = open(f'京东{key_world}商品数据.csv', mode='a', encoding='utf-8', newline='')
csv_writer = csv.DictWriter(f, fieldnames=['商品标题','商品价格','评论量','店铺名字','标签','商品详情页',
])
csv_writer.writeheader()

然后再写一个自动翻页

for page in range(1, 11):print(f'正在爬取第{page}页的数据内容')time.sleep(1)drop_down()get_shop_info()  # 下载数据driver.find_element_by_css_selector('.pn-next').click()  # 点击下一页

完整代码

from selenium import webdriver
import time
import csvdef drop_down():"""执行页面滚动的操作"""  for x in range(1, 12, 2):  time.sleep(1)j = x / 9  # 1/9  3/9  5/9  9/9# document.documentElement.scrollTop  指定滚动条的位置# document.documentElement.scrollHeight 获取浏览器页面的最大高度js = 'document.documentElement.scrollTop = document.documentElement.scrollHeight * %f' % jdriver.execute_script(js)  # 执行JS代码key_world = input('请输入你想要获取商品数据: ')f = open(f'京东{key_world}商品数据.csv', mode='a', encoding='utf-8', newline='')
csv_writer = csv.DictWriter(f, fieldnames=['商品标题','商品价格','评论量','店铺名字','标签','商品详情页',
])
csv_writer.writeheader()# 实例化一个浏览器对象driver = webdriver.Chrome()
driver.get('https://www.jd.com/')  # 访问一个网址 打开浏览器 打开网址
# 通过css语法在element(元素面板)里面查找 #key 某个标签数据 输入一个关键词 口红
driver.find_element_by_css_selector('#key').send_keys(key_world)  # 找到输入框标签
driver.find_element_by_css_selector('.button').click()  # 找到搜索按钮 进行点击
# time.sleep(10) # 等待
# driver.implicitly_wait(10)  # 隐式等待 def get_shop_info():# 第一步 获取所有的li标签内容driver.implicitly_wait(10)lis = driver.find_elements_by_css_selector('#J_goodsList ul li')  # 获取多个标签# 返回数据 列表 [] 列表里面的元素 <> 对象# print(len(lis))for li in lis:title = li.find_element_by_css_selector('.p-name em').text.replace('\n', '')  # 商品标题 获取标签文本数据price = li.find_element_by_css_selector('.p-price strong i').text  # 价格commit = li.find_element_by_css_selector('.p-commit strong a').text  # 评论量shop_name = li.find_element_by_css_selector('.J_im_icon a').text  # 店铺名字href = li.find_element_by_css_selector('.p-img a').get_attribute('href')  # 商品详情页icons = li.find_elements_by_css_selector('.p-icons i')icon = ','.join([i.text for i in icons])  # 列表推导式  ','.join 以逗号把列表中的元素拼接成一个字符串数据dit = {'商品标题': title,'商品价格': price,'评论量': commit,'店铺名字': shop_name,'标签': icon,'商品详情页': href,}csv_writer.writerow(dit)print(title, price, commit, href, icon, sep=' | ')# print(href)for page in range(1, 11):print(f'正在爬取第{page}页的数据内容')time.sleep(1)drop_down()get_shop_info()  # 下载数据driver.find_element_by_css_selector('.pn-next').click()  # 点击下一页driver.quit()  # 关闭浏览器

效果展示

后面没写那么详细了,有点事情就直接发了,有视频的,可以找我看视频

代码是没得问题的,大家可以去试试,有什么问题欢迎在评论区交流~

Python爬虫 批量采集京东商品数据,实时了解商品价格走势相关推荐

  1. 【爬虫实战项目】Python爬虫批量旅游景点信息数据并保存本地(附源码)

    前言 今天给大家介绍的是Python爬虫批量下载旅游景点信息数据,在这里给需要的小伙伴们代码,并且给出一点小心得. 首先是爬取之前应该尽可能伪装成浏览器而不被识别出来是爬虫,基本的是加请求头,但是这样 ...

  2. 采集京东网数据的10个经典方法

    京东网数据采集全网抓取网页数据.商品销量.全网搜索.网页爬虫.采集网站数据.网页数据采集软件.python爬虫.HTM网页提取.APP数据抓包.APP数据采集.一站式网站采集技术.BI数据的数据分析. ...

  3. Python实现批量采集美女视频<无水印>

    前言 嗨嗨,大家下午好 ~ 我又来给你们送福利了嘿嘿 今天教你们如何用python实现批量采集美女视频 ~ 小声说:这次还有视频教程! 目录(可自行点击想去的地方) 前言 环境使用 模块使用: 按照常 ...

  4. 【爬虫实战项目】Python爬虫批量下载音乐飙升榜并保存本地(附源码)

    前言 今天给大家介绍的是Python爬虫批量下载音乐飙升榜并保存本地,在这里给需要的小伙伴们代码,并且给出一点小心得. 首先是爬取之前应该尽可能伪装成浏览器而不被识别出来是爬虫,基本的是加请求头,但是 ...

  5. 【爬虫实战项目】Python爬虫批量下载评书音频并保存本地(附源码)

    前言 今天给大家介绍的是Python爬虫批量下载评书音频并保存本地,在这里给需要的小伙伴们代码,并且给出一点小心得. 首先是爬取之前应该尽可能伪装成浏览器而不被识别出来是爬虫,基本的是加请求头,但是这 ...

  6. python爬网页数据用什么_初学者如何用“python爬虫”技术抓取网页数据?

    原标题:初学者如何用"python爬虫"技术抓取网页数据? 在当今社会,互联网上充斥着许多有用的数据.我们只需要耐心观察并添加一些技术手段即可获得大量有价值的数据.而这里的&quo ...

  7. python爬虫拉取豆瓣Top250数据

    python爬虫拉取豆瓣Top250数据 利用request和正则表达式抓取豆瓣电影Top250的相关内容,提取出电影的名称.时间.评分和图片等信息,提取的站点url为https://movie.do ...

  8. python爬虫批量下载“简谱”

    python讨论qq群:996113038 导语: 上次发过一篇关于"python打造电子琴"的文章,从阅读量来看,我们公众号的粉丝里面还是有很多对音乐感兴趣的朋友的.于是,今天我 ...

  9. Python爬虫《自动化学报》数据爬取与数据分析

    Python爬虫<自动化学报>数据爬取与数据分析 文章目录 Python爬虫<自动化学报>数据爬取与数据分析 前言 一.代码 二.结果展示 三.爬虫实现 1.准备 2.获取网页 ...

  10. 新一配:perl循环调用python爬虫批量下载喜马拉雅音频

    新一配:perl循环调用python爬虫批量下载喜马拉雅音频 手机下载喜马拉雅音频后,获得的音频文件虽然可以转成mp3格式,但其文件名却是一长串字符串,无法辨别是哪一集,网上找了各种工具,都有局限性, ...

最新文章

  1. outlook2010 打开总是提示“正在加载配置文件”
  2. 由于找不到appvisvsubsystems32.dll_去固始张街逛一逛,以后可能看不到了......
  3. python 格式化字符串_Python字符串三种格式化输出
  4. linux安装mq报5724,linux下MQ简单配置手册.doc
  5. java numa_Java只使用2个CPU中的1个和NUMA(Neo4J)
  6. zenmap nmap输出无显示_双路显示控制仪XME-H80-1616价格报价
  7. 这样就算会了PHP么?-11
  8. java string范围_java,String
  9. 华为2017.7.26机试
  10. Logistic回归及梯度上升算法
  11. Atitit 微服务的优点和拆分 目录 1. 微服务架构五大优势 崛起势头不可挡 4 1 1.1. 1、复杂度可控 6避免“盲人摸象” 7 2 1.2. 2、灵活可扩展 7 2 1.3. 3、独立部
  12. 【数位dp】模版总结
  13. java实例化对象的四种方式
  14. php---兄弟连的php培训视频的总结(1)
  15. Vue开发实例(03)之Vue项目引入element_ui
  16. unity天空盒渐变_在Unity3D中使用天空盒
  17. Hadoop2.8.5详细教程(四)Linux集群搭建+免密登录
  18. 数理统计与描述性分析
  19. 安卓手机管理器_安卓平台上功能最全面强大的文件管理器!
  20. sublime手动安装GoSublime

热门文章

  1. 安卓蓝牙键盘按键映射_安卓手游键盘映射工具(凤凰系统键盘映射) v2.0 最新版...
  2. php管理后台,后台管理主页面 admin.php
  3. 计算机专业的大专大学规划,大学生计算机专业职业规划个人简历
  4. Mac After Effects安装BodyMovin说明文档
  5. Java遍历Map集合的四种方式
  6. 基于java(springboot)餐厅点餐系统源码成品(java毕业设计)
  7. ARM指令集之跳转指令
  8. sql选择性插入_SQL插入选择
  9. springboot activiti 7 和activiti 6 配置详解
  10. python多PDF文件合成一个