前言

双十一还没有过去,虽然现在是某D的场景期,但是出这篇文章也不晚,可以冲刺一下10号的高峰期~

各位朋友,尤其是学Python的直男朋友,看了这篇文章,准备准备给对象购买一下新年礼物吧,哈哈(也可以说是跨年礼物)当然也可以给自己买,投资自己,也是非常不错的

没对象的赶紧找,但是先码住这篇文章也是不错滴

话不多说了,就开始吧

准备工作

驱动安装

实现案例之前,我们要先安装一个谷歌驱动,因为我们是使用selenium 操控谷歌驱动,然后操控浏览器实现自动操作的,模拟人的行为去操作浏览器。

以谷歌浏览器为例,打开浏览器看下我们自己的版本,然后下载跟自己浏览器版本一样或者最相近的版本,下载后解压一下,把解压好的插件放到我们的python环境里面,或者和代码放到一起也可以。

模块使用与介绍

  • selenium pip install selenium
    ,直接输入selenium的话是默认安装最新的,selenium后面加上版本号就是安装对应的的版本;
  • csv 内置模块,不需要安装,把数据保存到Excel表格用的;
  • time 内置模块,不需要安装,时间模块,主要用于延时等待;

流程解析

我们访问一个网站,要输入一个网址,所以代码也是这么写的。

导入模块

源码点击领取即可

from selenium import webdriver

文件名或者包名不要命名为selenium,会导致无法导入。
webdriver可以认为是浏览器的驱动器,要驱动浏览器必须用到webdriver,支持多种浏览器。

实例化浏览器对象 ,我这里用的是谷歌,建议大家用谷歌,方便一点。

driver = webdriver.Chrome()

打开网址

我们用get访问一个网址,自动打开网址。

driver.get('https://***com/')

运行一下

打开网址后,以买口红为例。

我们首先要通过你想购买的商品关键字来搜索得到商品信息,用搜索结果去获取信息。

那我们也要写一个输入,空白处点击右键,选择检查。

选择element 元素面板

鼠标点击左边的箭头按钮,去点击搜索框,它就会直接定位到搜索标签。

在标签上点击右键,选择copy,选择copy selector 。

如果你是xpath ,就copy它的xpath 。

然后把我们想要搜索的内容写出来

driver.find_element_by_css_selector('#key').send_keys('口红')

再运行的时候,它就会自动打开浏览器进入目标网址搜索口红。


同样的方法,找到搜索按钮进行点击。

driver.find_element_by_css_selector('.button').click()

再运行就会自动点击搜索了

页面搜索出来了,那么咱们正常浏览网页是要下拉网页对吧,咱们让它自动下拉就好了。
先导入time模块

import time

执行页面滚动的操作

python学习交流Q群:309488165 ### 源码领取
def drop_down():"""执行页面滚动的操作"""  # javascriptfor x in range(1, 12, 2):  # for循环下拉次数,取1 3 5 7 9 11, 在你不断的下拉过程中, 页面高度也会变的;time.sleep(1)j = x / 9  # 1/9  3/9  5/9  9/9# document.documentElement.scrollTop  指定滚动条的位置# document.documentElement.scrollHeight 获取浏览器页面的最大高度js = 'document.documentElement.scrollTop = document.documentElement.scrollHeight * %f' % jdriver.execute_script(js)  # 执行我们JS代码

循环写好了,然后调用一下。

drop_down()

我们再给它来个延时

driver.implicitly_wait(10)

这是一个隐式等待,等待网页延时,网不好的话加载很慢。

隐式等待不是必须等十秒,在十秒内你的网络加载好后,它随时会加载,十秒后没加载出来的话才会强行加载。

还有另外一种死等的,你写的几秒就等几秒,相对没有那么人性化。

time.sleep(10)

加载完数据后我们需要去找商品数据来源

价格/标题/评价/封面/店铺等等

还是鼠标右键点击检查,在element ,点击小箭头去点击你想查看的数据。

获取所有的 li 标签内容,还是一样的,直接copy 。


在左下角就有了

这里表示的是取的第一个,但是我们是要获取所有的标签,所以左边框框里 li 后面的可以删掉不要。

不要的话,可以看到这里是60个商品数据,一页是60个。

所以我们把剩下的复制过来, 用lis接收一下 。

lis = driver.find_elements_by_css_selector('#J_goodsList ul li')

因为我们是获取所有的标签数据,所以比之前多了一个s

打印一下

print(lis)

通过lis返回数据 列表 [] 列表里面的元素 <> 对象

遍历一下,把所有的元素拿出来。

for li in lis:title = li.find_element_by_css_selector('.p-name em').text.replace('\n', '')  # 商品标题 获取标签文本数据price = li.find_element_by_css_selector('.p-price strong i').text  # 价格commit = li.find_element_by_css_selector('.p-commit strong a').text  # 评论量shop_name = li.find_element_by_css_selector('.J_im_icon a').text  # 店铺名字href = li.find_element_by_css_selector('.p-img a').get_attribute('href')  # 商品详情页icons = li.find_elements_by_css_selector('.p-icons i')icon = ','.join([i.text for i in icons])  # 列表推导式  ','.join 以逗号把列表中的元素拼接成一个字符串数据dit = {'商品标题': title,'商品价格': price,'评论量': commit,'店铺名字': shop_name,'标签': icon,'商品详情页': href,}csv_writer.writerow(dit)print(title, price, commit, href, icon, sep=' | ')

搜索功能

key_world = input('请输入你想要获取商品数据: ')


要获取的数据 ,获取到后保存CSV

python学习交流Q群:309488165 ### 源码领取
f = open(f'某东{key_world}商品数据.csv', mode='a', encoding='utf-8', newline='')
csv_writer = csv.DictWriter(f, fieldnames=['商品标题','商品价格','评论量','店铺名字','标签','商品详情页',
])
csv_writer.writeheader()

然后再写一个自动翻页

for page in range(1, 11):print(f'正在爬取第{page}页的数据内容')time.sleep(1)drop_down()get_shop_info()  # 下载数据driver.find_element_by_css_selector('.pn-next').click()  # 点击下一页

完整代码

源码点击领取即可

效果展示

视频教程

文章后面写的就没那么详细了

但是有视频教程

需要的朋友可以找我要视频

今天的文章到这里就结束了

对文章有问题的,或者有其他关于python的问题,可以在评论区留言或者私信我哦
觉得我分享的文章不错的话,可以关注一下我,或者给文章点赞(/≧▽≦)/

Python采集商品数据,实时了解商品价格【冲刺双十一高峰期】相关推荐

  1. 双十一特辑:Python采集商品数据,实时了解商品价格

    前言 双十一还没有过去,虽然现在是某D的场景期,但是出这篇文章也不晚,可以冲刺一下10号的高峰期~ 各位朋友,尤其是学Python的直男朋友,看了这篇文章,准备准备给对象购买一下新年礼物吧,哈哈(也可 ...

  2. 淘宝关键词搜索商品接口分析商品价格走势(商品列表接口,商品销量接口,商品价格接口,分类ID采集商品数据接口)接口代码对接教程

    淘宝关键词搜索商品接口分析商品价格走势(商品列表接口,商品销量接口,商品价格接口,分类ID采集商品数据接口)接口代码对接教程如下: 1.公共参数 名称 类型 必须 描述(接口教程wx199701080 ...

  3. Python批量采集商品数据并使用多线程(含完整源码)

    前言 嗨喽,大家好,这里是魔王~ 本次目的: Python批量采集商品数据 知识点: 爬虫基本流程 非结构化数据解析 csv数据保存 线程池的使用 开发环境: python 3.8 pycharm r ...

  4. 用Python采集财经数据信息并作可视化

    嗨嗨,大家好下午好,我是小圆 ~ 今天给大家分享一下,如何用python采集财经数据信息并作可视化 开发环境: 解释器版本: python 3.8 代码编辑器: pycharm 2021.2 requ ...

  5. 拼多多关键词搜索采集商品数据接口,拼多多分类ID搜索采集商品销量接口,拼多多上货接口,拼多多商品列表API接口

    可以通过关键词搜索接口采集商品列表详情页各项数据或者是用分类ID搜索采集商品列表数据,包含商品标题,skuid.价格.优惠价,收藏数.销量.SKU图.标题.详情页图片等页面上有的数据均可以拿到,大家都 ...

  6. 拼多多关键词搜索采集商品数据接口,拼多多分类ID搜索采集商品销量接口,拼多多上货接口

    可以通过关键词搜索接口采集商品列表详情页各项数据,包含商品标题,skuid.价格.优惠价,收藏数.月销售量.SKU图.标题.详情页图片等页面上有的数据均可以拿到,大家都知道,拼多多的反爬虫机制十分严, ...

  7. 百万级商品数据实时同步,查询结果秒出

    来自:微微科技公司 前阵子老板安排了一个新任务,要建设一个商家商品搜索系统,能够为用户提供快速.准确的搜索能力,在用户输入搜索内容时,要能从商家名称和商品名称两个维度去搜索,搜索出来的结果,按照准确率 ...

  8. Python采集股票数据信息

    前言 今天打算来整整股票,简简单单的采集一些股票数据 对这个有兴趣的就一起来瞧瞧吧. 准备 开发环境 & 第三方模块 解释器版本: python 3.8 代码编辑器: pycharm 2021 ...

  9. Python采集天气数据,做可视化分析【附源码】

    知识点: 动态数据抓包 requests发送请求 结构化+非结构化数据解析 开发环境: python 3.8 运行代码 pycharm 2021.2 辅助敲代码 requests 如果安装python ...

最新文章

  1. SpringAMQP--入门案例的消息接收
  2. SpringCloud中 Feign结合Hystrix断路器开发。
  3. 服务器怎么控制忽略样式_看问题要看到本质:从Web服务器说起
  4. HanLP: Han Language Processing
  5. 如何利用insightface同时计算多个人脸相似度
  6. MAXScript语法及命令
  7. 一行数据顺序改变函数matlab,MATLAB中的排序函数
  8. 软件体系结构——管道过滤器风格
  9. 华为 IP源防攻击和MAC认证
  10. Google浏览器任务栏图标变白
  11. Windows 制作 QQ加好友 或 临时会话 的链接地址
  12. 靖哥哥教你如何用java做爬虫抓取网站美女图片(详解步骤)
  13. CAD异常闪退的原因
  14. 资金安全责任险对个人账户负责?
  15. 用友U8打开系统管理报错481
  16. 用电脑搭建视频会议系统的方法
  17. idea必备开发插件.
  18. npm全局安装失败,报-4048错误(npm ERR code EPERMnpm ERR syscall mkdirnpm ERR path C:\…)
  19. java visual vm 下载地址_VisualVM
  20. 基于卷积神经网络的图像分类

热门文章

  1. 折腾报表那些事儿(1)RDLC
  2. Yottachain泛圈芝麻云服务器专业级区块链存储技术万众瞩目
  3. 台式电脑打开计算机就死机,台式机电脑死机有哪些原因 台式机电脑死机解决方法介绍【详解】...
  4. 一个水分子的质量大约为3.0*10-23g,1夸脱水 大约有950g。编写一个程序,要求输入水的夸脱数, 然后显示这么多水中包含多少个水分子。
  5. 显微镜自动聚焦原理是什么_显微镜的工作原理是什么?
  6. 台球类html5游戏的AI设计与核心算法的实现
  7. 优酷 Android 构建速度优化实践
  8. web UI工程师必读的一篇文档,写的非常好
  9. netbeans使用教程_NetBeans 7.4的本机Java打包
  10. OSChina 周一乱弹 —— 你们谁看见了我的诺贝尔奖