嗨害大家好鸭!我是小熊猫❤

双十一快到啦~

咱就是说 理智消费~

准备工作【完整代码】

驱动安装

实现案例之前,我们要先安装一个谷歌驱动,
因为我们是使用 selenium 操控谷歌驱动,
然后操控浏览器实现自动操作的,
模拟人的行为去操作浏览器。

以谷歌浏览器为例,
打开浏览器看下我们自己的版本,
然后下载跟自己浏览器版本一样或者最相近的版本,
下载后解压一下,
把解压好的插件放到我们的python环境里面,
或者和代码放到一起也可以。

模块使用与介绍

selenium pip install selenium
直接输入selenium的话是默认安装最新的,
selenium后面加上版本号就是安装对应的的版本;
csv 内置模块,不需要安装,
把数据保存到Excel表格用的;
time 内置模块,不需要安装,
时间模块,主要用于延时等待;

流程解析

我们访问一个网站,要输入一个网址,所以代码也是这么写的。

首先导入模块

from selenium import webdriver

文件名或者包名不要命名为selenium,会导致无法导入。
webdriver可以认为是浏览器的驱动器,要驱动浏览器必须用到webdriver,支持多种浏览器。

实例化浏览器对象 ,我这里用的是谷歌,
建议大家用谷歌,方便一点。

driver = webdriver.Chrome()

我们用get访问一个网址,自动打开网址。

driver.get('https://www.jd.com/')

运行一下

打开网址后,以买口红为例。

我们首先要通过你想购买的商品关键字来搜索得到商品信息,
用搜索结果去获取信息。


那我们也要写一个输入,空白处点击右键,选择检查。

选择element 元素面板

鼠标点击左边的箭头按钮,去点击搜索框,
它就会直接定位到搜索标签。


在标签上点击右键,选择copy,选择copy selector

如果你是xpath ,就copy它的xpath 。

然后把我们想要搜索的内容写出来

driver.find_element_by_css_selector('#key').send_keys('口红')

再运行的时候,
它就会自动打开浏览器进入目标网址搜索口红。


同样的方法,找到搜索按钮进行点击。

driver.find_element_by_css_selector('.button').click()

再运行就会自动点击搜索了

页面搜索出来了,那么咱们正常浏览网页是要下拉网页对吧,
咱们让它自动下拉就好了。

先导入time模块

import time

执行页面滚动的操作

def drop_down():"""执行页面滚动的操作"""  # javascriptfor x in range(1, 12, 2):  # for循环下拉次数,取1 3 5 7 9 11, 在你不断的下拉过程中, 页面高度也会变的;time.sleep(1)j = x / 9  # 1/9  3/9  5/9  9/9# document.documentElement.scrollTop  指定滚动条的位置# document.documentElement.scrollHeight 获取浏览器页面的最大高度js = 'document.documentElement.scrollTop = document.documentElement.scrollHeight * %f' % jdriver.execute_script(js)  # 执行我们JS代码

循环写好了,然后调用一下。

drop_down()

我们再给它来个延时

driver.implicitly_wait(10)

这是一个隐式等待,等待网页延时,网不好的话加载很慢。

隐式等待不是必须等十秒,在十秒内你的网络加载好后,它随时会加载,十秒后没加载出来的话才会强行加载。

还有另外一种死等的,你写的几秒就等几秒,相对没有那么人性化。

time.sleep(10)

加载完数据后我们需要去找商品数据来源

价格/标题/评价/封面/店铺等等

还是鼠标右键点击检查,在element ,点击小箭头去点击你想查看的数据。

可以看到都在li标签里面

获取所有的 li 标签内容,还是一样的,直接copy 。

在左下角就有了


这里表示的是取的第一个,但是我们是要获取所有的标签,

所以左边框框里 li 后面的可以删掉不要。


不要的话,可以看到这里是60个商品数据,一页是60个。

所以我们把剩下的复制过来, 用lis接收一下 。

lis = driver.find_elements_by_css_selector('#J_goodsList ul li')

因为我们是获取所有的标签数据,所以比之前多了一个s


打印一下

print(lis)

通过lis返回数据 列表 [] 列表里面的元素 <> 对象


遍历一下,把所有的元素拿出来。

for li in lis:title = li.find_element_by_css_selector('.p-name em').text.replace('\n', '')  # 商品标题 获取标签文本数据price = li.find_element_by_css_selector('.p-price strong i').text  # 价格commit = li.find_element_by_css_selector('.p-commit strong a').text  # 评论量shop_name = li.find_element_by_css_selector('.J_im_icon a').text  # 店铺名字href = li.find_element_by_css_selector('.p-img a').get_attribute('href')  # 商品详情页icons = li.find_elements_by_css_selector('.p-icons i')icon = ','.join([i.text for i in icons])  # 列表推导式  ','.join 以逗号把列表中的元素拼接成一个字符串数据dit = {'商品标题': title,'商品价格': price,'评论量': commit,'店铺名字': shop_name,'标签': icon,'商品详情页': href,}csv_writer.writerow(dit)print(title, price, commit, href, icon, sep=' | ')

搜索功能

key_world = input('请输入你想要获取商品数据: ')


要获取的数据 ,获取到后保存CSV

f = open(f'京东{key_world}商品数据.csv', mode='a', encoding='utf-8', newline='')
csv_writer = csv.DictWriter(f, fieldnames=['商品标题','商品价格','评论量','店铺名字','标签','商品详情页',
])
csv_writer.writeheader()

然后再写一个自动翻页

for page in range(1, 11):print(f'正在爬取第{page}页的数据内容')time.sleep(1)drop_down()get_shop_info()  # 下载数据driver.find_element_by_css_selector('.pn-next').click()  # 点击下一页

完整代码

from selenium import webdriver
import time
import csvdef drop_down():"""执行页面滚动的操作"""  for x in range(1, 12, 2):  time.sleep(1)j = x / 9  # 1/9  3/9  5/9  9/9# document.documentElement.scrollTop  指定滚动条的位置# document.documentElement.scrollHeight 获取浏览器页面的最大高度js = 'document.documentElement.scrollTop = document.documentElement.scrollHeight * %f' % jdriver.execute_script(js)  # 执行JS代码key_world = input('请输入你想要获取商品数据: ')f = open(f'京东{key_world}商品数据.csv', mode='a', encoding='utf-8', newline='')
csv_writer = csv.DictWriter(f, fieldnames=['商品标题','商品价格','评论量','店铺名字','标签','商品详情页',
])
csv_writer.writeheader()# 实例化一个浏览器对象driver = webdriver.Chrome()
driver.get('https://www.jd.com/')  # 访问一个网址 打开浏览器 打开网址
# 通过css语法在element(元素面板)里面查找 #key 某个标签数据 输入一个关键词 口红
driver.find_element_by_css_selector('#key').send_keys(key_world)  # 找到输入框标签
driver.find_element_by_css_selector('.button').click()  # 找到搜索按钮 进行点击
# time.sleep(10) # 等待
# driver.implicitly_wait(10)  # 隐式等待 def get_shop_info():# 第一步 获取所有的li标签内容driver.implicitly_wait(10)lis = driver.find_elements_by_css_selector('#J_goodsList ul li')  # 获取多个标签# 返回数据 列表 [] 列表里面的元素 <> 对象# print(len(lis))for li in lis:title = li.find_element_by_css_selector('.p-name em').text.replace('\n', '')  # 商品标题 获取标签文本数据price = li.find_element_by_css_selector('.p-price strong i').text  # 价格commit = li.find_element_by_css_selector('.p-commit strong a').text  # 评论量shop_name = li.find_element_by_css_selector('.J_im_icon a').text  # 店铺名字href = li.find_element_by_css_selector('.p-img a').get_attribute('href')  # 商品详情页icons = li.find_elements_by_css_selector('.p-icons i')icon = ','.join([i.text for i in icons])  # 列表推导式  ','.join 以逗号把列表中的元素拼接成一个字符串数据dit = {'商品标题': title,'商品价格': price,'评论量': commit,'店铺名字': shop_name,'标签': icon,'商品详情页': href,}csv_writer.writerow(dit)print(title, price, commit, href, icon, sep=' | ')# print(href)for page in range(1, 11):print(f'正在爬取第{page}页的数据内容')time.sleep(1)drop_down()get_shop_info()  # 下载数据driver.find_element_by_css_selector('.pn-next').click()  # 点击下一页driver.quit()  # 关闭浏览器

效果展示


今天的文章就是这样啦~

我是小熊猫,咱下篇文章再见啦(✿◡‿◡)

Python双十一特辑: 批量采集某JD商品数据,咱花理智的钱~相关推荐

  1. 用爬虫批量采集阿里巴巴1688商品数据

    本文主要介绍如何使用后羿采集器的智能模式,免费采集阿里巴巴批发网商品的批发价格.发货时间.是否代发等信息. 采集工具简介: 后羿采集器 采集字段: 商品标题.商品链接.图片链接.标签1.标签2.标签3 ...

  2. 详解如何用python批量采集今日头条信息流数据

    本文介绍如何使用后羿采集器的智能模式,免费采集今日头条的文章标题.文章内容.文章评论等信息数据. 采集工具简介: 后羿采集器(www.houyicaiji.com)是一款基于人工智能技术的网页采集器, ...

  3. 6.9 用Python操控数据库(批量删除,百度新闻数据爬取与存储,写入数据时进行去重处理,pandas读取sql数据)

    学习完MySQL数据库的基本操作后,下面来学习如何用Python连接数据库,并进行数据的插入.查找.删除等操作. 6.9.1 用PyMySQL库操控数据库 上一节在phpMyAdmin 中创建了数据库 ...

  4. python关键词挖掘_Python批量挖掘百度凤巢关键词数据

    [seo工具]关键词挖掘,获取关键词数据比较基础的部分,渠道很多,这次我们来采集凤巢的关键词数据,对关键词的分析,以及使用才是重点!我们先解决基础部分: 每次使用脚本需抓包获取cookies数据登陆百 ...

  5. 使用python的requests+bs4 实现京东的手机商品数据收集

    学习python有一段时间了,今天写写对京东的手机商品数据收集,权当练手,留个档 环境 win10.python3.7.pycharm 一.分析接口 在京东搜索手机这一标签,获得搜索主页面的url为 ...

  6. Python自动登陆淘宝并爬取商品数据

    前言 本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理. 基本开发环境 Python 3.6 Pycharm import time from sel ...

  7. 【Python爬虫案例】批量采集网站壁纸,实现自动更换桌面壁纸

    前言 美照天天换,才不会腻 不知道你们是不是这样,我的手机壁纸电脑壁纸,隔三岔五就喜欢换,看久了 我就腻了,索性就用python把这个网站的壁纸都采集下来,顺便再让电脑自动更换我的桌面壁纸 ~ 一篇文 ...

  8. Python 批量采集 shopee 虾皮商品详情数据、多站点整站实时采集

    一.如何通过手动方式查看 shopee 商品详情页面的数据 1.Shopee 商品详情 API 接口(item_get - 获得 Shopee 商品详情接口),ShopeeAPI 接口代码对接可以获取 ...

  9. Python模拟登录实战,采集整站表格数据

    本节主要内容有: 通过requests库模拟表单提交 通过pandas库提取网页表格 很多人学习python,不知道从何学起. 很多人学习python,掌握了基本语法过后,不知道在哪里寻找案例上手. ...

最新文章

  1. JZOJ.5234【NOIP2017模拟8.7】外星人的路径
  2. 如何在存储过程中得到被调用存储过程的结果集
  3. 腾讯qq在线状态,开放平台
  4. [转载]关于申请国外博后的一点经验和想法
  5. Human_height
  6. r语言随机森林回归预测_从零实现回归随机森林
  7. 大数据从哪里来?| 技术头条
  8. 敲了几年代码,是时候考虑以后的发展了
  9. 电脑如何进入bios模式_如何进入BIOS设置U盘启动盘
  10. 手机modem开发(9)---LTE注网总体流程
  11. Vue基本操作及运行截图总结
  12. android 沙箱 逆向,【原创】沙箱Sandboxie v3.40 逆向完整源码
  13. Python中Queue.get()方法阻塞,怎么办?
  14. 电子元器件/模块供应商汇总
  15. 面向计算机视觉的深度学习 | iBooker·ApacheCN
  16. 单片机智能密码锁c语言程序,基于单片机控制的密码锁设计(含电路图及源程序)...
  17. 学计算机高中应选什么科目,新高考选哪些科目可以报计算机?高中生如何进步?...
  18. Use Eager execution or decorate this function with @tf.function.
  19. keil编译后报错Error:L6218E的解决方法
  20. 打造智慧城市首选智慧步道

热门文章

  1. 投简历必读:HR筛选简历的12个要点!
  2. php unset 和null,php unset()和null变量清除分析
  3. PBD(Position Based Dynamics)学习笔记
  4. nn.Linear() 函数可二维或三维输入
  5. ssci源刊里有开源期刊吗_科学网—报告SCI数据库,以下几个期刊可疑专坑中国作者 - 喻海良的博文...
  6. odoo跳转页面总结
  7. 为什么账龄分析的余额与应收款明细表对不上?如何分析?
  8. php做热度推荐算法,基于Hacker News的内容热度推荐算法
  9. Android Studio 3.0+ 版本的自定义lint检查
  10. 计算机维修实训报告1000,测量实训报告的总结1000字.docx