python爬取并分析淘宝商品信息

  • 背景介绍
  • 一、模拟登陆
  • 二、爬取商品信息
    • 1. 定义相关参数
    • 2. 分析并定义正则
    • 3. 数据爬取
  • 三、简单数据分析
    • 1.导入库
    • 2.中文显示
    • 3.读取数据
    • 4.分析价格分布
    • 5.分析销售地分布
    • 6.词云分析
  • 写在最后

Tip:本文仅供学习与交流,切勿用于非法用途!!!

背景介绍

有个同学问我:“XXX,有没有办法搜集一下淘宝的商品信息啊,我想要做个统计”。于是乎,闲来无事的我,又开始琢磨起这事…

俗话说,实践出真知~
小的在这给大家安利一套《2020最新企业Pyhon项目实战》视频教程,点击此处即可获取,希望大家一起进步哦。

一、模拟登陆

兴致勃勃的我,冲进淘宝就准备一顿乱搜:

在搜索栏里填好关键词:“显卡”,小手轻快敲击着回车键(小样~看我的)
心情愉悦的我等待着返回满满的商品信息,结果苦苦的等待换了的却是302,于是我意外地来到了登陆界面。

情况基本就是这么个情况了…
然后我查了一下,随着淘宝反爬手段的不断加强,很多小伙伴应该已经发现,淘宝搜索功能是需要用户登陆的!

关于淘宝模拟登陆,有大大已经利用requests成功模拟登陆(感兴趣的小伙伴请往这边>>>requests登陆淘宝<<<)
这个方法得先分析淘宝登陆的各种请求,并模拟生成相应的参数,相对来说有一定的难度。于是我决定换一种思路,通过selenium+二维码的方式:

# 打开图片
def Openimg(img_location):img=Image.open(img_location)img.show()# 登陆获取cookies
def Login():  driver = webdriver.PhantomJS() driver.get('https://login.taobao.com/member/login.jhtml')try:driver.find_element_by_xpath('//*[@id="login"]/div[1]/i').click()except:passtime.sleep(3)# 执行JS获得canvas的二维码JS = 'return document.getElementsByTagName("canvas")[0].toDataURL("image/png");'im_info = driver.execute_script(JS) # 执行JS获取图片信息im_base64 = im_info.split(',')[1]  #拿到base64编码的图片信息im_bytes = base64.b64decode(im_base64)  #转为bytes类型time.sleep(2)with open('./login.png','wb') as f:f.write(im_bytes)f.close()t = threading.Thread(target=Openimg,args=('./login.png',))t.start()print("Logining...Please sweep the code!\n")while(True):c = driver.get_cookies()if len(c) > 20:   #登陆成功获取到cookiescookies = {}for i in range(len(c)):cookies[c[i]['name']] = c[i]['value']driver.close()print("Login in successfully!\n")return cookiestime.sleep(1)

通过webdriver打开淘宝登陆界面,把二维码下载到本地并打开等待用户扫码(相应的元素大家通过浏览器的F12元素分析很容易就能找出)。待扫码成功后,将webdriver里的cookies转为DICT形式,并返回。(这里是为了后续requests爬取信息的时候使用)

二、爬取商品信息

当我拿到cookies之后,便能对商品信息进行爬取了。
(小样 ~我来啦)

1. 定义相关参数

定义相应的请求地址,请求头等等:

# 定义参数
headers = {'Host':'s.taobao.com','User-Agent':'Mozilla/5.0 (Windows NT 6.3; Win64; x64; rv:63.0) Gecko/20100101 Firefox/63.0','Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8','Accept-Language':'zh-CN,zh;q=0.8,zh-TW;q=0.7,zh-HK;q=0.5,en-US;q=0.3,en;q=0.2','Accept-Encoding':'gzip, deflate, br','Connection':'keep-alive'}
list_url = 'http://s.taobao.com/search?q=%(key)s&ie=utf8&s=%(page)d'

2. 分析并定义正则

当请求得到HTML页面后,想要得到我们想要的数据就必须得对其进行提取,这里我选择了正则的方式。通过查看页面源码:

偷懒的我上面只标志了两个数据,不过其他也是类似的,于是得到以下正则:

# 正则模式
p_title = '"raw_title":"(.*?)"'       #标题
p_location = '"item_loc":"(.*?)"'    #销售地
p_sale = '"view_sales":"(.*?)人付款"' #销售量
p_comment = '"comment_count":"(.*?)"'#评论数
p_price = '"view_price":"(.*?)"'     #销售价格
p_nid = '"nid":"(.*?)"'              #商品唯一ID
p_img = '"pic_url":"(.*?)"'          #图片URL

(ps.聪明的小伙伴应该已经发现了,其实商品信息是被保存在了g_page_config变量里面,所以我们也可以先提取这个变量(一个字典),然后再读取数据,也可!)

3. 数据爬取

完事具备,只欠东风。于是,东风来了:

# 数据爬取
key = input('请输入关键字:') # 商品的关键词
N = 20 # 爬取的页数
data = []
cookies = Login()
for i in range(N):try:page = i*44url = list_url%{'key':key,'page':page}res = requests.get(url,headers=headers,cookies=cookies)html = res.texttitle = re.findall(p_title,html)location = re.findall(p_location,html)sale = re.findall(p_sale,html)comment = re.findall(p_comment,html)price = re.findall(p_price,html)nid = re.findall(p_nid,html)img = re.findall(p_img,html)for j in range(len(title)):data.append([title[j],location[j],sale[j],comment[j],price[j],nid[j],img[j]])print('-------Page%s complete!--------\n\n'%(i+1))time.sleep(3)except:pass
data = pd.DataFrame(data,columns=['title','location','sale','comment','price','nid','img'])
data.to_csv('%s.csv'%key,encoding='utf-8',index=False)

上面代码爬取20也商品信息,并将其保存在本地的csv文件中,效果是这样的:

三、简单数据分析

有了数据,放着岂不是浪费,我可是社会主义好青年,怎能做这种事? 那么,就让我们来简单看看这些数据叭:
(当然,数据量小,仅供娱乐参考)

1.导入库

# 导入相关库
import jieba
import operator
import pandas as pd
from wordcloud import WordCloud
from matplotlib import pyplot as plt

相应库的安装方法(其实基本都能通过pip解决):

  • jieba
  • pandas
  • wordcloud
  • matplotlib

2.中文显示

# matplotlib中文显示
plt.rcParams['font.family'] = ['sans-serif']
plt.rcParams['font.sans-serif'] = ['SimHei']

不设置可能出现中文乱码等闹心的情况哦~

3.读取数据

# 读取数据
key = '显卡'
data = pd.read_csv('%s.csv'%key,encoding='utf-8',engine='python')

4.分析价格分布

# 价格分布
plt.figure(figsize=(16,9))
plt.hist(data['price'],bins=20,alpha=0.6)
plt.title('价格频率分布直方图')
plt.xlabel('价格')
plt.ylabel('频数')
plt.savefig('价格分布.png')

价格频率分布直方图:

5.分析销售地分布

# 销售地分布
group_data = list(data.groupby('location'))
loc_num = {}
for i in range(len(group_data)):loc_num[group_data[i][0]] = len(group_data[i][1])
plt.figure(figsize=(19,9))
plt.title('销售地')
plt.scatter(list(loc_num.keys())[:20],list(loc_num.values())[:20],color='r')
plt.plot(list(loc_num.keys())[:20],list(loc_num.values())[:20])
plt.savefig('销售地.png')
sorted_loc_num = sorted(loc_num.items(), key=operator.itemgetter(1),reverse=True)#排序
loc_num_10 = sorted_loc_num[:10]  #取前10
loc_10 = []
num_10 = []
for i in range(10):loc_10.append(loc_num_10[i][0])num_10.append(loc_num_10[i][1])
plt.figure(figsize=(16,9))
plt.title('销售地TOP10')
plt.bar(loc_10,num_10,facecolor = 'lightskyblue',edgecolor = 'white')
plt.savefig('销售地TOP10.png')

销售地分布:

销售地TOP10:

6.词云分析

# 制作词云
content = ''
for i in range(len(data)):content += data['title'][i]
wl = jieba.cut(content,cut_all=True)
wl_space_split = ' '.join(wl)
wc = WordCloud('simhei.ttf',background_color='white', # 背景颜色width=1000,height=600,).generate(wl_space_split)
wc.to_file('%s.png'%key)

淘宝商品”显卡“的词云:

写在最后

最后,要说点啥呢~
还是要再次给大家安利这套《2020最新企业Pyhon项目实战》视频教程,点击此处即可获取,希望大家一起进步哦。

(ps.我都这么拼地安利了,您难道还不心动嘛)

感谢各位大大的耐心阅读~

python爬取并分析淘宝商品信息相关推荐

  1. python爬取数据分析淘宝商品_python爬取并分析淘宝商品信息

    python爬取并分析淘宝商品信息 Tip:本文仅供学习与交流,切勿用于非法用途!!! 背景介绍 有个同学问我:"XXX,有没有办法搜集一下淘宝的商品信息啊,我想要做个统计".于是 ...

  2. python大数据可视化分析淘宝商品,开专卖店不行啊

    python大数据可视化分析淘宝商品,开专卖店不行啊 现如今大数据分析异常火爆,如何正确分析数据,并且抓住数据特点,获得不为人知的秘密?今天沉默带你用python爬虫,爬取淘宝网站进行淘宝商品大数据分 ...

  3. Python爬取【京东商城】商品信息实例(末尾有关于价格的爬取)

    以爬取商品类别--'笔记本电脑'为例 代码如下: import requests from lxml.html import etreeheaders = {'authority': 'search. ...

  4. python 爬取苏宁易购商品信息和评论的详细流程

    总体说明 爬取苏宁易购的最大难点就在于他这个页面是很多js动态加载的内容,寻找和构造链接比较麻烦,如果不用JS逆向工程.采用selenium等爬取的效率相对会比较差一点,下面我会先放上我找的js动态加 ...

  5. Python爬取淘宝商品信息保存到Excel

    前言 本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理. PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取 python免费学习资 ...

  6. 江湖小白之一起学Python (五)爬取淘宝商品信息

    趁热需打铁,随着这几天的鸡血澎湃,我们来实现一下爬取淘宝商品信息,我记得几年前曾用python写了下抓取淘宝天猫,京东,拍拍的爬虫,专门采集商品信息,图片,评论及评论图片,我还用pyqt开发了个客户端 ...

  7. Python 利用 cookie 模拟登录,爬取指定关键词的淘宝商品信息

    Python 利用 cookie 模拟登录,爬取指定关键词的淘宝商品信息-Selenium 1. 本文目标 由于淘宝网站的不断更新,以前的爬取方法都无法重现,必须需要登录淘宝网站才可以进行搜索商品.所 ...

  8. Python爬虫:Selenium模拟Chrome浏览器爬取淘宝商品信息

    对于采用异步加载技术的网页,有时候想通过逆向工程的方式来设计爬虫进行爬取会比较困难,因此,要想通过python获取异步加载数据往往可以使用Selenium模拟浏览器的方式来获取. Selenium是一 ...

  9. Python爬虫入门实例五之淘宝商品信息定向爬取(优化版)

    文章目录 写在前面 一.爬取原页面 二.编程思路 1.功能描述 2.程序的结构设计 三.编程过程 1.解决翻页问题 2.编写getHTMLText()函数 3.编写parsePage()函数 (1). ...

最新文章

  1. mvc后台字符串转换html,c# – 从MVC Controller返回一个字符串到jQuery
  2. python代码打好了怎么运行-python代码是怎样运行的
  3. CSS3-实现单选框radio的小动画
  4. Apache Kafka: 优化部署的10个最佳实践
  5. 【Python基础】使用Matplotlib可视化数据的5个强大技巧
  6. 随机发牌_用Python制作4人扑克牌发牌游戏
  7. Ansible 七(ad hoc任务)
  8. MacBook刷机勘错篇
  9. 4.2)深度卷积网络:实例研究
  10. jsp页面判断输入编号已存在mysql中_面试官让我聊聊Mysql基础架构之日志文件与数据文件...
  11. base64解码_一份简明的 Base64 原理解析
  12. python语言只能用4个空格_python - 单词之间只保留一个空格,用replace为什么会出错...
  13. 阿里巴巴CTO程立:双11的再进化
  14. 俄罗斯方块代码(自写)
  15. 如何将视频转换成文字
  16. ListView优化之ViewHolder
  17. 乞丐一句话感动12亿人
  18. Adnroid Studio kotlin 报错AssertionError: Could not delete caches xxx kotlin\compileKotlin文件名太长
  19. 【ES6】Reflect 反射
  20. 惠普笔记本电脑重装系统后找不到引导设备

热门文章

  1. 国内各类 WebShell 密码大全 爆破、社工用 webshell-password
  2. 3、防御迷阵(二分+bfs)
  3. 转载CSDN博客步骤
  4. traceroute出现*的分析
  5. dseo13b打开自动消失_刚安装的WIN764位系统
  6. python爬取阿里巴巴网站实现
  7. vue 配置文件不打包
  8. centos7.7 安装google浏览器
  9. 使用Openjdk8和maven时出错:java.security.InvalidAlgorithmParameterException
  10. 【Linux】Linux基础