题外话:

《Pi Network 免费挖矿国外热门项目 一个π币大约值3元到10元》相信过去BTC的人,信不信未来的PI,了解一下,唯一一个高度与之持平的项目

能看到这里说明快进入动态网页爬取了,在这之前还有一两个知识点要了解,就如本文要讲的json及其数据提取

JSON


是什么

  json是轻量级的文本数据交换格式,符合json的格式的字符串叫json字符串,其格式就像python中字符串化后的字典,有时字典中还杂着列表字典,但是里面的数据都被双引号包着,下面是一个例子

'{"Africa": [
{ "name":"蜜獾" , "nickname":"平头哥" },
{ "name":"虫子" , "nickname":"小辣条" },
{ "name":"毒蛇" , "nickname":"大面筋" }]}'#这是理想化的数据,实际上看到的json是不分行堆在一起,而且更多时候用unicode编码取代中文

而且为了能更好的传输各种语言,json对非英语的字符串进行了Unicode编码,于是我们直接看到的json数据通常都是带着\uxxxx的字符串而不会带着中文,json数据还会堆在一起不换行,给我们的分析带来了困难,不过我们有json 模块让它转回中文,更有一个牛逼工具把它转回中文同时排版,分析json数据时多用这个工具。

在哪

  有时F12源码中能看到完整的信息,request回来后就残缺到没有价值,这就说明网页使用了动态或者ajax技术,而这些技术所加载的信息,就有json的身影。为了顺利爬取目标,我们需要找到json数据。

  • json数据有时会直接出在对原链接request的结果中,作为信息等待被加载到网页中
  • 有时会存在于独立的链接里,需要捉包获取链接再打开获得(而且这种链接的构造很重要)

json 模块


  JSON是JavaScript原生格式,亲生无误,所以在JavaScript中处理JSON数据不需要任何特殊的API或工具包。像python这样连的远亲,当然不能直接一把捉走别人的孩子,至少要带根棒棒糖来引诱一下呀,而这根棒棒糖就是json模块,python自带。

  json 模块提供了一种很简单的方式来编码和解码JSON数据,实现了JSON数据(字符串)和python对象(字典)的相互转换。
主要两个方法及常用参数:

  • json.dumps(obj,ensure_ascii=True): 将一个字典(obj)转换为JSON编码的字符串,ensure_ascii默认为True,全部是ascii字符,中文会以unicode编码形式显示如\u597d;设置为False时保持中文
  • json.loads(s,encoding=): 将一个JSON编码的字符串(s)转换回字典,如果传入的json字符串的编码不是UTF-8的话,需要用encoding指定字符编码

如果你要处理的是文件而不是字符串/字典,你可以使用 json.dump() 和 json.load() 来编码和解码JSON数据。

# 编码成json数据写入,data是字典
with open('data.json', 'w') as f:json.dump(data, f)# 读取json数据并解码,data是字典
with open('data.json', 'r') as f:data = json.load(f)

另:requests对象的json()方法也可以把json数据转为字典,dict = r.json(encoding=)

实战:简单爬取淘宝商品信息

  爬虫领域内json的知识知道这些就行,那么马上来个实战了解一下怎样提取json中的数据,加深对json的认识吧,正好可以拿某宝来试手,商品的json数据直接出在对原链接request的结果中,不用捉包。(然而大多数json数据不会这样出现,这里选择某宝方便展示)

构造链接(重要)

重要,但这也是要培养的能力,在这里只详细讲一次思路,以后靠自己分析

  构造链接的原则是尽可能多的相关参数,尽可能少的无关参数,网址中?之后用&连起来的赋值关系就是那些参数,这些参数会传到服务器中,服务器根据它们来返回数据。爬虫中,页数,排序,日期等这类的参数是关键。我们要动态的修改这些参数来构造链接,观察能力很重要。还有构造链接时要多requests下来测试哪些是相关参数,哪些参数是无关紧要的,不是只看浏览器就行的

  先进入官网搜索一件商品,这里以GTX2080为例,第一次出现的链接如下,

淘宝首页搜索框刚输入完的时候,链接变化
https://s.taobao.com/search?initiative_id=tbindexz_20170306&ie=utf8&spm=a21bo.2017.201856-taobao-item.2&sourceId=tb.index&search_type=item&ssid=s5-e&commend=all&imgfile=&q=gtx2080ti&suggest=history_2&_input_charset=utf-8&wq=&suggest_query=&source=suggest

很长是吧,能大约的看到日期,商品名之类的参数,但是大部分参数都看不懂,我们假设部分参数是不影响爬取结果的,于是我们来继续按下看看有什么变化,当再次按下搜索键

链接变短了,在按多几下都是这个链接了

按“搜索”后的链接变短了
#初步结构

https://s.taobao.com/search?q=gtx2080ti&imgfile=&js=1&stats_click=search_radio_all%3A1&initiative_id=staobaoz_20200205&ie=utf8

为了确保泛用性,我们要多换几个商品再搜索,确定一下,发现链接除q参数(商品名)改变外,其他一模一样,由此我们初步确定了链接结构,q参数是商品名,initiative_id是当天日期,其他不用变
  但我们的还要有翻页和排序的功能没实现,链接里也看不到和它们有关的参数,因此我们要继续按来引相关参数出来,点击排序那排按钮

发现又多了一个sort参数,不同的排序方式对应不同的值,有default(默认综合排序),sale-desc(按销量),renqi-desc(按人气)等

  按下一页,又多了bcoffset,p4ppushleft,s三个参数,经测试只有s参数有用,其他两个都不影响爬取结果(直接去掉),s是页数相关参数,值是44的倍数(因为每页加载44件商品),第一页0,第二页44,第三页88……

  到此就捕捉到q,initiative_id,sort,s等参数了,如果想增加其它相关参数,就自己到处按捣鼓吧,下面就这4个参数进行构造,可以format格式化,也可以将参数通过requests.get()的params参数传入,下面选择格式化

我们将URL的参数格式化一下

#使用格式化输出,传四个字符串变量进去
url = 'https://s.taobao.com/search?q={name}&imgfile=&js=1&stats_click=search_radio_all%3A1&initiative_id={date}&ie=utf8&s={num}&sort={sort}'.format(name=,date=,num=,sort=)

剩下的就是整合到循环进行多页爬取了,代码最后贴上,下面在看看json数据怎样提取。

json数据分析&提取

先拿一个链接requests下来保存到txt看看先,打开后看到一大堆又字典又列表的东西,仔细一看这货是符合json格式的字符串,里面有我们要的信息。二话不说马上扔到那个工具里排版一下,排完后如图

我们知道json数据本质是字符串,也可以用json.load()转化为字典,这样的话就有两种提取信息的方法

  • 直接用正则对字符串匹配,缺点是当json存在\uxxxx的unicode编码时你会得到\uxxxx而不是中文,然而还是有办法绕过编码问题——可以通过str(json.load())得到字典(已解码回中文)后再强转为字符串再匹配,但是要注意单引号问题
  • 转为字典后逐层索引下去,缺点是当结构过于复杂时,索引也比较麻烦。

最终代码(替换版,使用了selenium模块)

  1. 安装selenium模块 pip install selenium
  2. 需要下载chromedriver,并且一定要适应自己的谷歌浏览器版本(版本查看,不懂的留言!!!)
  3. 这里提供一份对应版本的谷歌浏览器安装包( 版本号:79.0.3945.130——正式稳定版本32 位的)和对应的chromedriver,点击以下链接获取https://download.csdn.net/download/u011280778/12137818(刚上传待审核,如果链接错误,麻烦给我留言)

不要看完就算了,记得多实践,撸起袖子就是干

import time
from selenium import webdriver
from lxml import htmletree = html.etree# 爬取函数
def start_search_result(keys):# 创建浏览器对象browner = webdriver.Chrome()browner.get('https://www.taobao.com/')# 给搜索框赋值kw = browner.find_element_by_id("q")  # qkw.send_keys(keys)# 模拟点击搜索按钮事件iconfont = browner.find_element_by_class_name('search-button')iconfont.click()# 滑动至浏览器下端browner.execute_script("window.scrollTo(0, document.body.scrollHeight);")time.sleep(5)# 获取网页源码html = browner.page_source# 获取HTML数据html_etree = etree.HTML(html)return html_etree#解析爬取结果函数
def analysis_html(html_etree):print("================================================================")# 获取商品列表goods_list = html_etree.xpath('//div[@class="items"]/div')# 存储字典的列表goods_map_list = []for k_value in goods_list:# 获取图片地址pic_src = "https:" + k_value.xpath('./div[@class="pic-box J_MouseEneterLeave J_PicBox"]/div[@class="pic-box-inner"]/div[@class="pic"]/a/img/@src',stream=True)[0]# 获取价格price = "¥" + k_value.xpath('./div[2]/div[1]/div[@class="price g_price g_price-highlight"]/strong/text()',stream=True)[0]# 获取标题title_list = k_value.xpath('./div[2]/div[2]/a/text()', stream=True)title = "".join(title_list).strip().replace("\n", "")# 获取店铺名shop_elem = k_value.xpath('./div[2]/div[3]/div[@class="shop"]/a/text()', stream=True)shop_name = "".join(shop_elem).replace("\n", "").strip()if (len(shop_name) == 0):shop_elem = k_value.xpath('./div[2]/div[3]/div[@class="shop"]/a/span[2]/text()', stream=True)shop_name = "".join(shop_elem).replace("\n", "").strip()infor_map = {}infor_map['pic'] = pic_srcinfor_map['price'] = priceinfor_map['title'] = titleinfor_map['shop'] = shop_namegoods_map_list.append(infor_map)return goods_map_list# 主函数
def main():search_key = input('输入商品名:\n')print("search_key = ", search_key)# 先获取爬取的HTML文本html_etree = start_search_result(search_key)# 解析HTML,将商品列表存到list里面goods_list = analysis_html(html_etree)for item in goods_list:print("标题:" + item["title"])print("价格:" + item["price"])print("图片:" + item["pic"])print("店铺:" + item["shop"])print('-' * 100)main()

效果截图:

Python爬虫自学之第(⑤)篇——爬取某宝商品信息相关推荐

  1. python爬虫:Selenium模拟浏览器爬取淘宝商品信息

    1.数据提取前期网页分析 分析:淘宝网页数据也是通过Ajax技术获取的,但是淘宝的API接口参数比较复杂,可能包含加密密匙等参数:所以,想要通过自己构造API接口获取完整网页信息很难实现(可能只有部分 ...

  2. python爬虫——用selenium爬取淘宝商品信息

    python爬虫--用selenium爬取淘宝商品信息 1.附上效果图 2.淘宝网址https://www.taobao.com/ 3.先写好头部 browser = webdriver.Chrome ...

  3. python+scrapy简单爬取淘宝商品信息

    python结合scrapy爬取淘宝商品信息 一.功能说明: 已实现功能: 通过scrapy接入selenium获取淘宝关键字搜索内容下的商品信息. 待扩展功能: 爬取商品中的全部其他商品信息. 二. ...

  4. Python爬取淘宝商品信息保存到Excel

    前言 本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理. PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取 python免费学习资 ...

  5. 使用python爬取淘宝商品信息

    使用python爬虫爬取淘宝商品信息 使用的模块主要有 selenium ,time , re, from selenium import webdriver import time import c ...

  6. 利用Selenium爬取淘宝商品信息

    文章来源:公众号-智能化IT系统. 一.  Selenium和PhantomJS介绍 Selenium是一个用于Web应用程序测试的工具,Selenium直接运行在浏览器中,就像真正的用户在操作一样. ...

  7. 2021-11-16爬取淘宝商品信息时如何获取cookie

    爬取淘宝商品信息时如何获取cookie ###一.基本环境 1.win10系统 2.火狐浏览器 3.编程软件anaconda 4.淘宝的robots:https://www.taobao.com/ro ...

  8. 爬取淘宝商品信息selenium+pyquery+mongodb

    ''' 爬取淘宝商品信息,通过selenium获得渲染后的源码,pyquery解析,mongodb存储 '''from selenium import webdriver from selenium. ...

  9. python淘宝爬虫_python爬虫爬取淘宝商品信息

    本文实例为大家分享了python爬取淘宝商品的具体代码,供大家参考,具体内容如下 import requests as req import re def getHTMLText(url): try: ...

最新文章

  1. 一次无线网络故障排除过程
  2. 一个域名解析到另一个域名_如何申请一个免费的域名?
  3. oracle 存储 更新,oracle 更新空间数据存储过程语句
  4. java基础不好框架能学会吗_转行Java能学会吗?零基础学习Java的学习路线
  5. Struts原理与实践(5)
  6. 研发团队平稳度过“从小到大”并非易事
  7. Python系列之入门篇——HDFS
  8. 7.FreeRTOS学习笔记-事件
  9. es用python增加字段_使用Python在ElasticSearch中添加@timestamp字段
  10. 如何通过“随航”将iPad用作苹果Mac的第二个显示屏?
  11. idea使用时遇到的一个小问题
  12. 封装系统驱动放哪里啊_MPS做一体化电机驱动方案有三大绝招
  13. 投资 - 什么是EBITDA
  14. 比例风险(Cox)回归模型——Proportional hazards model
  15. python提取首字符 判断火车票座位_python实战之通过爬虫实现火车票查询
  16. 说说那些好用的图片调色软件
  17. 【Unity3D】基于模板测试和顶点膨胀的描边方法
  18. 一文带你了解Room数据库
  19. 快速记忆之简单词语联想记忆
  20. 某阿里大神想和java程序员说的话

热门文章

  1. [html] 说说你对target=“_blank“的理解?有啥安全性问题?如何防范?
  2. [css] 如何使用css实现鼠标跟随?
  3. [js] 请写一个性能最好的深度克隆对象的方法
  4. “睡服”面试官系列第四篇之字符串的扩展(建议收藏学习)
  5. 第五十一期:AIOps落地关键点指南
  6. java学习(82):静态代码块内部类
  7. Qt 调用VISA库通过SCPI程控仪器-以IT8906A电子负载为例
  8. Qt QInputDialog文本输入对话框示例
  9. Linux tm time_t timeval timespec以及与时间相关函数用法
  10. 侯捷面向对象高级编程(二)