1. 手机APP数据----写在前面

继续练习pyspider的使用,最近搜索了一些这个框架的一些使用技巧,发现文档竟然挺难理解的,不过使用起来暂时没有障碍,估摸着,要在写个5篇左右关于这个框架的教程。今天教程中增加了图片的处理,你可以重点学习一下。

2. 手机APP数据----页面分析

咱要爬取的网站是 http://www.liqucn.com/rj/new/ 这个网站我看了一下,有大概20000页,每页数据是9个,数据量大概在180000左右,可以抓取下来,后面做数据分析使用,也可以练习优化数据库。

网站基本没有反爬措施,上去爬就可以,略微控制一下并发,毕竟不要给别人服务器太大的压力。

页面经过分析之后,可以看到它是基于URL进行的分页,这就简单了,我们先通过首页获取总页码,然后批量生成所有页码即可

http://www.liqucn.com/rj/new/?page=1

http://www.liqucn.com/rj/new/?page=2

http://www.liqucn.com/rj/new/?page=3

http://www.liqucn.com/rj/new/?page=4

获取总页码的代码

class Handler(BaseHandler):

crawl_config = {

}

@every(minutes=24 * 60)

def on_start(self):

self.crawl('http://www.liqucn.com/rj/new/?page=1', callback=self.index_page)

@config(age=10 * 24 * 60 * 60)

def index_page(self, response):

# 获取最后一页的页码

totle = int(response.doc(".current").text())

for page in range(1,totle+1):

self.crawl('http://www.liqucn.com/rj/new/?page={}'.format(page), callback=self.detail_page)

然后copy一段官方中文翻译,过来,时刻提醒自己

代码简单分析:

def on_start(self) 方法是入口代码。当在web控制台点击run按钮时会执行此方法。

self.crawl(url, callback=self.index_page)这个方法是调用API生成一个新的爬取任务,

这个任务被添加到待抓取队列。

def index_page(self, response) 这个方法获取一个Response对象。

response.doc是pyquery对象的一个扩展方法。pyquery是一个类似于jQuery的对象选择器。

def detail_page(self, response)返回一个结果集对象。

这个结果默认会被添加到resultdb数据库(如果启动时没有指定数据库默认调用sqlite数据库)。你也可以重写

on_result(self,result)方法来指定保存位置。

更多知识:

@every(minutes=24*60, seconds=0) 这个设置是告诉scheduler(调度器)on_start方法每天执行一次。

@config(age=10 * 24 * 60 * 60) 这个设置告诉scheduler(调度器)这个request(请求)过期时间是10天,

10天内再遇到这个请求直接忽略。这个参数也可以在self.crawl(url, age=10*24*60*60) 和 crawl_config中设置。

@config(priority=2) 这个是优先级设置。数字越大越先执行。

分页数据已经添加到待爬取队列中去了,下面开始分析爬取到的数据,这个在detail_page函数实现

@config(priority=2)

def detail_page(self, response):

docs = response.doc(".tip_blist li").items()

dicts = []

for item in docs:

title = item(".tip_list>span>a").text()

pubdate = item(".tip_list>i:eq(0)").text()

info = item(".tip_list>i:eq(1)").text()

# 手机类型

category = info.split(":")[1]

size = info.split("/")

if len(size) == 2:

size = size[1]

else:

size = "0MB"

app_type = item("p").text()

mobile_type = item("h3>a").text()

# 保存数据

# 建立图片下载渠道

img_url = item(".tip_list>a>img").attr("src")

# 获取文件名字

filename = img_url[img_url.rindex("/")+1:]

# 添加软件logo图片下载地址

self.crawl(img_url,callback=self.save_img,save={"filename":filename},validate_cert=False)

dicts.append({

"title":title,

"pubdate":pubdate,

"category":category,

"size":size,

"app_type":app_type,

"mobile_type":mobile_type

})

return dicts

数据已经集中返回,我们重写on_result来保存数据到mongodb中,在编写以前,先把链接mongodb的相关内容编写完毕

import os

import pymongo

import pandas as pd

import numpy as np

import time

import json

DATABASE_IP = '127.0.0.1'

DATABASE_PORT = 27017

DATABASE_NAME = 'sun'

client = pymongo.MongoClient(DATABASE_IP,DATABASE_PORT)

db = client.sun

db.authenticate("dba", "dba")

collection = db.liqu # 准备插入数据

数据存储

def on_result(self,result):

if result:

self.save_to_mongo(result)

def save_to_mongo(self,result):

df = pd.DataFrame(result)

#print(df)

content = json.loads(df.T.to_json()).values()

if collection.insert_many(content):

print('存储到 mongondb 成功')

获取到的数据,如下表所示。到此为止,咱已经完成大部分的工作了,最后把图片下载完善一下,就收工啦!

3. 手机APP数据----图片存储

图片下载,其实就是保存网络图片到一个地址即可

def save_img(self,response):

content = response.content

file_name = response.save["filename"]

#创建文件夹(如果不存在)

if not os.path.exists(DIR_PATH):

os.makedirs(DIR_PATH)

file_path = DIR_PATH + "/" + file_name

with open(file_path,"wb" ) as f:

f.write(content)

到此为止,任务完成,保存之后,调整爬虫的抓取速度,点击run,数据跑起来~~~~

python爬虫之app数据抓取_Python爬虫入门教程 29-100 手机APP数据抓取 pyspider相关推荐

  1. python 40位的数减个位数_Python数据分析入门教程(五):数据运算

    作者 | CDA数据分析师 进行到这一步就可以算是开始正式的烹饪了,在这部分之前的数据操作部分我们列举了一些不同维度的分析指标,这一章我们主要看看这些指标都是怎么计算出来的. 一.算术运算 算术运算就 ...

  2. 爬取了京东商城上的部分手机评论数据,仅供学习使用

    京东的手机评论数据爬虫,仅供学习使用 说明 爬取了京东商城上的部分手机评论数据.由于项目的数据量要求不大,仅仅采用了比较简单的方式来进行数据的爬取,过程分为两个部分: 根据不同的手机品牌选择了第一页的 ...

  3. 想学python都要下载什么软件-学编程闲余时间建议下载的软件_Python新手入门教程...

    原标题:学编程闲余时间建议下载的软件_Python新手入门教程 Python新手入门教程_在手机上就能学习编程的软件 很多小伙伴会问:我在学编程,想利用坐地铁坐公交吃饭间隙学编程,在手机上能学编程的软 ...

  4. 【统计技术】运营商数据:三大运营商2012年1月手机用户数据

    [统计技术]运营商数据:三大运营商2012年1月手机用户数据 by huawei [导读]数据来源于3大运营商官方网站,最新发布的数据显示: 1)截至2012年1月底,中国累计手机用户9.88亿户,其 ...

  5. ECharts实现数据可视化超详细基础入门教程

    ECharts实现数据可视化超详细基础入门教程 ECharts介绍 ECharts官网:https://echarts.apache.org/zh/index.html ECharts是一款基于Jav ...

  6. python 安卓模拟器 抓包_python + 爬虫 + fiddler + 夜神模拟器 爬取app(1)

    抓包 抓包是爬虫里面经常用到的一个词,完整的应该叫做抓取数据请求响应包 ,而Fiddler这款工具就是干这个的 普通https抓包设置 打开Fiddler ------> Options .然后 ...

  7. js与python 抓包_Python爬虫学习,记一次抓包获取js,从js函数中取数据的过程

    昨天有小伙伴找我,新浪新闻的国内新闻页,其他部分都是静态网页可以抓到,但是在左下方的最新新闻部分,不是静态网页,也没有json数据,让我帮忙抓一下.大概看了下,是js加载的,而且数据在js函数中,很有 ...

  8. python壁纸数据抓取_python爬虫系列之 xpath实战:批量下载壁纸

    一.前言 在开始写爬虫之前,我们先了解一下爬虫 首先,我们需要知道爬虫是什么,这里直接引用百度百科的定义网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照 ...

  9. python教程app 小米应用商店_Python爬虫过程解析之多线程获取小米应用商店数据...

    本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理. 以下文章来源于IT共享之家 ,作者IT共享者 前言 小米应用商店给用户发现最好的安卓应用和游戏,安 ...

最新文章

  1. 创建ASP.NET WEB自定义控件——例程2
  2. JAVA 对象引用,以及对象赋值
  3. python面试应急5分钟_Python面试必须要看的15个问题
  4. 怎么用计算机拟合数据,数据拟合的几个应用实例-毕业论文.doc
  5. docker 镜像导入导出
  6. git 列出两个 commit 之间变更的文件列表
  7. iOS逆向(八)逆向工具 otool 介绍
  8. 怎么用计算机弹电脑病毒音乐,怎么制作电脑病毒?简单电脑病毒制作方法
  9. 尚硅谷-个人-数据库记录基础5
  10. Micrium uC-Probe导入.elf文件的问题
  11. 【学习笔记】C++ 编程规范——101条规则、准则与最佳实践
  12. windows 安装应用时 弹出 another installation inprogress.you must complete that installation before continu
  13. python如何从键盘输入数据_python如何从键盘输入数据?
  14. sql 节假日判断(春节、中秋、国庆、周末等)
  15. iphone和mac互传文件_mac和windows怎么互传文件_让mac和windows电脑互传文件的方法-系统城...
  16. 【分享opengl教程】
  17. 硬件中常说的EMC是啥?
  18. 非线性方程求根——牛顿迭代法
  19. 宇视摄像机存储在SD卡的录像能否在PC上播放
  20. 信息学奥赛一本通 1372:小明的账单

热门文章

  1. 充电桩用什么写软件_小区安装汽车充电桩,是选择直流桩还是交流充电桩,有什么区别?...
  2. 基于BigQuant的量化策略实现
  3. python help函数怎么用_python help函数实例用法
  4. eureka服务禁用
  5. 五、基于github+阿里云容器镜像服务进行docker部署
  6. 福晟生活服务集团运用“万物智联” 打造幸福高纬度社区生活
  7. nrm : 无法加载文件 C:\Users\HUAWEI\AppData\Roaming\npm\nrm.ps1,因为在此系统上禁止运行脚本
  8. Day01-Java高级
  9. 推荐个人网站使用的计数器
  10. AspectJ切面自定义注解实现参数分组校验——基础概念(2)