最近很多小伙伴对爬取手机App和小程序感兴趣,今天本厨师将给大家呈现这道菜,供小伙伴们品尝。

相信大家都对爬虫有一定的了解,我们爬PC端时候可以打开F12去观察url的变化,那么手机的发出请求我们应该怎么拦截呢。

今天的主菜就是给大家介绍一个抓包工具Fiddler,并用它烹煮一道广州房价爬虫。

Fiddler是一个http调试工具,也仅限于拦截http协议的请求,这是它的短板之处,但是对于我们平常的练习运用也足够了,因为大多数网站都是走http协议。跟Fiddler同类型的抓包工具还有很多。

抓包工具 Fiddier

我先教大家怎么设置Fiddler。

主要三个步骤:

1、安装软件后,打开Fiddler的Tools选项,进行第一步,分别对General,HTTPS,Connections窗口进行如下设置。

把该勾上的勾上后,我们回到HTTPS这个界面,点击Actions,选择Trust,安装证书。

这时候我们的PC端的洗菜流程已经完成啦。

2、接下来我们就要设置手机端,我们既然要通过PC端拦截手机发出的请求,就要设置手机的网络跟PC是同一个。

网络下,所以第二步,我们要更改手机ip。我们先来看看你的PC端ip是多少。先打开cmd进入终端后,输入ipconfig回车。

就可以看到你的ip地址了。

这时候终于轮到你的宝贝手机出场了,熟练的连上你的wifi之后,修改你的wifi设置,点击高级选项后,分别输入你的ip和端口后保存。

3、大家是不是觉得很简单呢,别高兴太早了!最关键的一步到了,在我们完成第一、二步设置后,打开你的手机浏览器输入你的ip和端口号(例127.0.0.1:8080),回车,这时候会跳转到一个下载手机端证书的页面,下载后并信任证书后(注:某些安卓手机会要获得root权限才行),这时候,我们安装三部曲就大功告成了。

万事俱备,只欠东风,食材都清洗好了,现在我就教大家怎么利用Fiddler烹煮小程序。

抓包实战

先打开一个小程序网站,我选择的是Q房网,大家看,菜下锅后,Fiddler是不是变化了。

这就是用fiddler拦截到你的手机发出请求的网页信息了和它的链接,这个网页信息是通过json数据加载的。

然后往上看,Raw模块是获取请求头的地方。

有了这两个信息,我们的爬虫代码也就可以开始编写了。

爬虫代码

基操requests,循环页数,由于是获取的数据是json格式,我们就要利用json.loads格式化抓取的信息,才能进行一个数据提取。

url = 'https://mapi.qfang.com/wechat/api/v3_2_0/room?dataSource=GUANGZHOU&unionId=这里也是微信id&platform=wechat&bizType=SALE¤tPage={}&pageSize=20&keyword=®ion=&l=&s=&p=&b=&a=&r=&h=&g=&t=&o=&fromPrice=&toPrice=&unitPrice=&fromUnitPrice=&toUnitPrice='#爬取到50页,程序就停止for i in range(1,51):    time.sleep(rand_seconds)    url3 = url.format(i)    # print(url3)    res = session.get(url=url3, headers=headers)    # print(res.text)    data = json.loads(res.text)    try:        id_list = data['result']['list']        # print(333,id_list)        for i in id_list:            id = i['id']            # print(id)            url2 = 'https://mapi.qfang.com/wechat/api/v3_2_0/room/detail?dataSource=GUANGZHOU&unionId=这里也是微信id&platform=wechat&id={}&bizType=SALE&userId=&accountLinkId=&top=1&origin=sale-list'.format(                id)            time.sleep(rand_seconds)            try:                requests.adapters.DEFAULT_RETRIES = 3                res2 = session.get(url=url2, headers=headers, timeout=10)            except requests.exceptions.ConnectionError:                requests.adapters.DEFAULT_RETRIES = 3                res2 = session.get(url=url2, headers=headers, timeout=10)            except requests.exceptions.ReadTimeout:                requests.adapters.DEFAULT_RETRIES = 3                res2 = session.get(url=url2, headers=headers, timeout=10)            item = {}            res2_data = json.loads(res2.text)            try:                roominfo = res2_data['result']['roomInfo']            except KeyError:                break

爬取数据结果:

数据可视化

菜做好了,当然还要撒点香菜才能上桌啦,做个简单可视化吧,由于爬取的数据很干净,我省掉清洗数据的环节,直接上手,在各位群大佬面前献丑了。

我们先来看看该网站的广州二手房的最高价和最低价,这最高价的数字太感人了.... 这多少个0我都数不对。

import pandas as pdimport matplotlib.pyplot as pltdf = pd.read_csv(r'F:PycharmProjectshouse_spider广州二手房.csv', encoding='gbk')# print(df)df = df.astype({'price': 'float64'})  #先将价格的类型转为浮点数,方便后面计算df_max = df['price'].max()  #查看爬取的数据中房价最高的价格df_min =df['price'].min()  #房价最低的价格print('广州二手房最高价:%s,最低价:%s'%(df_max,df_min))
re_price = ['region', 'price']# 分组统计数量price_df = df[re_price]# #根据区域价格计算区域房价均价region_mean_price = price_df.groupby(['region'],as_index=False)['price'].agg({'mean_price':'mean'})region_mean_price = region_mean_price.sort_values(by='mean_price')print(region_mean_price)#利用循环提取已经处理好的区域和它的均值for x,y in zip(region_mean_price.region, region_mean_price.mean_price):    plt.text(x, y,'%.0f' %y, ha='center', va= 'bottom',fontsize=11)# 显示柱状图值plt.bar(region_mean_price.region, region_mean_price.mean_price, width=0.8, color='rgby')plt.show()

继续继续,我们来统计一下广州各区的房价,然后算出各个区域均值,通过groupby分组统计出region_mean_price

(原来黄埔房价都那么高了,各网站数据的差异性也会导致最终展示的结果不一样,大家可以选个大网站试试)

到此,我们这次利用工具抓包小程序网站的介绍就结束了,大家也可以试试app,原理一样。

d va爬黑板animate_对不起,我把APP也给爬了相关推荐

  1. d va爬黑板animate_部编版四年级语文上册第17课爬天都峰微课视频|MP3朗读|同步练习...

    视频微课请拉到文末 视频微课请拉到文末 视频微课请拉到文末 同步教材 点击图片,查看大图 ▼▼▼▼ 知识点 一.我会写组词 哩:li(还早哩.吃饭哩.上面哩) 级:jí(石级.高级.初级) 链:lià ...

  2. python手机端下载-Python3,x:如何进行手机APP的数据爬取

    Python3,x:如何进行手机APP的数据爬取 一.简介 平时我们的爬虫多是针对网页的,但是随着手机端APP应用数量的增多,相应的爬取需求也就越来越多,因此手机端APP的数据爬取对于一名爬虫工程师来 ...

  3. python爬取会议论文pdf_【python2.7】爬取知网论文

    # -*- coding: utf-8 -*- import time import urllib import urllib2 import cookielib from lxml import e ...

  4. python爬取网上租房信息_Python爬虫入门 | 5 爬取小猪短租租房信息

    小猪短租是一个租房网站,上面有很多优质的民宿出租信息,下面我们以成都地区的租房信息为例,来尝试爬取这些数据. 1.爬取租房标题 按照惯例,先来爬下标题试试水,找到标题,复制xpath. 多复制几个房屋 ...

  5. python爬取股票数据,以上证指数为例,可以爬取任何股票,保存为temp.csv文件

    python爬取股票数据,以上证指数为例,可以爬取任何股票,保存为temp.csv文件 import requests import pandas as pd# market: 0:沪市 1:深市 # ...

  6. python 爬取整部漫画(简单的图片爬取)

    用python爬取整部漫画 文章目录 用python爬取整部漫画 契机 收集信息  目录页   内容页 开始爬取   目录页   内容页 完整代码 契机 最近突然少女心爆棚,追上了一本甜甜的恋爱日漫& ...

  7. Python爬虫-爬取手机应用市场中APP下载量

    一.首先是爬取360手机助手应用市场信息,用来爬取360应用市场,App软件信息,现阶段代码只能爬取下载量,如需爬取别的信息,请自行添加代码. 使用方法: 1.在D盘根目录新建.tet文件,命名为Ap ...

  8. 多线程爬取免费代理ip池 (给我爬)

    多线程爬取免费代理ip池 (给我爬) 文章目录 多线程爬取免费代理ip池 (给我爬) 安装的库 IP 隐藏 代理ip 多线程爬取 读入代理ip 写入代理ip 验证代理ip 解析网页得到代理ip 获取网 ...

  9. 【爬虫】学习:App数据的爬取

    python3网络爬虫开发实战第二版--12 App数据的爬取 Charles 配置环境 教程 1 基础设置:抓包工具Charles:(二)Charles的代理设置(windows,app)_闫振兴的 ...

  10. python爬取图片链接标签的src属性值_python爬取图片遇见src乱码: data:image/png;base64...

    python爬取图片遇见src乱码: data:image/png;base64 向爬取自己喜欢的图片,但是在爬取下来的代码当中图片的src会出现乱码的情况:data:image/png;base64 ...

最新文章

  1. ftp服务器需要ssl证书吗,ftp+ssl证书安全认证
  2. python爬虫图片实例-【图文详解】python爬虫实战——5分钟做个图片自动下载器...
  3. C语言程序设计之十六进制显示
  4. 苹果看好医疗健康产业 AI技术将变革
  5. 宽度如何设置 滑动条_【Axure9百例】26.得到交互设计左右滑动
  6. JavaScript技巧
  7. Keras-训练可视化
  8. Linux:十条为系统管理员节省时间的命令
  9. 面试刷题7:int和Integer有什么区别?
  10. 不到 1000 元,你的所有隐私竟然都能随便查!!!
  11. 为什么物联网与云计算是天作之合
  12. 「机箱」酷冷至尊 影音先锋 250
  13. PSPICE仿真数据转MATLAB
  14. JavaScript 注册登录页面的简单实现
  15. uniapp快速入门开发
  16. RuoYi(若依)平台页面缓存无效
  17. Word中的公式对齐
  18. 01.04_计算机基础知识(键盘功能键和快捷键)
  19. 树莓派4安装Debian10
  20. 根据手机sim卡获取运营商信息

热门文章

  1. 《孙子兵法》对现代战争还适用吗?为什么?
  2. ijkplayer 代码走读之 播放器网络数据读取过程详解2
  3. Caffe_stu03_小训练
  4. 七日杀服务器怎么设置家的位置,七日杀固定地图在哪儿建家好 | 手游网游页游攻略大全...
  5. C#连接服务器超时解决方法
  6. 饥荒联机版服务器控制台本地和在线,《饥荒》多人联机版控制台开启方法详解...
  7. 微博相册一键批量下载 Chrome 扩展
  8. 经典推荐:盛大架构师周爱民回顾职业历程,分享十项建议
  9. 2021年熔化焊接与热切割考试题库与解析
  10. bzoj1861 [Zjoi2006]Book 书架