前言

Fiddler是一个http协议调试代理工具,它能够记录并检查所有你的电脑和互联网之间的http通讯,设置断点,查看所有的 “进出” Fiddler的数据(指cookie,html,js,css等文件)。 Fiddler 要比其他的网络调试器要更加简单,因为它不仅仅暴露http通讯还提供了一个用户友好的格式。

》本文案例:利用Fiddler抓取公众号数据
》成果:熟悉抓包软件的使用、学会处理公众号接口数据。

准备工作

  • 微信PC客户端
  • Fiddler抓包软件(附安装包:Fiddler中文版【提取码:7k7k】)
  • 进入Fiddler软件需要进行证书配置,如下图操作:(配置完成后重新打开软件)

开始抓包

》重启Fiddler后,打开微信公众号,点击查看历史消息,再返回到Fiddler就可以看到返回的数据了(若没看到数据,则返回公众号中往下拉,再查看历史消息)。
》这时,在抓包软件的左侧返回的一大堆网址数据中,找到 ‘Host’ 显示为 'mp.weixin.qq.com' 的那一栏,查看它的 ‘URL’是否返回的是json的数据格式(例:"/mp/profile_ext?action=getmsg&_biz=MzIOMD==&f=json&..."),如果是,那么数据接口就被找到了。
》看到的效果是这样的,如下图:
(根据图片,接着执行图中的二、三步骤,就可以查看到发送的请求头信息)

》在抓包软件的右上框的Raw可以查看到请求接口时需要的请求参数有哪些。(如下图)
》在抓包软件的右下框的json可以查看到请求接口时返回来的数据有哪些。(如下图)
【划黄色荧光笔的就是重要的参数,其中右下框的 general_msg_list就是返回的数据内容,可以复制 "list:" 后面的[ ]部分,到http://www.json.cn/中,解析出完整的数据格式出来。// 其中:next_offset=20 是请求后面的20条数据,后面完整代码会用到】

》经过 http://www.json.cn/ 中,解析出完整的数据格式显示如下图(附解释):

开始爬取数据

》若只是requests+请求头向目标url发送请求的话,是无法返回正确数据的。通过抓包,分析出请求时带上各种token等参数,才能够获取正确的数据,而这些参数都可以在抓包软件中直接复制使用。

》因此构造的请求头信息为如下代码:
(请求头信息中的token参数等会过一阵子失效,所以需要重新再获取重试即可)

querystring = {"action": "getmsg","__biz": "MzI0MDM0MzYwMA==",# biz参数是公众号的ID"f": ["json","json"],"offset": "10",             # 起始条数(后面可用作翻页功能)"count": "10",              # 返回条数"is_ok": "1","scene": "124","uin": "NDM3NzA2NDU",       # uin是用户的ID,目前来看uin是在所有公众号之间唯一的"key": "",                  # key 和 pass_ticket 是微信客户端补充上的参数"pass_ticket": "","wxtoken": "",              # 空"appmsg_token": "",         # token  "x5": "0"# 以上参数都可以在抓包软件中获取到
}
headers = {"host": "mp.weixin.qq.com","connection": "keep-alive","accept": "*/*","user-agent": "",           # 自己的请求头信息(在抓包软件中可以找到)"x-requested-with": "XMLHttpRequest","accept-encoding": "gzip, deflate","accept-language": "zh-CN,zh;q=0.8,en-us;q=0.6,en;q=0.5,q=0.4","cookie": ""                # 自己的cookies(在抓包软件中可以找到)
}

最终代码如下

import requests
import json
import time
import os
from bs4 import BeautifulSoupdef start(offset=10):url = "https://mp.weixin.qq.com/mp/profile_ext"  # 需要携带querystring参数到url中querystring = {...      # 参照上面,填入抓包获取到的请求}# 以上 "__biz"、"uin"、"key"、"pass_ticket"、"appmsg_token" 参数都会隔一段时间就变,所以需要定时更改headers = {... # 参照上面,填入抓包获取到的请求}response = requests.get(url=url, headers=headers, params=querystring, verify=False).json()     # 其中verify参数用于关闭SSL验证for item in json.loads(response["general_msg_list"])["list"]:       # 遍历获得每一篇文章urlinfo = {}# 只获取当天置顶的第一篇文章timeStamp = int(item["comm_msg_info"]["datetime"])  # 时间戳timeArray = time.localtime(timeStamp)datetime = time.strftime("%Y-%m-%d", timeArray)info["date"] = datetimeinfo["title"] = item["app_msg_ext_info"]["title"]info["digest"] = item["app_msg_ext_info"]["digest"]info["author"] = item["app_msg_ext_info"]["author"]info["link"] = item["app_msg_ext_info"]["content_url"]try:content = parse(info["link"])               # 调用parse()方法,获取公众号文章内容os.makedirs("./gzh_txt/"+info["author"], exist_ok=True)      # 创建文件夹目录with open("./gzh_txt/"+info["author"] + "/" + info["date"]+"_one.txt", "w", encoding='utf-8') as f:      # 存储文章内容,记得需要编码格式f.write(content)except Exception as e:  # 异常处理print(e)print(info)# 这里还可以编写代码将info数据存储在数据库中if response["next_offset"] < 100:           # "next_offset" 用于请求后面的数据,前面有提到该参数start(response["next_offset"])          # 继续调用start()方法def parse(url):response = requests.get(url=url)soup = BeautifulSoup(response.text, 'lxml')     # 使用 BeautifulSoup 请求content = soup.find('div', class_='rich_media_content').get_text().strip()  # 获取公众号文章内容return contentif __name__ == '__main__':start()

》以上就是本案例的全部内容,主要是掌握Fiddler抓包软件的使用,对公众号接口和数据的分析和存储等。【还有对 时间戳、bs4 的使用】
》可参考该文✍:https://www.colabug.com/2018/0523/2941906/

使用Fiddler抓公众号数据相关推荐

  1. 利用Fiddler抓取APP数据

    利用Fiddler抓取APP数据 简杨君 关注 2016.11.03 18:51* 字数 368 阅读 762评论 0喜欢 2 软件:Fiddler 系统:Windows10 手机:MX4 PRO F ...

  2. 微信公众号数据2019_2019年9月原创公众号排行榜数据报告出炉

    西瓜数据发布 2019 年 9 月原创公众号排行榜,分别从西瓜指数.原创文章占比.周期内公众号发文次数.发文篇数.总阅读数.头条平均阅读数等方面展示公众号数据. 榜单说明 1.涉及榜单 本期月榜截取 ...

  3. 我的Fiddler书籍:《Fiddler抓包让数据无处可藏》《玩转Fiddler》

    今年的目标是个体崛起,打造个人品牌 1.由于工作的原因呢,要经常使用Fiddler抓包,修改数据,模拟各种复杂的数据场景,对Fiddler的脚本进行二次开发来满足工作需求,提高工作效率. 2.将这些技 ...

  4. Fiddler抓取https数据报文,Fiddler数字证书解决方案

    前言: 一.浅谈HTTPS 我们都知道HTTP并非是安全传输,在HTTPS基础上使用SSL协议进行加密构成的HTTPS协议是相对安全的.目前越来越多的企业选择使用HTTPS协议与用户进行通信,如百度. ...

  5. Fiddler抓取微信公众号数据

    写这篇博文的主要目的,记录我使用Fiddler 抓包工具完成公众号请求信息的抓取,并解析抓取的数据的全过程. 准备工作: 下载:Fiddler_5.0.20173.49666_Setup.exe 官网 ...

  6. burpsuit抓取微信公众号数据包

    1.抓包前设置 进入IE浏览器设置->Internet设置->连接->局域网设置: 开启代理服务器,其中代理服务器的地址和端口需要和Burpsuit中的保持一致如下: 2.burps ...

  7. 使用bp抓取微信公众号数据包

    由于pc版微信公众号使用的ie的引擎.所以首先在ie中设置代理

  8. 微信公众号数据2019_清博大数据 | 2019年测绘之家微信公众号数据专属报告:估值相当于6辆奔驰S...

    多少次抓选题抓到头秃:多少次半夜守候在屏幕前,等着领导的一句OK: 多少次紧张的点开又关闭,害怕阅读量低,更怕大家不喜欢:修图.写文案.修改.再修改.排版.编辑-- 好了,新年已至,快来看看2019年 ...

  9. python学习:爬虫爬取微信公众号数据

    spider 一.获取链接 二.爬取文章标题.文章链接.文章正文.时间 三.爬取阅读量与点赞数 参考: https://blog.csdn.net/qq_45722494/article/detail ...

最新文章

  1. java ajax jquery分页插件_JQueryPagination分页插件,ajax从struts请求数据
  2. php结课答辩要求,毕业论文答辩的基本要求和评分标准
  3. linux下不同程序如何协同,Linux程序员怎么和Exchange协同工作
  4. 用Python获取Linux资源信息的三种方法
  5. 【Python基础】关于日期特征,你想知道操作都在这儿~
  6. 面试题 02.02. 返回倒数第 k 个节点
  7. oracle用户的追踪文件,Oracle中怎样通过触发器来追踪用户的活动?
  8. python怎么改变字体大小_python IDLE 背景以及字体大小的修改方法
  9. 中值滤波原理及c语言的实现,关于中值滤波算法,以及C语言实现(转)
  10. 内网html获取当前ip,JavaScript 获取本地局域网 IP 地址
  11. 思科二层交换机系列------设备更换详细配置命令
  12. 京东金融App崩溃治理实践
  13. [sphinx]中文语言模型训练
  14. matlab 画石墨烯能带,锯齿石墨烯能带matlab计算程序
  15. linux usb检测工具,Linux下USB设备检测全教程
  16. 美杜莎扫描器使用教程
  17. C语言详解系列——循环语句详解(3)do while语句的语法结构
  18. Spark机器学习管道--中文翻译
  19. 干货 | 知识图谱的技术与应用
  20. 教堂环境风琴-Marcos Ciscar Ethereal Keys Kontakt

热门文章

  1. numeric转换varchar_数据库中varchar类型数据转换为numeric类型
  2. 千元平板乐Pad A1完整拆解视频
  3. 基因组代谢网络(GEMS)与全基因组模型从入门到实践系列-----(1)模型构建环境的布置
  4. Win7 DNS解析不准
  5. webpy快速入门 搭建python服务器
  6. 阿里真的开始衰落了吗?
  7. threeJS 创建逼真地球
  8. python对excel操作简书_python Excel 写
  9. kibana 写两个查询条件_Kibana使用之Lucene的语法查询
  10. system 权限读取注册表HKEY_CURRENT_USER