本文用于学习交流使用,如有侵权,联系删除

1 爬取需求

1.1 七麦网简介

七麦网(https://www.qimai.cn/),该平台支持提供iOS、Android应用市场、微信、小程序等数据查询,是同时打通App数据、微信公众号数据、小程序数据的数据分析平台。

1.2 爬取需求

根据关键词文件,在检索栏内输入检索关键词。以滴滴出行为例,获得如下界面,在这里点击第一个获得相应的appID(554499054),在此基础上获得更详细的信息。

2 url构造

2.1 analysis加密

相信来看的各位都是因为七麦网的analysis的加密,参考了一系列的文章解决了这个问题,由于侵权问题,就不放破解的js代码了。下面将参考用的博客放给大家

  • https://mp.weixin.qq.com/s/1E_ONUnMwTFozd9-dB70Yw
  • https://blog.csdn.net/wg5foc08/article/details/102831489
  • https://blog.csdn.net/Herishwater/article/details/90733267

由于此文做的是研究某一个APP的ID,之前人做的JS是研究IOS的排行信息,所以在JS传参方向有细节不同。可以通过申请网址来看(https://www.qimai.cn/search/index/country/cn/search/%E6%BB%B4%E6%BB%B4%E5%87%BA%E8%A1%8C),这里传参的param不一样,除此以外,加密方式一样。

2.2 构造链接代码

我的代码实在jupyter notebook里面写的,下面是图片,把代码集中贴在后面。

import requests
import execjs
import urllib
import os
import json
import random
import re
import csv# 读入整理的app名称
search_list = []
with open("/Users/didi/Downloads/七麦网爬虫/key_word.txt", "r") as f:for line in f.readlines():line = line.strip('\n')search_list.append(line)# 读入解密js
with open('/Users/didi/Downloads/七麦网爬虫/qimai_app.js', 'r', encoding='utf-8') as f:get_analy_js = f.read()
jsData = execjs.compile(get_analy_js)# 准备UA
user_agent = ["Mozilla/5.0 (Macintosh; U; Intel Mac OS X 10_6_8; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50","Mozilla/5.0 (Windows; U; Windows NT 6.1; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50","Mozilla/5.0 (Windows NT 10.0; WOW64; rv:38.0) Gecko/20100101 Firefox/38.0","Mozilla/5.0 (Windows NT 10.0; WOW64; Trident/7.0; .NET4.0C; .NET4.0E; .NET CLR 2.0.50727; .NET CLR 3.0.30729; .NET CLR 3.5.30729; InfoPath.3; rv:11.0) like Gecko","Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0)","Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0)","Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv:2.0.1) Gecko/20100101 Firefox/4.0.1","Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/20100101 Firefox/4.0.1","Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11","Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11","Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11","Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Maxthon 2.0)","Mozilla/4.0 (compatible; MSIE 6.0; ) Opera/UCWEB7.0.2.37/28/999","Mozilla/6.0 (iPhone; CPU iPhone OS 8_0 like Mac OS X) AppleWebKit/536.26 (KHTML, like Gecko) Version/8.0 Mobile/10A5376e Safari/8536.25",
]# 通过访问七麦得到时间戳
def get_synct():headers = {"User-Agent": random.choice(user_agent),'Origin': 'https://www.qimai.cn','Referer': 'https://www.qimai.cn/rank',"Accept": "application/json,text/plain,*/*",}resp = requests.get('https://www.qimai.cn/rank', headers=headers, verify=False)t = resp.cookies.get_dict()synct = t.get('synct')return synct# 获得加密后的url
def get_analysis_url(synct,app_name):params = {'country':'cn','search':app_name}analysis = jsData.call('getAnalysis',synct,params)base_url = "https://api.qimai.cn/search/index?analysis="params_str = "&country=cn&search=" + str(app_name)url = str(base_url) + str(analysis) + str(params_str)return urldef get_appID(url):headers = {"User-Agent": random.choice(user_agent),'Origin': 'https://www.qimai.cn'}html = requests.get(url, headers=headers)response = html.texttry:pattern = r'"appId":"(.*?)","appName"'  appID = re.search(pattern, response, re.I)[1]except:appID = Nonereturn appIDdef write_csv(file,appInfo):with open(file, 'a', encoding='utf-8',newline='') as csv_file:writer = csv.weiter(csv_file)writer.writerow(appInfo)def main(app_name):synct = get_synct()url = get_analysis_url(synct,app_name)appID = get_appID(url)print(appID)if __name__ == '__main__':for i in range(len(search_list))app_name = "滴滴出行"main(app_name)

3 其他反爬

破解analysis后还有其他的反爬,下面是一张测试结果,这是对于访问频率的封禁,可以看出七麦网的反爬是非常厉害的。

python_爬虫_七麦网相关推荐

  1. Python_爬虫_网页图片下载_その日の紋

    Python_爬虫_网页图片下载_その日の紋 项目效果 项目需求 项目分析 URL分析 页面分析 项目实施 项目源码 项目效果 项目需求 目标页面:https://www.hanakomon.jp/c ...

  2. Python_爬虫_案例汇总:

    1.豆瓣采集 1 #coding:utf-8 2 #采集豆瓣书信息和图片,写进数据库 3 4 from urllib import request 5 # from bs4 import Beauti ...

  3. Python_爬虫_猫眼电影网电影预告片批量下载

    非常简单的一个基础爬虫代码,可以根据不同的url自动下载同一页中的所有预告片 import requests from lxml import etree import re# 1.确定url地址 u ...

  4. python_爬虫_豆瓣TOP250_url

    本文仅供学习使用,如有侵权,联系删除. 获得豆瓣top 250书单的url import lxml import requests import re import csv from requests ...

  5. Python_爬虫_中文乱码

    今天在用Python2.7爬取百度百科的一个网页时发现输出时中文为乱码. 尝试一: 查看网页页面信息,发现其中文字编码为"GBK",遂准备对其进行解码. content = url ...

  6. python_爬虫_豆瓣TOP250_页面内容

    本文仅供学习使用,如有侵权,联系删除 豆瓣TOP250书籍页面内容如下,此次将爬取图片中的内容 from bs4 import BeautifulSoup import lxml import req ...

  7. Python_机器学习_常用科学计算库_第6章_ Seaborn+综合案例

    Python_机器学习_常用科学计算库_第6章_ Seaborn+综合案例 文章目录 Python_机器学习_常用科学计算库_第6章_ Seaborn+综合案例 Seaborn 学习目标 6.1 Se ...

  8. python 爬虫源代码-从零开始学Python网络爬虫_源代码.rar

    [实例简介] [实例截图] [核心代码] 从零开始学Python网络爬虫_源代码_1 ├── 58project │ ├── __pycache__ │ │ ├── channel_extract.c ...

  9. python 读grid 数据_科学网—Python_机器学习_总结14:Grid search - 李军的博文

    机器学习中存在两类参数:通过训练数据学习得到的参数:---可认为是辨识得到的参数,例如模型系数: 在学习算法中单独需要优化的参数--超参.调优参数:---算法自身的系数,例如决策树的深度参数: Gri ...

最新文章

  1. WSL2问题汇总:转换为WSL2、WSL2代理、安装MySQL等
  2. 程序员发现 Bug 的时候是怎样一种心境?
  3. Vue + Element UI + Spring Boot——易班优课YOOC课群在线测试自动答题解决方案(十)问题管理页面
  4. Polygon Cruncher减边用法
  5. 《中国文化要略》第八章 古代教育 第九章 科举制度
  6. 信息学奥赛C++语言:与 7 无关的数的个数
  7. 【工具】sysbench 0.5 简介
  8. AudioRecord 采集音频PCM数据
  9. 在Objective-C中分类对象和方法
  10. ubuntu下用postfix搭建邮件服务器
  11. [原创]spring及springmvc精简版--继承数据源,声明式事物
  12. 14Penrose广义逆(II)
  13. web前端期末大作业实例 (1500套) 集合
  14. word鼠标右下角有一个小方块_word
  15. 如何加速android模拟器,Android模拟器运行慢怎么办 Android模拟器如何加速【加速方法】...
  16. 怎么清除DNS缓存?
  17. cocos2dx 3d开源项目 fantasyWarrior3D 从零走起 6完结 [AttackManagerGameMaster]
  18. Android显示gif格式图片
  19. java学习总结(16.06.07)类的静态成员和非静态成员
  20. 二、TI毫米波雷达系列——IWR6843 DSP系统内存结构

热门文章

  1. 求通俗解释下bandit老虎机是个什么东西?
  2. python信用卡违约预测分析_Python作业集:信用卡还款违约预测
  3. 《西方经济学》笔记1-需求曲线
  4. 计算机应用技术怎样为祖国做出贡献,计算机应用技术
  5. 远程控制 Error: LoadLibrary failed with error 87 显示
  6. 硬盘卡住磁头的解决办法
  7. JavaSE 第三章 流程控制语句方法定义 笔记
  8. C# 窗口实现Win7简单屏幕泡泡保护程序 和实现聊天窗口震动
  9. 仙境传说 v1.0 绿色
  10. java怎么声明list_Java中的ArrayList或List声明