python爬取百度迁徙_Python爬虫抓取百度慧眼迁徙大数据(一)
引言
百度慧眼迁徙3.0上线,在选择某一城市的“迁出目的地”或“迁入来源地”后,即可查看该城市迁出、迁入人口的迁徙来源与迁徙时间趋势。对城市大数据研究有所帮助。本文采取Python爬虫抓取百度慧眼数据。
image
准备工作
工具:Chrome
2.查找数据源。
使用开发者工具(F12),打开Network,搜索关键字json。
image
右侧preview预览,打开data内的list,即可看到json格式的数据。
image
3.数据解析
查找json信息后,发现cityrank.jsonp、provincerank.jsonp和historycurve.jsonp都是可以利用的数据。cityrank是精确到市级的数据来源,provincerank是精确到省级的数据来源,historcurve是表示该地历史数据。本文对cityrank.jsonp、provincerank.jsonp进行了爬取。
4.Url解析
右键,open in tab查看地址栏地址。 example:http://huiyan.baidu.com/migration/cityrank.jsonp?dt=province&id=330000&type=move_in&callback=jsonp_1581412681419_9173670
这里可以看到参数有dt,id,type,callback等。经过测试,dt为选取的地点的行政级别。id为选取的地点的行政编码,是百度内部自己的编码。type有move_in和move_out两种参数,对应迁入和迁出。callback对应的是时间戳,时间精度非常大,后文默认分钟级别。
5.百度城市编码
在上一步内,最难填写的是城市代码,一开始猜测与邮政编码有关,后对其进行验证,发现并不完全相同。在浏览了百度地图开放平台之后,查找到了这么一份行政区划乡镇清单201910.xlsx,与省份、城市id完全吻合。并通过在线的excel转json工具,转换为json格式,保存为文件,方便读取。
爬取工作
因为涉及了Excel格式的写入,所以使用前pip install xlwr。
源代码
import requests
import json
import time
import xlwt
def CityName2Code(dt,cityName):
"""城市名/省名转换为编码
Arguments:
dt {str} -- [description]
cityName {str} -- [description]
"""
cityCode=''
searchKey=''
codeKey=''
#城市编码的相对路径
cityCodePath ='migration/CityCode.json'
#打开文件,文件编码格式为UTF-8
data = open((cityCodePath), encoding='utf-8')
result = json.load(data)
if dt=='province':
searchKey='省名称'
codeKey='省代码'
elif dt =='city':
searchKey='地级市名称'
codeKey='地级市代码'
for rowNum in range(len(result)):
if result[rowNum][searchKey]==cityName:
cityCode = result[rowNum][codeKey]
return cityCode
def UrlFormat(rankMethod,dt,name,migrationType,date):
"""字符串定义,默认时间为00:00:00,精确到分钟级别
Arguments:
rankMethod {str} -- city||province 获得数据的行政级别
dt {str} -- city||province 中心地行政级别
name {str} -- example:'温州市||浙江省' 作为中心地的地名
migrationType {str} -- in||out
date {str} -- example:20200202
"""
list_date = list(date)
list_date.insert(4,'-')
list_date.insert(7,'-')
formatDate = ''.join(list_date)
formatDate= formatDate+" 00:00:00"
#转换成时间数组
timeArray = time.strptime(formatDate, "%Y-%m-%d %H:%M:%S")
#转换成时间戳
timeUnix = time.mktime(timeArray)
ID = CityName2Code(dt,name)
url='http://huiyan.baidu.com/migration/{0}rank.jsonp?dt={1}&id={2}&type=move_{3}&date={4}&callback' \
'=jsonp_{5}000_0000000'.format(rankMethod,dt,ID,migrationType,date,int(timeUnix))
return url
#返回数据处理
def JsonTextConvert(text):
"""Text2Json
Arguments:
text {str} -- webContent
Returns:
str -- jsonText
"""
text = text.encode('utf-8').decode('unicode_escape')
head, sep, tail = text.partition('(')
tail=tail.replace(")","")
return tail
def GetData(rankMethod,dt,name,migrationType,date,isExcel):
"""
Arguments:
rankMethod {str} -- city||province 获得数据的行政级别
dt {str} -- city||province 中心地行政级别
name {str} -- example:'温州市||浙江省' 作为中心地的地名
migrationType {str} -- in||out
date {str} -- example:20200202
isExcel {bool} -- true转出为excel格式
"""
r = requests.get(url=UrlFormat(rankMethod,dt,name,migrationType,date))
text = r.text
rawData=json.loads(JsonTextConvert(text))
data= rawData['data']
list = data['list']
nameKey = ''
if rankMethod=='province':
nameKey = 'province_name'
else:
nameKey = 'city_name'
if isExcel == True:
#输出excel格式数据
workbook = xlwt.Workbook(encoding='utf-8') #创建workbook 对象
worksheet = workbook.add_sheet('sheet1',cell_overwrite_ok=True) #创建工作表sheet
table_head = [nameKey,'value']#表头
index = 1
for i in range(len(table_head)):
worksheet.write(0,i,table_head[i])
for l in list:
worksheet.write(index,0,l[nameKey])
worksheet.write(index,1,l['value'])
index=index+1
filename = name+date+'.xls'
workbook.save('migration/'+filename) #保存表
else:
#打印数据
for l in list:
print(l[nameKey],':',l['value'])
def main():
#第一个参数填‘city‘或’province’,为获取数据的行政级别,分别为市级或省级
#第二个参数填‘city‘或’province’,为中心地的行政级别
#第三个参数填‘中心地名’,例如‘浙江省’或‘杭州市’
#第四个参数填时间,例如‘20200210’,默认每天的零点
#第四个参数填True或False,True则输出Excel(文件路径注意),否则打印出来
GetData('city','province','浙江省','in','20200210',True)
if __name__ == '__main__':
main()
python爬取百度迁徙_Python爬虫抓取百度慧眼迁徙大数据(一)相关推荐
- python爬贴吧回复_Python爬虫——抓取贴吧帖子
对珊瑚老哥保证了自己会尽量补档动画MTV吧的资源,有空应该研究下爬虫了. 不要在意头图,我不会假借各位对某个动漫的爱好然后坑人的.无论是电磁炮吧主那种拿电磁铁糊弄人的奸商,还是逸站靠小林做幌子卖收费破 ...
- python爬虫抓取百度图片_Python爬虫抓取百度的高清摄影图片
成果预览: 源代码: import requests import re url = 'https://image.baidu.com/search/index' headers = { 'User- ...
- python爬取微博评论_python爬虫抓取新浪微博数据
需求分析 微博主页 抓取的内容包括:微博发布的时间,正文(仅提取文字),转发数,评论数,点赞数 抓取的内容 数据是怎么加载的 新浪微博的数据是用ajax异步下拉加载的,在chrome的调试模式下可捕捉 ...
- python爬取大众点评评论_python爬虫抓取数据 小试Python——爬虫抓取大众点评上的数据 - 电脑常识 - 服务器之家...
python爬虫抓取数据 小试Python--爬虫抓取大众点评上的数据 发布时间:2017-04-07
- python爬虫爬取股票软件数据_Python爬虫抓取东方财富网股票数据并实现MySQL数据库存储(转载)...
完整代码 实际上,整个事情完成了两个相对独立的过程:1.爬虫获取网页股票数据并保存到本地文件:2.将本地文件数据储存到MySQL数据库.并没有直接的考虑把从网页上抓取到的数据实时(或者通过一个临时文件 ...
- python抓取数据库数据_Python爬虫抓取东方财富网股票数据并实现MySQL数据库存储...
Python爬虫可以说是好玩又好用了.现想利用Python爬取网页股票数据保存到本地csv数据文件中,同时想把股票数据保存到MySQL数据库中.需求有了,剩下的就是实现了. 在开始之前,保证已经安装好 ...
- python爬虫实现股票数据存储_Python爬虫抓取东方财富网股票数据并实现MySQL数据库存储!...
Python爬虫可以说是好玩又好用了.现想利用Python爬取网页股票数据保存到本地csv数据文件中,同时想把股票数据保存到MySQL数据库中.需求有了,剩下的就是实现了. 在开始之前,保证已经安装好 ...
- python爬虫资源大全_Python爬虫抓取纯静态网站及其资源(基础篇)
本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理 以下文章来源于腾讯云 作者:程序员宝库 **( 想要学习Python?Python ...
- python爬虫app步骤_Python爬虫抓取手机APP的传输数据,python爬虫抓取app
Python爬虫抓取手机APP的传输数据,python爬虫抓取app 大多数APP里面返回的是json格式数据,或者一堆加密过的数据 .这里以超级课程表APP为例,抓取超级课程表里用户发的话题. 1. ...
- python唐诗分析综合_Python爬虫抓取唐诗宋词
一 说明 Python语言的爬虫开发相对于其他编程语言是极其高校的,在上一篇文章 爬虫抓取博客园前10页标题带有Python关键字(不区分大小写) 的文章中,我们介绍了使用requests做爬虫开发, ...
最新文章
- TextView设置文字包含中英文时自动换行问题的终极解决方案
- Java 7:在不丢失数据的情况下关闭NIO.2文件通道
- 【深度学习】L1正则化和L2正则化
- Android8.1系统Led的控制从底层到上层的实现
- linux 定时执行某个任务,多个时间段
- ucore 地址映射的几个阶段
- Java-重载、重写(冷静分析)
- PyCharm快捷键
- Centos7系列各版本镜像合集下载
- 2017年全国数学建模国赛B题题目、解题思路、matlab代码(三)
- cannot open clipboard
- 推理的2种方式:演绎和归纳
- “大数据”查询平台利用抖音导流,存个人信息泄露或倒卖风险
- 零基础学习云计算需要准备什么?
- 强大测量功能,丰富参数测量
- 技术分享:国民远控向日葵如何通过BBR算法提升远控体验?
- 物联网相关技术术语表
- Hulu 圣诞剧集推荐
- 期货开户手机APP有哪些?
- 201933 plsql设置及使用技巧—Jess