携程机票搜索页面

涉及内容:

1、request模拟请求

2、json解析

目标:

爬取某航线上所有航班价格信息

核心思想:

通过页面上请求数据的API接口,模拟前端请求,获取json数据并将其解析。

Step0. 寻找一个合适的方法

进入携程机票的搜索界面,随便搜索一条航线,跳转后你会发现网址一栏变成了:http://flights.ctrip.com/booking/TAO-SJW-day-1.html?DDate1=2017-10-17

很明显,你搜索的航线是TAO青岛到SJW石家庄,起飞时间2017-10-17,整理一下url的规则就是:http://flights.ctrip.com/booking/--day-1.html?DDate1=

拍脑袋想出来的方法一:直接通过页面url获取html代码,然后对html进行解析,获取到所需元素。

-> 要用xpath一层层分析网页元素,一层层解析下去,好麻烦啊!

-> 机票价格是Ajax异步请求!页面html源码中没有这部分数据的!就算你有耐心用Xpath定位,也找不到哇!

拍脑袋想出来的方法二:利用selenium框架,通过webdriver操纵浏览器完成爬取

-> 可以解决方法一中动态页面获取不到源码的问题,用xpath可以定位到元素了。

-> 可是,要是想看每个航班下所有票价信息的话,还需要点N次“订票”按钮,好麻烦呀!

-> 我用selenium尝试了一下,发现如果这个航线下的航班很多,滚动条不往下拉是不会把后面的航班加载出来的呀!这可咋整呀我无法预判这条航线下有多少航班呀。每条航线都拖动滚动条3次?5次?10次?太傻了!

……出于以上种种原因

可以用的方法三:我选择直接利用ajax请求接口,模拟请求,获取json数据

Step1. 找到API的地址

打开Chrome浏览器的开发者模式,然后重新搜索一条航线。

开发者模式 -> Networks -> XHR里面有一个耗时格外长的请求!

估计就是你了!点开看一下Query String,嗯是航线信息,的确就是这个请求。获取这个请求的地址,也就是Request URL。

把Request URL后面这一大串复制出来,整理一下:

request_url = 'http://flights.ctrip.com/domesticsearch/search/SearchFirstRouteFlights?' \

+ 'DCity1=' + dcity \ # 起飞城市三字码

+ '&ACity1=' + acity \ # 降落城市三字码

+ '&SearchType=S' \

+ '&DDate1=' + ddate \ # 起飞日期

+ '&IsNearAirportRecommond=0' \

+ '&LogToken=8428f186c3504a6ea71158b344a502f5' \

+ '&rk=0.1311117634227288233503' \

+ '&CK=05F016D386A1975EFCF0F1240BA33457' \

+ '&r=0.37113914798207880745716'

request_url后面有奇奇怪怪的四个字段,LogToken,rk,CK和r,但是我在页面源代码中只找到了rk的定义,没有找到另外两个值的来源。尝试了一下发现没有后面四个字段,也是可以可以获取到json数据的,因此直接忽略。

源码中找到的rk定义:&rk=' + Math.random()*10+'223600','0.31100000101726617620017');

Step2. 模拟请求

在Chrome中的Request Headers可以看到这个请求头有以下信息:

一般情况下模拟请求头首先要做的就是设置用户代理:

ctrip_header = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.78 Safari/537.36'}

有了用户代理之后,我们尝试模拟请求:

# coding:utf-8

import urllib2

ctrip_header = {'User-Agent':

'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.78 Safari/537.36'}

def search_flight(dcity, acity, ddate):

request_url = 'http://flights.ctrip.com/domesticsearch/search/SearchFirstRouteFlights?' \

+ 'DCity1=' + dcity \

+ '&ACity1=' + acity \

+ '&SearchType=S' \

+ '&DDate1=' + ddate

request = urllib2.Request(request_url, headers=ctrip_header)

response = urllib2.urlopen(request)

return_json = response.read()

print return_json

if __name__ == '__main__':

search_flight('TAO', 'SJW', '2017-10-17')

运行结果:

发现返回的json当中并没有想要的数据,这可能是我们请求的过程中缺少了某些信息导致的。

查看Request Headers中,除了User-Agent以外还有很多其他的字段,尝试将这些字段加入ctrip_header

# coding:utf-8

import urllib2

ctrip_header = {'User-Agent':

'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.78 Safari/537.36',

'Host': 'flights.ctrip.com',

'Referer': 'http://flights.ctrip.com/booking/TAO-SJW-day-1.html?DDate1=2017-10-16'}

def search_flight(dcity, acity, ddate):

request_url = 'http://flights.ctrip.com/domesticsearch/search/SearchFirstRouteFlights?' \

+ 'DCity1=' + dcity \

+ '&ACity1=' + acity \

+ '&SearchType=S' \

+ '&DDate1=' + ddate

request = urllib2.Request(request_url, headers=ctrip_header)

response = urllib2.urlopen(request)

return_json = response.read()

print return_json

if __name__ == '__main__':

search_flight('TAO', 'SJW', '2017-10-17')

运行结果:

成功了!我本以为需要有Cookies才能请求成功的!

还好不需要Cookies!我还不太会获取Cookies,如果一定需要的话,我只能从Chrome里强行复制一波……(捂脸逃,顺便求Cookies伪造的教学)

Step3. 解析json数据

首先我们需要将刚刚请求到json数据转换为可读的格式,可以用json.loads()这个函数将json字符串转换为可读的字典。即:

return_data = json.loads(return_json, encoding='gbk')

注意前面运行结果可以看出,字符串存在显示不出来的情况,这是因为我使用的python2.7存在编码问题,需要进行编码转换,即encoding='gbk'

找到所需数据:

我们需要什么数据呢?

所有的航班号,及每个航班号下对应的所有价格。

刚刚我们看的是Headers里的信息,现在切到Preview里。Preview里的信息是格式化的返回json,在这里我们可以很清晰的找到我们需要的数据。

可以看到,fis是一个航班列表,每个都是一个json,包含航班信息,航班价格信息等等等

那么我们只需要提取fis列表中的一些有用的value值就好了。

flight_list = return_data['fis'] # 下挖到航班列表的结点

flight_nums = len(flight_list) # 航班数

for i in range(flight_nums):

airline = flight_list[i]['alc'] # 航空公司

flight_no = flight_list[i]['fn'] # 航班号

price_list = [each['p'] for each in flight_list[i]['scs'] if each['hotel'] is None] # 非飞宿产品价格

运行结果:

完整代码:

# coding:utf-8

import urllib2

import json

ctrip_header = {'User-Agent':

'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.78 Safari/537.36',

'Host': 'flights.ctrip.com',

'Referer': 'http://flights.ctrip.com/booking/TAO-SJW-day-1.html?DDate1=2017-10-16'}

def search_flight(dcity, acity, ddate):

request_url = 'http://flights.ctrip.com/domesticsearch/search/SearchFirstRouteFlights?' \

+ 'DCity1=' + dcity \

+ '&ACity1=' + acity \

+ '&SearchType=S' \

+ '&DDate1=' + ddate

request = urllib2.Request(request_url, headers=ctrip_header)

response = urllib2.urlopen(request)

return_json = response.read()

# print return_json

return_data = json.loads(return_json, encoding='gbk')

flight_list = return_data['fis']

# print flight_list

flight_nums = len(flight_list)

print '共有航班:', flight_nums, '趟'

for i in range(flight_nums):

airline = flight_list[i]['alc'] # 航空公司

flight_no = flight_list[i]['fn'] # 航班号

print '携程', airline, flight_no,

price_list = [each['p'] for each in flight_list[i]['scs'] if each['hotel'] is None] # 非飞宿产品价格

print price_list

if __name__ == '__main__':

search_flight('TAO', 'SJW', '2017-10-17')

注:代码十分不规范,完全没写异常处理。近期我会努力纠正自己的习惯!

python爬携程上出境游数据_Python爬虫 —— 携程机票数据相关推荐

  1. python爬携程上出境游数据_python爬取携程旅游评价信息词云图分析

    python爬取携程旅游评价信息词云图分析 前言 前面咱们已经分析过如何爬取携程旅游的相关信息,如果没有看过的,可以先跳转看一下前面的那篇博客:python 爬虫 一键爬取携程旅游团数据 这一篇呢,咱 ...

  2. python爬取豆瓣电影top250的代码_Python爬虫——爬取豆瓣电影Top250代码实例

    利用python爬取豆瓣电影Top250的相关信息,包括电影详情链接,图片链接,影片中文名,影片外国名,评分,评价数,概况,导演,主演,年份,地区,类别这12项内容,然后将爬取的信息写入Excel表中 ...

  3. python如何爬虫股票数据_python爬虫实例,股票数据定向爬虫

    前言 我服了,这几天,怎么涨两天还不够跌一次,害.希望这个可以帮到自己! "股票数据定向爬虫"实例介绍 功能描述 目标:获取上交所和深交所所有股票的名称和交易信息 输出:保存到文件 ...

  4. python爬取网页上的特定链接_python 用bs4解析网页后,如何循环打开爬取出来的网址链接?...

    请问,用beautiful soup爬取特定网页后提取tag 'a',抓取里面的网址,打开特定的网址,循环特定次数,最后打印出想要的网址,如何操作? 详细的要求如下图: 我的代码如下: import ...

  5. python爬取电影网站存储于数据库_python爬虫 猫眼电影和电影天堂数据csv和mysql存储过程解析...

    字符串常用方法 # 去掉左右空格 'hello world'.strip() # 'hello world' # 按指定字符切割 'hello world'.split(' ') # ['hello' ...

  6. python爬取网页有乱码怎么解决_python - 爬虫获取网站数据,出现乱码怎么解决。...

    问 题 #!/usr/bin/python # -*- coding: utf-8 -*- import urllib2 import re import HTMLParser class WALLS ...

  7. python爬取58同城所有租房信息_python爬虫:找房助手V1.0-爬取58同城租房信息

    #!/usr/bin/python # -*- encoding:utf-8 -*-importrequests frombs4 importBeautifulSoup frommultiproces ...

  8. python爬取boss直聘招聘信息_Python爬虫实战-抓取boss直聘招聘信息

    Python Python开发 Python语言 Python爬虫实战-抓取boss直聘招聘信息 实战内容:爬取boss直聘的岗位信息,存储在数据库,最后通过可视化展示出来 PS注意:很多人学Pyth ...

  9. python从txt拿取数据_python爬虫今日热榜数据到txt文件的源码

    免费资源网 - https://freexyz.cn/ 今日热榜:https://tophub.today/ 爬取数据及保存格式: 爬取后保存为.txt文件: 部分内容: 源码及注释: import ...

  10. python爬取微博热搜写入数据库_python爬虫爬取微博热搜

    [实例简介] [实例截图] [核心代码] import requests                #数据抓取库 from lxml import etree         #数据解析库 imp ...

最新文章

  1. php取数组中连续数,PHP实现求连续子数组最大和问题2种解决方法
  2. 2.逆向分析Hello World!程序-上
  3. Android自定义View的实现方法,带你一步步深入了解View(四)
  4. mysql数据库内置函数大全_MySQL数据库——内置函数
  5. 朴素贝叶斯算法_机器学习第三篇:详解朴素贝叶斯算法
  6. js for循环给object数组赋值
  7. 服务器能否只做c盘系统,我的云服务器只有一个c盘
  8. gridview不显示bit_色彩要求高?这款27寸2K +10.7亿色的显示器工作娱乐都适合
  9. tomcat 热部署、热加载 精析
  10. 线性筛法--------2013年1月2日
  11. python基础篇——集合
  12. nginx+Keeplive高可用集群部署
  13. oracle脱敏脚本
  14. java常量池在哪里_java常量池在哪?有什么用处?
  15. 什么是信用违约互换(信用违约掉期) - 债券市场中最常见的信用衍生品
  16. 解决169x/hao123浏览器劫持问题
  17. ThreadPoolExecutor线程池 —————— 开开开山怪
  18. latex 表格及标题居中
  19. 【21世纪电脑入门】总目录——系统配置、包/库安装、问题修复
  20. golang panic和recover

热门文章

  1. ESP8285 sdkconfig
  2. MySQL分组求和GROUP BY
  3. mysql人脸数据库_人脸数据库汇总
  4. DWG格式怎样转换成DXF、DWF格式呢?
  5. springboot开发微信公众号(一)创建、查询、删除菜单(附源码)
  6. DS18B20引脚 实物引脚 (千万不要接反啊)
  7. vmware 14 激活码
  8. laravel下载文件
  9. php环境搭建phpeclipse
  10. 接口测试用例设计 - 精简版