前言

文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。

作者: 刘亦菲的老公

PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取

数据获取

爬取了携程网上关于全国大概16000条景点数据和美团网上五个城市的大概5000条酒店数据,然后导出为.csv表格形式方便用

pandas.read_csv()

来读取其中的数据。

数据预处理和清洗

景点数据

原始数据中,景点数据长这样

由于数据按省份分为三十多个.csv文件,并且其中还有不需要的列,用以下代码来读取(其他省份同样,只列出上海的)

import pandas as pd

上海 = pd.read_csv('上海.csv', engine='python',

usecols=['省份', 'spot-info', 'spot-info1', 'spot-info2', '价格', '已售', 'desc', 'spot-comment',

'spot-label1'])

再将全部数据组合在一起

China_scenic = pd.concat([上海, 云南, 内蒙古, 北京, 台湾, 吉林, 四川, 天津,

宁夏, 安徽, 山东, 山西, 广东, 广西, 新疆, 江苏,

河北, 河南, 浙江, 海南, 湖北, 湖南, 澳门, 甘肃,

福建, 西藏, 贵州, 辽宁, 重庆, 陕西, 青海, 香港, 黑龙江], sort=True,

ignore_index=True).reset_index().drop(columns='index')

接下来删除那些重复和没有评分的地点。

# 删除重复地点

China_scenic = China_scenic.drop_duplicates(subset='spot-info')

# 删除没有评分的地点

China_scenic = China_scenic[China_scenic['spot-comment'].notnull()]

再将评分转换为好评率,将没有景区等级的景点标为无等级

def grade_change(i):

i = i.replace('分', '')

return float(i) / 5

# 将评分转换为好评率

China_scenic['spot-comment'] = China_scenic['spot-comment'].apply(grade_change)

# 将没有景区等级的景区标为无等级

China_scenic['spot-info2'] = China_scenic['spot-info2'].fillna('无等级')

由于有许多景点是不需要购票进入的,这里再将所有景点分成两部分以便之后的操作

# 选取免费景点

China_scenic_free = China_scenic[China_scenic['价格'].isna()].reset_index().drop(columns='index')

# 选取收费景点

China_scenic_charge = China_scenic[China_scenic['价格'].notnull()].reset_index().drop(columns='index')

接下来把消费景点的销售量转换为具体数值,把免费景点的销售量和价格这两列删除

def sold_change(i):

if '万+' in i:

i = i.replace('.', '')

i = i.replace('万+', '000')

return int(i)

else:

return int(i)

# 将已售数据转换为整形

China_scenic_charge['已售'] = China_scenic_charge['已售'].apply(sold_change)

# 删除两列

China_scenic_free = China_scenic_free.drop(columns='已售').drop(columns='价格')

酒店数据

酒店数据,这里仅仅爬取了我选取的五个城市的酒店数据(为了机器学习的例子仅选了五个城市)

接下来读取数据,并且把价格转换为具体数值,把销量转换为具体数值(对每个城市的操作都相同,只展示一个城市的操作)

def price_change(i):

i = i.replace('起', '')

return int(i)

def sold_change(i):

if '+消费' in i:

i = i.replace('+消费', '')

return int(i)

else:

i = i.replace('消费', '')

return int(i)

Zhangjiajie_Hotel = pd.read_csv('张家界酒店.csv',

engine='python',

usecols=['标题', 'poi-address', 'poi-type', 'poi-price', 'poi-buy-num', 'service-icons1','service-icons3', 'service-icons5']).dropna()

Zhangjiajie_Hotel['地址'] = '张家界'

Zhangjiajie_Hotel['poi-price'] = Changsha_Hotel['poi-price'].apply(price_change)

Zhangjiajie_Hotel['poi-buy-num'] = Changsha_Hotel['poi-buy-num'].apply(sold_change)

数据分析

景点数据

# 景区等级评价

scenic_level_comment = China_scenic.groupby('spot-info2').mean().sort_values('spot-comment', ascending=False)

# # 收费景点

# 销量前五十的景点

China_scenic_50 = China_scenic_charge.sort_values('已售', ascending=False).head(50).reset_index().drop(columns='index')

# 平均门票最贵的省份

China_scenic_exp = China_scenic_charge.groupby('省份').mean().sort_values('价格', ascending=False)['价格']

# 最受欢迎的省份

Hot_province = China_scenic_charge.groupby('省份').sum().sort_values('已售', ascending=False)['已售']

# 最受欢迎的付费景点类型

Hot_kind_charge = China_scenic_charge.groupby('spot-label1').mean().sort_values('已售', ascending=False).head(10)['已售']

# # 免费景点

China_scenic_free = China_scenic_free.drop(columns='已售').drop(columns='价格')

# 评分最高的五十个免费景点

free_scenic_50 = China_scenic_free.sort_values('spot-comment', ascending=False).head(50)

# 评分最高的的免费景点类型

Hot_kind_free = China_scenic_free.groupby(['spot-label1']).mean().sort_values('spot-comment', ascending=False).head(15)

再将这些分析出的数据用.to_csv()导出,用PPT画图(自己的数据可视化做得很丑。。。。) 。。。)

酒店数据

将五个城市酒店数据组合,再进行分析如下

All_Hotel = pd.concat([Changsha_Hotel,

Zhangjiajie_Hotel,

Hangzhou_Hotel,

Suzhou_Hotel,

Changzhou_Hotel],

axis=0, sort=False).dropna().reset_index().drop(columns='index')

kind_price = All_Hotel.groupby(['地址', 'poi-type']).mean()['poi-price']

把‘kind_price’导出画图

机器学习

假设去某个景点旅游,需要考虑出行方式、酒店住宿、门票价格等因素,由此可以大概计算出一个数值来表示该趟旅游“值不值 ”(爬取到的数据中,关于免费景点只有评分一条可以评定其价值,不太具有真实意义,所以不取免费景点)

从景点数据随机选取一个,酒店数据随机选取一个,出行方式随机选取一种。(由此来组合成一行,模拟成一个人选择某种方式去了某地游玩了某个景点又选择了某个酒店)

由于数据的不完整,所以这里主要从“钱花得最少,去的景点评分最高”这样的角度来判断“值不值”。

“值不值”的恒定标准为:

代数 意义

PS:这里本应该每个值附上自己的权重,由于时间关系,我仅将他们(0,1)规格化了,这样就是1:1:1:1的关系,以后有时间在调整其权重问题。

再由Score值来分类:

代码实现

先从全国景点数据中,找到五个例子城市的景点数据。 (方法五个都一样,这里只展示以张家界为例)

def find_zhangjiajie(i):

if '张家界' in i:

return True

else:

return False

zhangjiajie_scenic = China_scenic_charge[China_scenic_charge['spot-info1'].apply(find_zhangjiajie)].reset_index().drop(columns='index')

导出后画图如下

接下来是获取出行数据,由于机票价格波动太大,并且某些城市还没有普火,这里主要是取平均值,zhangjiajie_traffic数据大概这个样子

现在,对于张家界的景点、出行、酒店数据已经准备完毕 左右拼接在一起,创建随机数据集 zhangjiajie_travel:

def price_02(i):

i = (i - zhangjiajie_travel['价格'].min()) / (zhangjiajie_travel['价格'].max() - zhangjiajie_travel['价格'].min())

return i

def comment_02(i):

i = (i - zhangjiajie_travel['spot-comment'].min()) / (

zhangjiajie_travel['spot-comment'].max() - zhangjiajie_travel['spot-comment'].min())

return i

def hotel_02(i):

i = (i - zhangjiajie_travel['poi-price'].min()) / (

zhangjiajie_travel['poi-price'].max() - zhangjiajie_travel['poi-price'].min())

return i

def traffic_02(i):

i = (i - zhangjiajie_travel['出行价格'].min()) / (zhangjiajie_travel['出行价格'].max() - zhangjiajie_travel['出行价格'].min())

return i

# 每个表随机采样一万行

zhangjiajie_scenic_test = zhangjiajie_scenic.sample(n=10000, axis=0, random_state=1, replace=True).reset_index().drop(

columns='index')

zhangjiajie_hotel_test = zhangjiajie_hotel.sample(n=10000, axis=0, random_state=1, replace=True).reset_index().drop(

columns='index')

zhangjiajie_traffic_test = zhangjiajie_traffic.sample(n=10000, axis=0, random_state=1, replace=True).reset_index().drop(

columns='index')

# 合在一起成为张家界的“假旅游数据集”

zhangjiajie_travel = pd.concat([zhangjiajie_scenic_test, zhangjiajie_hotel_test, zhangjiajie_traffic_test],

sort=False, axis=1).drop(columns='Unnamed: 0')

重点:把五个城市的测试数据集建立完毕后,上下拼接在一起成为总的数据集(五万条),再将Score值算出,并对其打上标签

import pandas as pd

import numpy as np

def Score_change(i):

if i <= np.percentile(lfw_Happy_travel['Score'], (25)):

return 0

elif i >= np.percentile(lfw_Happy_travel['Score'], (25)) and i <= np.percentile(lfw_Happy_travel['Score'], (50)):

return 1

elif i >= np.percentile(lfw_Happy_travel['Score'], (50)) and i <= np.percentile(lfw_Happy_travel['Score'], (75)):

return 2

elif i >= np.percentile(lfw_Happy_travel['Score'], (75)):

return 3

lfw_Happy_travel = pd.concat([changsha_travel,

zhangjiajie_travel,

suzhou_travel,

hangzhou_travel,

changzhou_travel],

axis=0, sort=False).dropna()

lfw_Happy_travel['Score'] = lfw_Happy_travel['spot-comment'] / (lfw_Happy_travel['价格'] * lfw_Happy_travel['poi-price'] * lfw_Happy_travel['出行价格'])

lfw_Happy_travel['Score'] = lfw_Happy_travel['Score'].apply(Score_change)

最后,利用SVM支持向量机来对整个数据集进行评分,以总花费和景点评分作为属性,Score值作为标签

from sklearn import model_selection

from sklearn import svm

lfw_Happy_travel_num = pd.DataFrame(

{'景点评分': lfw_Happy_travel['spot-comment'],

'花费': lfw_Happy_travel['cost'],

'Score': lfw_Happy_travel['Score']

})

x = lfw_Happy_travel_num.iloc[:, 0:2].values.tolist()

y = lfw_Happy_travel_num.iloc[:, -1].tolist()

x_train, x_test, y_train, y_test = model_selection.train_test_split(x, y, random_state=1, test_size=0.3)

clf = svm.SVC(C=0.1, kernel='linear', decision_function_shape='ovr')

# clf = svm.SVC(kernel='rbf', gamma=0.1, decision_function_shape='ovo', C=0.8)

clf.fit(x_train, y_train)

print("SVM-输出训练集的准确率为:", clf.score(x_train, y_train))

print("SVM-输出测试集的准确率为:", clf.score(x_test, y_test))

这里我选择的核函数为线性核和高斯核,还在调参研究哪个准确率更高…

总结

附上其他四个城市的景点图

其实去哪里玩得值不值还得看个人啦,喜欢去哪玩就去哪旅游,这里只是做一个数据分析来熟悉一下Pandas和sklearn的使用

基于python的旅游系统_Python数据分析 I 全国旅游景点分析案例,哪里好玩一目了然...相关推荐

  1. python酒店数据分析_Python数据分析 I 全国旅游景点分析案例,哪里好玩一目了然...

    原标题:Python数据分析 I 全国旅游景点分析案例,哪里好玩一目了然 前言 文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理. 作 ...

  2. python groupby 不保留源index、_Python数据分析 I 全国旅游景点分析案例,哪里好玩一目了然...

    前言 文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理. 作者: 刘亦菲的老公 源自:https://blog.csdn.net/qq ...

  3. 做一个python的旅游系统_我把全国旅游数据用Python爬下来后发现,这个地方才是真正的旅游胜地...

    前言: Python对于本人来讲也是一个在逐渐学习掌握的过程,这次的内容就从旅游开始讲起,进入正文前首先附(fang)上(du)最令我垂涎欲滴的海鲜盛宴. 数据爬取: 最近几天朋友圈被大家的旅行足迹刷 ...

  4. 数据分析之全国热门景点分析

    前言 暑假景区人山人海,许多人都不知道应该去哪里旅游.而小编最近也刚好想分析下热门景点的人数分布情况.从而来为自己的景区出行给出一些建议. 数据爬取 此次数据爬取我们选择了去哪儿网站热门景点地理位置, ...

  5. 【大数据分析专业毕设之基于python的手机销售大数据分析可视化系统】

    [大数据分析专业毕设之基于python的手机销售大数据分析可视化系统] https://b23.tv/FKuPbsv flask web框架,数据使用requests模块爬取https://www.j ...

  6. 基于Python实现的微信好友数据分析——抓取好友性别、位置、头像签名

    最近微信迎来了一次重要的更新,允许用户对"发现"页面进行定制.不知道从什么时候开始,微信朋友圈变得越来越复杂,当越来越多的人选择"仅展示最近三天的朋友圈",大概 ...

  7. python是商业组织吗_基于Python的电子商务系统的弹性架构与思考

    DOI:10. 19392 / j. cnki. 1671-7341. 201815075 基于 Python 的电子商务系统的弹性架构与思考 谢钟扬 湖南软件职业学院 湖南湘潭 411100 摘 要 ...

  8. 基于Python的汽车销售系统的设计和实现

    <基于Python的汽车销售系统的设计和实现>该项目采用技术Python的django框架.mysql数据库,项目含有源码.论文.PPT.配套开发软件.软件安装教程.项目发布教程.核心代码 ...

  9. python爬虫可视化web展示_基于Python爬虫的职位信息数据分析和可视化系统实现

    1. 引言 在这个新时代,人们根据现有的职位信息数据分析系统得到的职位信息越来越碎片化,面对收集到的大量的职位信息数据难以迅速地筛选出对自己最有帮助的职位信息,又或者筛选出信息后不能直观地看到数据的特 ...

最新文章

  1. RequireJs的使用和快速理解
  2. ios 折线图_《解神者》ios和安卓互通吗 ios和安卓互通分析
  3. Java高并发之锁优化
  4. XML解析的三种方式(dom,sax,dom4j)
  5. [Turn]C# 强制关闭当前程序进程(完全Kill掉不留痕迹)
  6. open with code 报错没有项目_Python开发:解决Ubuntu安装tesserocr报错
  7. SQL2008附加数据库只读怎么修改
  8. spring helloworld
  9. 【编程】概念的理解 —— socket
  10. tt c mysql t4 bll_通过T4模板实现代码自动生成
  11. 优美的js代码,拿去玩~
  12. UItextInput-Protocol
  13. 一脸懵逼学习Hive的使用以及常用语法(Hive语法即Hql语法)
  14. 暴力解决配置HTTPS后无法使用Hermit
  15. 2019年全国河流水系
  16. 关于Android studio在ubuntu中真机测试运行出现Gradle build daemon disappeared unexpectedly的一个原因及解决办法
  17. 060 steam挂卡
  18. 如何快速提升自己的Java 技术?
  19. Python-直线检测-提取邮票编码
  20. JSD-2204-RESTful-Service-SpringMVC-Day06

热门文章

  1. 2021-05-28 新唐M051芯片--串口0,定时器
  2. 计算机控制技术实验报告pid,东南大学计算机控制技术实验报告二.docx
  3. 公司的工作流程,以及作为测试人员的介入时机
  4. 微软开始善后 发布补丁告别Win10免费升级
  5. flutter-架构项目-getx-快速案例分分钟实现MVC架构-新闻案例
  6. Navicat导出导入sql文件慢
  7. 人类使用AI征服太空技术盘点,《星球大战》中的机器人会成为现实吗?
  8. java 屏幕识别_java原生实现屏幕设备遍历和屏幕采集(捕获)等功能
  9. 通达OA-今日学习:电子签章是怎么回事?
  10. 小米6 WiFi验证门户中的RCE漏洞