目录

  • 概述
  • 数据获取
  • 数据预处理和清洗
    • 景点数据
  • 数据分析
    • 景点数据
    • 酒店数据
  • 机器学习
    • 分析
    • 代码实现
  • 总结

概述

新手刚开始学python,自己写了这个例子熟悉一下pandas库和sklearn。

数据获取

我使用的是“后裔采集器”来爬取了携程网上关于全国大概16000条景点数据和美团网上五个城市的大概5000条酒店数据,然后导出为**.csv**表格形式方便用

pandas.read_csv()

来读取其中的数据。

数据预处理和清洗

景点数据

原始数据中,景点数据长这样

由于数据按省份分为三十多个.csv文件,并且其中还有不需要的列,用以下代码来读取(其他省份同样,只列出上海的)

import pandas as pd
上海 = pd.read_csv('上海.csv', engine='python',usecols=['省份', 'spot-info', 'spot-info1', 'spot-info2', '价格', '已售', 'desc', 'spot-comment','spot-label1'])

再将全部数据组合在一起

China_scenic = pd.concat([上海, 云南, 内蒙古, 北京, 台湾, 吉林, 四川, 天津,宁夏, 安徽, 山东, 山西, 广东, 广西, 新疆, 江苏,河北, 河南, 浙江, 海南, 湖北, 湖南, 澳门, 甘肃,福建, 西藏, 贵州, 辽宁, 重庆, 陕西, 青海, 香港, 黑龙江], sort=True,ignore_index=True).reset_index().drop(columns='index')
ignore_index=True reset_index().drop(columns=‘index’)
不按每行索引来组合 重置其索引,再删除掉同时产生的新列“index”

接下来删除那些重复和没有评分的地点。

# 删除重复地点
China_scenic = China_scenic.drop_duplicates(subset='spot-info')
# 删除没有评分的地点
China_scenic = China_scenic[China_scenic['spot-comment'].notnull()]

再将评分转换为好评率,将没有景区等级的景点标为无等级

def grade_change(i):i = i.replace('分', '')return float(i) / 5
# 将评分转换为好评率
China_scenic['spot-comment'] = China_scenic['spot-comment'].apply(grade_change)
# 将没有景区等级的景区标为无等级
China_scenic['spot-info2'] = China_scenic['spot-info2'].fillna('无等级')
.apply .fillna
应用函数 填充空值

由于有许多景点是不需要购票进入的,这里再将所有景点分成两部分以便之后的操作

# 选取免费景点
China_scenic_free = China_scenic[China_scenic['价格'].isna()].reset_index().drop(columns='index')
# 选取收费景点
China_scenic_charge = China_scenic[China_scenic['价格'].notnull()].reset_index().drop(columns='index')

接下来把消费景点的销售量转换为具体数值,把免费景点的销售量和价格这两列删除

def sold_change(i):if '万+' in i:i = i.replace('.', '')i = i.replace('万+', '000')return int(i)else:return int(i)# 将已售数据转换为整形
China_scenic_charge['已售'] = China_scenic_charge['已售'].apply(sold_change)
# 删除两列
China_scenic_free = China_scenic_free.drop(columns='已售').drop(columns='价格')

酒店数据

酒店数据,这里仅仅爬取了我选取的五个城市的酒店数据(为了机器学习的例子仅选了五个城市)
大概长这样

接下来读取数据,并且把价格转换为具体数值,把销量转换为具体数值(对每个城市的操作都相同,只展示一个城市的操作)

def price_change(i):i = i.replace('起', '')return int(i)def sold_change(i):if '+消费' in i:i = i.replace('+消费', '')return int(i)else:i = i.replace('消费', '')return int(i)Zhangjiajie_Hotel = pd.read_csv('张家界酒店.csv',engine='python',usecols=['标题', 'poi-address', 'poi-type', 'poi-price', 'poi-buy-num', 'service-icons1','service-icons3', 'service-icons5']).dropna()Zhangjiajie_Hotel['地址'] = '张家界'
Zhangjiajie_Hotel['poi-price'] = Changsha_Hotel['poi-price'].apply(price_change)
Zhangjiajie_Hotel['poi-buy-num'] = Changsha_Hotel['poi-buy-num'].apply(sold_change)

数据分析

景点数据

# 景区等级评价
scenic_level_comment = China_scenic.groupby('spot-info2').mean().sort_values('spot-comment', ascending=False)# # 收费景点
# 销量前五十的景点
China_scenic_50 = China_scenic_charge.sort_values('已售', ascending=False).head(50).reset_index().drop(columns='index')
# 平均门票最贵的省份
China_scenic_exp = China_scenic_charge.groupby('省份').mean().sort_values('价格', ascending=False)['价格']
# 最受欢迎的省份
Hot_province = China_scenic_charge.groupby('省份').sum().sort_values('已售', ascending=False)['已售']
# 最受欢迎的付费景点类型
Hot_kind_charge = China_scenic_charge.groupby('spot-label1').mean().sort_values('已售', ascending=False).head(10)['已售']# # 免费景点
China_scenic_free = China_scenic_free.drop(columns='已售').drop(columns='价格')
# 评分最高的五十个免费景点
free_scenic_50 = China_scenic_free.sort_values('spot-comment', ascending=False).head(50)
# 评分最高的的免费景点类型
Hot_kind_free = China_scenic_free.groupby(['spot-label1']).mean().sort_values('spot-comment', ascending=False).head(15)

再将这些分析出的数据用.to_csv()导出,用PPT画图(自己的数据可视化做得很丑。。。。)




酒店数据

将五个城市酒店数据组合,再进行分析如下

All_Hotel = pd.concat([Changsha_Hotel,Zhangjiajie_Hotel,Hangzhou_Hotel,Suzhou_Hotel,Changzhou_Hotel],axis=0, sort=False).dropna().reset_index().drop(columns='index')
kind_price = All_Hotel.groupby(['地址', 'poi-type']).mean()['poi-price']

把‘kind_price’导出画图

机器学习

分析

假设去某个景点旅游,需要考虑出行方式、酒店住宿、门票价格等因素,由此可以大概计算出一个数值来表示该趟旅游“值不值 ”(爬取到的数据中,关于免费景点只有评分一条可以评定其价值,不太具有真实意义,所以不取免费景点)
从景点数据随机选取一个,酒店数据随机选取一个,出行方式随机选取一种。(由此来组合成一行,模拟成一个人选择某种方式去了某地游玩了某个景点又选择了某个酒店)
由于数据的不完整,所以这里主要从“钱花得最少,去的景点评分最高”这样的角度来判断“值不值”。
“值不值”的恒定标准为:

代数 意义
comment 景点评分
hotel 酒店花费
traffic 出行花费
scenic 景点花费

PS:这里本应该每个值附上自己的权重,由于时间关系,我仅将他们(0,1)规格化了,这样就是1:1:1:1的关系,以后有时间在调整其权重问题。

再由Score值来分类:

score值 标签 赋值
小于下四分位点 血亏 0
下四分位点与中点间 小亏 1
上四分位点与中点间 一般 2
大于上四分位点 很值 3

代码实现

先从全国景点数据中,找到五个例子城市的景点数据。
(方法五个都一样,这里只展示以张家界为例)

def find_zhangjiajie(i):if '张家界' in i:return Trueelse:return Falsezhangjiajie_scenic = China_scenic_charge[China_scenic_charge['spot-info1'].apply(find_zhangjiajie)].reset_index().drop(columns='index')

导出后画图如下

接下来是获取出行数据,由于机票价格波动太大,并且某些城市还没有普火,这里主要是取平均值,zhangjiajie_traffic数据大概这个样子

现在,对于张家界的景点、出行、酒店数据已经准备完毕
左右拼接在一起,创建随机数据集 zhangjiajie_travel

def price_02(i):i = (i - zhangjiajie_travel['价格'].min()) / (zhangjiajie_travel['价格'].max() - zhangjiajie_travel['价格'].min())return idef comment_02(i):i = (i - zhangjiajie_travel['spot-comment'].min()) / (zhangjiajie_travel['spot-comment'].max() - zhangjiajie_travel['spot-comment'].min())return idef hotel_02(i):i = (i - zhangjiajie_travel['poi-price'].min()) / (zhangjiajie_travel['poi-price'].max() - zhangjiajie_travel['poi-price'].min())return idef traffic_02(i):i = (i - zhangjiajie_travel['出行价格'].min()) / (zhangjiajie_travel['出行价格'].max() - zhangjiajie_travel['出行价格'].min())return i# 每个表随机采样一万行
zhangjiajie_scenic_test = zhangjiajie_scenic.sample(n=10000, axis=0, random_state=1, replace=True).reset_index().drop(columns='index')
zhangjiajie_hotel_test = zhangjiajie_hotel.sample(n=10000, axis=0, random_state=1, replace=True).reset_index().drop(columns='index')
zhangjiajie_traffic_test = zhangjiajie_traffic.sample(n=10000, axis=0, random_state=1, replace=True).reset_index().drop(columns='index')
# 合在一起成为张家界的“假旅游数据集”
zhangjiajie_travel = pd.concat([zhangjiajie_scenic_test, zhangjiajie_hotel_test, zhangjiajie_traffic_test],sort=False, axis=1).drop(columns='Unnamed: 0')

重点:把五个城市的测试数据集建立完毕后,上下拼接在一起成为总的数据集(五万条),再将Score值算出,并对其打上标签

import pandas as pd
import numpy as npdef Score_change(i):if i <= np.percentile(lfw_Happy_travel['Score'], (25)):return 0elif i >= np.percentile(lfw_Happy_travel['Score'], (25)) and i <= np.percentile(lfw_Happy_travel['Score'], (50)):return 1elif i >= np.percentile(lfw_Happy_travel['Score'], (50)) and i <= np.percentile(lfw_Happy_travel['Score'], (75)):return 2elif i >= np.percentile(lfw_Happy_travel['Score'], (75)):return 3lfw_Happy_travel = pd.concat([changsha_travel,zhangjiajie_travel,suzhou_travel,hangzhou_travel,changzhou_travel],axis=0, sort=False).dropna()lfw_Happy_travel['Score'] = lfw_Happy_travel['spot-comment'] / (lfw_Happy_travel['价格'] * lfw_Happy_travel['poi-price'] * lfw_Happy_travel['出行价格'])
lfw_Happy_travel['Score'] = lfw_Happy_travel['Score'].apply(Score_change)

最后,利用SVM支持向量机来对整个数据集进行评分,以总花费和景点评分作为属性,Score值作为标签

from sklearn import model_selection
from sklearn import svmlfw_Happy_travel_num = pd.DataFrame({'景点评分': lfw_Happy_travel['spot-comment'],'花费': lfw_Happy_travel['cost'],'Score': lfw_Happy_travel['Score']})x = lfw_Happy_travel_num.iloc[:, 0:2].values.tolist()
y = lfw_Happy_travel_num.iloc[:, -1].tolist()x_train, x_test, y_train, y_test = model_selection.train_test_split(x, y, random_state=1, test_size=0.3)
clf = svm.SVC(C=0.1, kernel='linear', decision_function_shape='ovr')
# clf = svm.SVC(kernel='rbf', gamma=0.1, decision_function_shape='ovo', C=0.8)
clf.fit(x_train, y_train)
print("SVM-输出训练集的准确率为:", clf.score(x_train, y_train))
print("SVM-输出测试集的准确率为:", clf.score(x_test, y_test))

这里我选择的核函数为线性核和高斯核,还在调参研究哪个准确率更高…

总结

附上其他四个城市的景点图




其实去哪里玩得值不值还得看个人啦,喜欢去哪玩就去哪旅游,这里只是做一个数据分析来熟悉一下Pandas和sklearn的使用

利用Python的全国旅游景点数据分析案例(新手)相关推荐

  1. python酒店数据分析_Python数据分析 I 全国旅游景点分析案例,哪里好玩一目了然...

    原标题:Python数据分析 I 全国旅游景点分析案例,哪里好玩一目了然 前言 文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理. 作 ...

  2. python groupby 不保留源index、_Python数据分析 I 全国旅游景点分析案例,哪里好玩一目了然...

    前言 文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理. 作者: 刘亦菲的老公 源自:https://blog.csdn.net/qq ...

  3. 基于python的旅游系统_Python数据分析 I 全国旅游景点分析案例,哪里好玩一目了然...

    前言 文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理. 作者: 刘亦菲的老公 PS:如有需要Python学习资料的小伙伴可以加点击下 ...

  4. Python数据分析 I 全国旅游景点分析案例,哪里好玩一目了然

    前言 文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理. 作者: 刘亦菲的老公 PS:如有需要Python学习资料的小伙伴可以加点击下 ...

  5. 【大数据分析毕设之基于python爬虫的旅游大数据分析可视化系统】

    [大数据分析毕设之基于python爬虫的旅游大数据分析可视化系统-哔哩哔哩] https://b23.tv/z2OUTkp flask web框架,数据使用selenium模块爬取携程网获取数据,使用 ...

  6. 【python】数据分析实战:分析全国旅游景点数据,暑假还不知道去哪玩的看过来

    前言 暑假是学生老师们拥有的最长假期,这么长的假期,光待在家里太浪费了,何不选择一个好去处,欣赏欣赏夏季的美景?当然,并不是所有地方都适合这个时节去的,那么,暑假适合去国内那些地方旅游呢?现在我们学习 ...

  7. Python抓取全国旅游景点以及小吃数据,想做旅游攻略?Python助你事半功倍。

    前言 疫情自从来了之后已经很久没有出去旅游过了,蹭着这段疫情好转,那肯定是要出去走一走的,这一篇其实是全国旅游中的一站,因为每个城市能玩的地方太多了,一篇文章下来肯定是写不了的,所以今天就抓取一下-- ...

  8. 用Python分析国庆旅游景点,告诉你哪些地方好玩、便宜、人又少

    点击上方"码农进阶之路",选择"设为星标" 回复"面经"获取面试资料 2019年国庆马上就要到来 猪哥今年想着来点新花样吧 玩肯定是要去玩的 ...

  9. 基于PYTHON django四川旅游景点推荐系统

    摘 要 基于四川旅游景点推荐系统的设计与实现是一个专为四川旅游景点为用户打造的旅游网站.该课题基于网站比较流行的Python 语言系统架构,B/S三层结构模式,通过Maven项目管理工具进行Jar包版 ...

最新文章

  1. computed set 自定义参数_完全理解Vue的渲染watcher、computed和user watcher
  2. 微服务架构之「 API网关 」
  3. 【CF应用开发大赛】微博社交简历
  4. 伍哥原创之安装nginx,mysql,php-fpm,redis
  5. 使用tab键分割的文章能快速转换成表格。( )_word排版技巧:活用Enter键提高工作效率...
  6. stm32机器学习_STM32机器学习开发实战
  7. OpenVINO安装之安装openCL
  8. 基础野:细说原码、反码和补码
  9. C++ lower_bound和upper_bound的区别
  10. mysql数据库集群备份策略_mysql高可用方案之集群(cluster)
  11. 怎么把外部参照合并到图纸_CAD图纸中插入的参照底图如何使用
  12. selenium使用浏览器隐私模式加载网站
  13. python数据库操作——NoSQL数据库之连接MongoDB、Redis数据库
  14. router中获取vuex_JS每日一题: 什么情况下适合使合vuex?Vuex使用中有几个步骤?...
  15. 2021东华杯misc详解
  16. HTML5 video 视频标签使用介绍
  17. CQI原理及CQI指标优化
  18. Binder 机制详解—Binder Java框架(转自Cloud Chou's Tech Blog)
  19. Ouroboros for Mac(AE路径生长MG动画脚本)
  20. 202007 软件市场分析

热门文章

  1. 目标检测中的NMS,soft NMS,softer NMS,Weighted Boxes Fusion
  2. 图像系列:Bitmap: Bitmap内存优化
  3. 九大PPT制作伴侣【神器】
  4. 学计算机电脑屏幕小可以吗,电脑显示器大小怎么调整
  5. 尔宾团队角色(Belbin Team Roles),亦被称为贝尔宾团队角色表(Belbin Team Inventory)
  6. BZOJ1616: [Usaco2008 Mar]Cow Travelling游荡的奶牛
  7. python中的下划线_讲解
  8. 九月四号《算法笔记》学习
  9. npoi获取合并单元格_梦琪小生 C# 如何使用NPOI操作Excel以及读取合并单元格等
  10. iOS开发——Siri语音识别