Facebook V Results: Predicting Check Ins 是Facebook在Kaggle上的一个机器学习工程竞赛数据集。

K-近邻实战分析

  • 1. 数据集介绍及下载
  • 2. 代码分析
  • 3.总结

1. 数据集介绍及下载

这项比赛的目的是预测一个人想签到哪个地方。为了实现这一目的,Facebook创建了一个人工世界,由10公里乘10公里的正方形中的100,000多个地方组成。对于给定的一组坐标,程序员的任务是返回最可能的位置的排名列表。数据经过伪造,类似于来自移动设备的位置信号,使您有一种处理真实数据(复杂的数值和嘈杂的值)所需的风味。不一致和错误的位置数据可能会破坏Facebook Check In等服务的体验。
训练和测试数据集是根据时间划分的,测试数据中的公共/私人排行榜是随机划分的。 此数据集中没有人的概念。 所有row_id都是事件,而不是人员。

数据特征
row_id: id of the check-in event 标记事件的id
x y: coordinates 用户的位置
accuracy: location accuracy 定位准确性
time: timestamp
place_id: id of the business, this is the target you are predicting

数据集下载:百度网盘
提取码:4h5k

2. 代码分析

首先我们导入本次实战所要用到的库

import pandas as pd
from sklearn.neighbors import KNeighborsClassifier
from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import train_test_split

我使用pandas来进行数据的写入,由于数据是以csv的格式存放的。所以我采用了pandas.read_csv函数来进行写入操作。

# 读取数据
data = pd.read_csv("./train.csv/train.csv")

第一次输入数据时,需要对数据进行处理以提高最后模型的预测的准确率。
由于时间是以时间戳的格式输入的,所以我们将时间转换为年月日的格式方便后续计算。并将日、时、周作为特征值构造新的特征。

# 处理数据
# 1.缩小数据
data = data.query('x>1.0 & x<1.25 & y>2.5 & y<2.75')
# 2.转换时间戳为年月日格式
time_value = pd.to_datetime(data['time'],unit='s')
# 把日期格式转换为字典数据
time_value = pd.DatetimeIndex(time_value)
# 3.构造特征
data['day'] = time_value.day
data['hour'] = time_value.hour
data['weekday'] = time_value.weekday

由于很多地方签到的数量都很少,删除一些签到数量很少的地方可以减少计算负荷,加快效率。

# 4.把签到数量少于n个的目标位置删除
place_count = data.groupby('place_id').count()
tf = place_count[place_count.row_id>3].reset_index()
data = data[data['place_id'].isin(tf.place_id)]
# 5.删除无用的特征
data = data.drop(['row_id', 'time','accuracy'], axis=1)

这时,我们将处理好的数据输出可以看到,此时的数据是:

               x       y    place_id  day  hour  weekday
600       1.2214  2.7023  6683426742    1    18        3
957       1.1832  2.6891  6683426742   10     2        5
4345      1.1935  2.6550  6889790653    5    15        0
4735      1.1452  2.6074  6822359752    6    23        1
5580      1.0089  2.7287  1527921905    9    11        4
...          ...     ...         ...  ...   ...      ...
29100203  1.0129  2.6775  3312463746    1    10        3
29108443  1.1474  2.6840  3533177779    7    23        2
29109993  1.0240  2.7238  6424972551    8    15        3
29111539  1.2032  2.6796  3533177779    4     0        6
29112154  1.1070  2.5419  4932578245    8    23        3[16918 rows x 6 columns]

这时,我们要在特征的层面上对数据进一步处理,也就是做特征工程。
K-近邻算法一定要做特征标准化处理,因为K-NN算法在计算时是采用欧氏距离来测量每一个点之间在特征空间的距离。要采用标准化来降低某几个大特征对最后结果的影响。

# 特征工程(标准化)
std = StandardScaler()
# 对训练集和测试集的特征值进行标注化
x_train = std.fit_transform(x_train)
x_test = std.transform(x_test)

特征工程处理完后,在进行算法建模之前,我们要将数据分割为数据集和测试集。来进行模型评估。

# 数据分割
y = data['place_id']    # 获取数据的标签
x = data.drop(['place_id'],axis=1)  # 获取数据的特征值
x_train,x_test,y_train,y_test = train_test_split(x,y,test_size=0.25)

最后使用K-NN算法来建立模型,进行预测。

# KNN算法
knn = KNeighborsClassifier(n_neighbors=5)
# 输入数据拟合模型
knn.fit(x_train,y_train)
# 得到预测结果
y_predict = knn.predict(x_test)
# 得出准确率
print("准确率: ",knn.score(x_test,y_test))

最后,我们得到的准确率为:

准确率:  0.4949408983451537

3.总结

K-NN算法非常简单,但是K-NN算法的性能有一定的局限。当计算一个点时,要计算该点与特征空间其他所有点的距离才能找到几个距离最近的点,所以K-NN算法的时间复杂度是非常大的。
虽然我们还可以通过一些调参的手段又优化模型,提高准确率。但那都是治标不治本。在Kaggle上,榜单前十的大神选手的准确率也不过60-62这个程度,再难得以提升。

【K-近邻】K-NN 实战分析 Facebook V Results: Predicting Check Ins相关推荐

  1. python人工智能——机器学习——分类算法-k近邻算法——kaggle案例: Facebook V: Predicting Check Ins

    题目及翻译 Facebook and Kaggle are launching a machine learning engineering competition for 2016. Faceboo ...

  2. K近邻分类算法实战教程

    K近邻(K-Nearest Neighbor ,简称KNN ) 是有监督非线性.非参数分类算法,非参数表示对数据集及其分布没有任何假设.它是最简单.最常用的分类算法之一,广泛应用于金融.医疗等领域. ...

  3. kaggle: Facebook V Predicting Check Ins

    数据抽样 将数据分成块(chunk),便于最近邻计算 特征工程(430) k=2500,选取前100个候选地点 与坐标有关的特征 XGboost特征:(记录最近邻点的地点分布情况) 最近邻(10个): ...

  4. Python实现KNN(K近邻)回归模型(KNeighborsRegressor算法)并应用网格搜索算法寻找最优参数值项目实战

    说明:这是一个机器学习实战项目(附带数据+代码+文档+视频讲解),如需数据+代码+文档+视频讲解可以直接到文章最后获取. 1.项目背景 K近邻算法回归模型则将离待预测样本点最近的K个训练样本点的平均值 ...

  5. 机器学习路程——k近邻(KNN)算法(python实现)

    使用python库sklearn,pandas 数据来源:kaggle Facebook V: Predicting Check Ins 数据网址:https://www.kaggle.com/c/f ...

  6. 机器学习——分类算法之K近邻+朴素贝叶斯,模型选择与调优

    目录 K-近邻算法 定义 如何求距离? 数据预处理--标准化 sklearn k-近邻算法API 案例--预测入住位置 分类问题 数据处理 k近邻算法相关问题 k值取多大?有什么影响? 优缺点 应用场 ...

  7. K近邻算法应用——价格预测

    一.构造数据 #根据rating和age评估价格 def wineprice(rating,age):peak_age=rating-50price=rating/2if age>peak_ag ...

  8. MATLAB计算K近邻

    在实验中经常会需要计算K近邻,为了避免多次重写,这里用MATLAB实现了一个计算K近邻的函数,该函数要求输入两个参数,第一个参数就是数据矩阵,要求每行为一个多维样本点,第二个参数就是K值了.函数返回K ...

  9. k近邻和k-means

    k近邻和k-means,听名称很相似,很容易张冠李戴.其实它们的全名为K近邻分类算法(k-Neighbour,KNN)和K均值聚类算法(K-means clustering algorithm). k ...

  10. 【白话机器学习】算法理论+实战之K近邻算法

    作者1. 写在前面 如果想从事数据挖掘或者机器学习的工作,掌握常用的机器学习算法是非常有必要的,在这简单的先捋一捋, 常见的机器学习算法: 监督学习算法:逻辑回归,线性回归,决策树,朴素贝叶斯,K近邻 ...

最新文章

  1. 程序终于实现跨机器运行——记VC++2005程序开发的一个常见问题
  2. python如何做散点图-Python-如何为散点图制作动画?
  3. ip中继对接_鼎信通达MTG系列-语音中继网关,可和VOS,IPPBX,SIP网关进行对接
  4. android view知识点 总结
  5. MySQL高级 - SQL优化 - group by 优化
  6. cfa英语不好的怎么学_英语不好,如何备考CFA?
  7. 《Python爬虫开发与项目实战》——第3章 初识网络爬虫 3.1 网络爬虫概述
  8. 2021年中国药店创新趋势报告
  9. vscode beautify sass 格式化_最强编辑器 VSCode 系列之插件推荐【不定期更新】
  10. android添加快捷按钮,Android中创建快捷方式代码实例
  11. ubuntu 下eclipse 启动时出现An error has occurred. See the log file的问题
  12. 华科团队发布 OVIS 遮挡视频实例分割基准数据集
  13. kubernetes不同的命名空间下的容器能通信吗_在Kubernetes环境中,容器间如何进行网络通信?...
  14. git pull命令模式
  15. RAC环境下的备份与恢复(五)
  16. Linux中 vim 编辑器的使用【详细】
  17. 施耐德 m340 编程手册_施耐德电气自动化软件汇总
  18. cuteftp pro 3.2多线程下载导致文件MD5校验值改变
  19. 台架控制器-AVL_ISAC学习
  20. win10突然不能使用usb大容量存储设备(移动硬盘)的解决方法

热门文章

  1. pytorch GPU和CPU模型相互加载
  2. 嵊州D4T1 翻车 rollover 真的翻车了
  3. 爬取淘宝历史价格,通过请求接口,获取到数据
  4. 各种编码中使用到的工具类
  5. Pandas知识点-详解转换函数transform
  6. [模电]差模信号、共模信号的通俗解释
  7. 埃及分数数学模型c语言,C语言将真分数分解为埃及分数代码解析
  8. GP工作室的项目计划书
  9. 移动开发平台WorkPlus | 快速实现企业移动应用集成化
  10. PMOS的电流方向以及工作区理解