• How to Win a Data Science Competition: Learn from Top Kagglers
  • 网易公开课

    文章目录

    • 概念
    • 相关理论
      • 常见的机器学习
      • Linear
      • Tree-based
      • KNN-based
      • Neural Network
      • 可视化工作
    • 特征
      • 数字特征
        • 特征预处理
        • 特征Generate
      • Categorical / Ordinal 特征
      • 时间 / 坐标(位置) 特征
      • 缺失值
      • 文本特征提取-BoW
        • Bag of words
        • N-grams
        • 文本词预处理
      • 文本特征提取-Embedding
      • 图像特征提取
        • 预训练网络特征
        • *手工特征
    • 探索性数据分析
      • 熟悉数据/问题
      • 探索匿名标签的数据
      • 样本可视化
      • 数据清洗
    • 验证和过拟合
    • Data Leakage
    • Metrics![在这里插入图片描述](https://img-blog.csdnimg.cn/1da06bfb8b844f4d8876018132e992aa.png#pic_center)
    • 优化
    • Mean Encoding
    • 正则化
    • Hyperparameters Tuning
    • 实用建议
    • kaggle 日程(参考)
    • 矩阵因子
    • 可视化 - tSNE
    • 集成学习
    • Catboost
    • Titanic
      • Kaggle数据分析工作流程
      • 数据分析工作中的关键因素
      • 让我们开始吧!
        • 获取数据
        • 了解数据集
        • 分析数据
        • 上手
    • Digit Recognizer

概念

  • Data

  • Model

  • Submission

  • Evaluation

  • Leaderboard

  • 类似的一些问题众包平台

相关理论

  • 真实的世界和竞赛之间的联系和区别

  • 竞赛中数据为王,需要更好的理解数据,需要一些对于数据的灵感
  • 一切服务于解决问题,所以不要自我设限
  • 在比赛中需要保持创造性,对于算法需要一些理解和改进的时候,我们也得撸袖子往上干
  • 不要害怕失败,经验的提升才是最大的收获!

常见的机器学习

  • 没有一种算法可以适用于所有的业务场景/问题

Linear

  • 使用超平面分割特征空间
  • 对于特征空间的不断划分,不能很好的捕获线性依赖
  • LR,SVM

Tree-based

  • 非常适合表格类的数据分析
    • Scikit-learn的RF效果不错,XGBoost和lightGBM效果更好
  • DT、RF、GBDT

KNN-based

Neural Network

  • pytorch

可视化工作

  • decision surfaces

特征

数字特征

特征预处理

  • 树型算法往往不依赖特征归一化,而一些非树算法是极其依赖的

    • 归一化:线性归一化【0,1】、whiting【mean,std】
    • 离群点处理:阈值裁剪、
    • 排序rank编码:特征有一些典型特征值,可以进行排序得到每个特征的名次作为特征
    • 特定函数映射:log,sqrt、

特征Generate

  • 先验设计
  • Exploration Data Analysis

Categorical / Ordinal 特征

  • 类别数据(female \ male)、序号特征(A、B、C、D,等)可以使用 标签编码(label encoding)
  • label encoding:
    • 连续数字映射:female:1;male:0
    • 用出现频率值替代
    • one-hot编码

时间 / 坐标(位置) 特征


缺失值

  • 发现缺失值:NAN,-1,inf,可以画图通过离群点的分布值范围判断
  • 直接忽略出现缺失值的样本
  • Fillna方法
    • 使用-1等特殊值替代
    • 使用均值中位数替代
    • 重新设计方法用于缺失值的重构
      • isnull特征,缺失为1,不缺为0
      • 时序特征可以用相邻值来估计、如邻域插值等
      • 统计“某个类别”样本关于缺失特征的均值等统计值来替代,
        • 比如样本中为女性的平均年龄是25,我们就可以把25作为女性缺失年龄的替代值
        • 将异常值作为缺失症,可以填充之后重新训练
  • 有一些可以应对NAN的算法,比如 XGBoost

文本特征提取-BoW

  • 从复杂数据中提取特征,如文本或者图像

Bag of words

  • 为文本或者图像创建新词,然后统计每个词出现的频率,作为特征向量
  • 文本特征提取中 TFiDF (用于bag of words的特征加权的过程):
    • TF:term frequency,每个样本中某个word出现的频率,即每个样本特征维度的归一化
    • iDF:inverse Document frequency,每个文档的出现频率,即越常出现(在多个文档中出现)的word的权重越低(通用词不够有代表性,不适用用于分类)

N-grams

  • 将n个word组成一个n行n列的“关系矩阵”,表面词之间的关联性;N表示选择几个词来判断关联性(关联性计算用传统概率论的贝叶斯后验概率可以计算出来)

文本词预处理

  • lowercase:大小写统一
  • lemmatization:词性统一
  • stemming:
  • stopwords:

文本特征提取-Embedding

  • 一般是预训练网络提取的特征
  • word2vec

图像特征提取

预训练网络特征

  • 数据增光,网络finetune

*手工特征

探索性数据分析

  • Exploration Data Analysis:

    • 理解数据
    • 树立直觉
    • 建立假设
    • 激发灵感
  • 竞赛不要一开始就从stacking开始,从EDA开始一点点的解构问题可能有更好的帮助
  • 一个重要的EDA方法就是 可视化 visualization
  • 通过EDA发现 对于解决问题十分有帮助的 Magic feature

熟悉数据/问题

  • 获取相关领域的基本知识

探索匿名标签的数据

  • 样本的特征标签不是明文,而是使用一些手段进行加密的
  • 可以通过学习算法发现这些匿名特征中重要性最大的几个特征,然后分析这些特征的统计特性,试着反向推导得到其原始的数值,进而弄清楚这个特征的物理意义

样本可视化

  • 是EDA的重要工具
  • 直方图:plt.hist(x)plt.hist(x)plt.hist(x)
  • 曲线:plt.plot(x,′.′)plt.plot(x, '.')plt.plot(x,.)
  • 散点图:plt.scatter(range(len(x)),x,c=y)plt.scatter(range(len(x)), x, c=y)plt.scatter(range(len(x)),x,c=y)
  • 统计量:df.describe()df.describe()df.describe()
  • x.valuecounts()x.value_counts()x.valuecounts()
  • x.isnull()x.isnull()x.isnull()
  • 相关性:df.corr()df.corr()df.corr()
  • plt.matshow()plt.matshow()plt.matshow()
  • df.mean().plot(style=′.′)df.mean().plot(style='.')df.mean().plot(style=.)
  • 排序:df.mean().sortvalues().plot(style=′.′)df.mean().sort_values().plot(style='.')df.mean().sortvalues().plot(style=.)
  • etc.

数据清洗

  • 重复值,恒常值 :删去

    • data.nunique(axis=1)==1data.nunique(axis=1) == 1data.nunique(axis=1)==1
    • data.T.drop_duplicates()data.T.drop\_duplicates()data.T.drop_duplicates()
    • data.factorize()data.factorize()data.factorize()
    • 检查重复样本的标签是否一致
  • 检查数据是否被重复的 shuffled!
  • 分析每个特征的取值集合是什么,data.nunique(dropna=False)data.nunique(dropna=False)data.nunique(dropna=False)
  • 挑选非数值型特征:
    catidxs=list(df.select_dtypes(include=[′object′]).columns)cat_idxs = list(df.select\_dtypes(include=['object']).columns)catidxs=list(df.select_dtypes(include=[object]).columns)
    numidxs=list(df.select_dtypes(exclude=[′object′]).columns)num_idxs = list(df.select\_dtypes(exclude=['object']).columns)numidxs=list(df.select_dtypes(exclude=[object]).columns)
  • 替换:df.replace(′NAN′,−999,inplace=True)df.replace('NAN', -999, inplace=True)df.replace(NAN,999,inplace=True)

验证和过拟合

  • 特别说明一下Kaggle 在计算得分的时候,有Public Leaderboard (LB)和 Private LB 之分。具体而言,参赛选手提交整个测试集的预测结果,Kaggle 使用测试集的一部分计算得分和排名,实时显示在 Public LB上,用于给选手提供及时的反馈和动态展示比赛的进行情况;测试集的剩余部分用于计算参赛选手的最终得分和排名,此即为 Private LB,在比赛结束后会揭晓。用于计算 Public LB 和 Private LB 的数据有不同的划分方式,具体视比赛和数据的类型而定,一般有随机划分,按时间划分或者按一定规则划分。大家可以合理利用Public Leaderboard的排名和反馈来适当调整自己的策略,但是不要太过依赖Public Leaderboard,有些时候它的数据分布和Private Leaderboard会有差异,不要在Public Leaderboard上过拟合哦,还是好好利用你的validation set吧,以便得到更好的泛化能力。
  • Holdout:sklearn.modelselection.shufflesplitsklearn.model_selection.shufflesplitsklearn.modelselection.shufflesplit,讲数据集分成不重叠的两部分:训练集和验证集
  • Kfold:sklearn.modelselection.Kfoldsklearn.model_selection.Kfoldsklearn.modelselection.Kfold,会出现重叠的Holdout,(多个holdout)
  • LeaveOneOut:sklearn.modelselection.LeaveOneOutsklearn.model_selection.LeaveOneOutsklearn.modelselection.LeaveOneOut
  • Stratification: sklearn.modelselection.StratifiedShuffleSplitsklearn.model_selection.StratifiedShuffleSplitsklearn.modelselection.StratifiedShuffleSplit 分层拆分,保证划分的训练集和验证集的不同类别的样本占比在一个训练中相同
  • 训练集和验证集合如何划分:
    • 随机(Rowwise)
    • TimeWise
    • IdWise
    • Combine
  • 验证集结果和提交测试结果差距过大:尽量保证验证集样本分布和提交测试集样本分布一致




Data Leakage

  • 数据泄露
  • 数据中存在倒“因”为“果”的feature的现象,叫数据竞赛中的Data Leakage。
  • 靠着对极个别特征feature的充分利用(被称为魔法属性),立即将对手超越,成功霸占冠军位置。然而,这可能是竞赛方数据准备过程中出现的失误,使模型沿着有纰漏的,甚至是颠倒的因果关系进行预测,但在测试数据中得到预测结果是极好的。

Metrics

-






  • 分类



  • AUC of ROC

优化







Mean Encoding

  • 适用条件:存在一个 类别特征,是一个2分类问题
  • 步骤:统计每个类别下的GT均值(0~1)作为该类别的映射值
  • Pros of MeanEncoding:
    • Capture information within the label, therefore rendering more predictive features
    • Creates a monotonic relationship between the variable and the target
  • Cons of MeanEncodig:
    • It may cause over-fitting in the model.

正则化

  • 交叉验证
  • 平滑
  • 增加噪声
  • Expanding mean:

Hyperparameters Tuning

  • 如何调试
  • 一些调参库
  • 不同的类型算法的超参









实用建议















kaggle 日程(参考)







矩阵因子

  • PCA

可视化 - tSNE

集成学习










Catboost

Titanic

  • kaggle - link

Kaggle数据分析工作流程

  • 1 问题定义:先阅读题目弄清题意
  • 2 获取数据集(训练(包括交叉验证)+测试)
  • 3 数据预处理(Wrangle, prepare, cleanse)
    • 数据争用是数据格式转换,转换成方便后续处理的结构形式
    • 数据清理是消除不正确的数据或对其进行修改的过程
  • 4 数据预分析:分析定义模式 以及 充分的挖掘数据内在的联系
  • 5 算法模型建立和问题解决
  • 6 展示问题解决步骤以及最终结构包括可视化
  • 7 提交结果文件
  • PS:算法建模之前的数据无处理和分析过程是彼此交融联系紧密的两个步骤,其先后顺序不重要;会存在不断迭代优化设计的过程,不会一次流程就能解决全部问题

数据分析工作中的关键因素

  • 分类:对于数据样本需要进行充分全面的分类,知道不同类别之间的潜在关系
  • 相关性:需要判断特征和目标之间的关系强弱,以及特征对于目标影响方向(有助还是有害?);可能也需要判断特征之间的关联性,特征之间可能会存在什么样潜在的关系,相互独立还是彼此互补亦或是彼此重复冗余
  • 转换:不同的算法可能需要特定格式的数据,因此需要对于问题给出的数据集进行必要的格式转变
  • 补全:对于样本和特征错误的检测和纠正(异常值、明显离群点),甚至是发现一些对于最终结果没有任何贡献或是显著扭曲结果的样本和特征,完全丢弃它们
  • 创造:可能需要对于现有的特征基础上创造出新的特征,并测试新特征对于结果是否有提升,这是个不断迭代更新的过程!特别是在传统的机器学习里,特征工程的部分是耗时耗力的,好的设计需要靠灵感以及经验的激发
  • 可视化:结合数据的本质和问题目标,挑选最适合且正确的图表进行可视化

让我们开始吧!

获取数据

  • Kaggle的数据获取方法略
  • 我们使用官网上的notebook进行代码编写,简单

了解数据集

  • 加载数据,查看样本特征属性名和类型
  • 查看数据是否有丢失,如缺失的特征等
  • 查看数据的基本统计分布情况

分析数据

  • 查看不同特征和目标之间的关联性的相对强弱关系,作为对问题的基础认知
  • 对于存在缺失的特征,我们需要尽可能的补充这部分缺失信息(理论上讲给出的所有特征都值得我们尽可能的利用,每个特征都可能有助于结果/指标的提升,特别是在我们没有尝试它们的情况下我们更应该重视
    • 该问题中,Age和Embarked两种特征存在缺失,年龄和登录的港口名
    • 一般补全方法:
      • 1 使用数据样本均值和标准差来随机取值
      • 2 使用特定样本子集的均值/中位数替代
      • 3 使用特定样本子集的均值和标准差进行随机取值
      • 4 使用算法进行预测,如使用 RandomForestClassifier 填补缺失的年龄属性
      • 1/3方法引入随机性会导致每次运行的结果不同,不好比较,先使用方法2(如选择性别相同阶级类似的群体的年龄类似)
  • 特征校正:
    • 船票编号 特征 可能重要性较低,因为其有很大的冗余度(22%)且从经验上看船票和存活之间的关系很弱
    • 船舱编号 特征 其样本中缺失的概率很大(训练和测试数据),导致其重要性也较低
    • 乘客编号 维度和存活没有关系,可以忽略
    • 人名特征缺乏有效的标准化方法,重要性不高
  • 特征设计(新特征)
    • 登船的旅客很多是以家庭为单位,因此可以建立一个 familysize 特征,和存活关系较大
    • 人名中存在一些 title,可以提取出来用于属性的补充验证 以及 建立新特征
    • 年龄是连续值,如果对其进行分段,年龄分段 特征 可能对于该问题的鲁棒性更好
    • 船上消费额 进行分段可能效果也不错
  • 一些额外的先验知识:
    • 女人,小孩 以及 上流阶层的存活率更高

上手

  • My-notebook;别人的-notebook
  • 学到了一个新框架,autogluon.tabular,是一个AutoML的框架:大部分automl框架是基于超参数搜索技术,例如基于贝叶斯搜索的hyperopt技术等;AutoGluon则依赖融合多个无需超参数搜索的模型,三个臭皮匠顶个诸葛亮
  • stacking: 在同一份数据上训练出多个不同类型的模型,这些模型可以是KNN、tree、核方法等,这些模型的输出进入到一个线性模型里面得到最终的输出,就是对这些输出做加权求和,这里的权重是通过训练得出。
  • K-则交叉Bagging:Bagging是训练同类别的多个模型,他们可能使用不同的初始权重或者数据块,最终将这些模型的输出做平均来降低模型的方差。
  • K-则交叉Bagging,源自于K-则交叉验证。相同点都是对数据集做K折
  • K-则交叉验证:相同的初始参数,训练多次,对每次的误差求平均后作为这些初始参数的最终误差,为了最大化利用数据集,可以有效避免过拟合和欠拟合。(是为了验证初始参数)
  • K-则交叉Bagging:每一则对应不同的初始参数,训练出多个模型,对结果求平均(3个臭皮匠顶个诸葛亮)
  • 多层Stacking:将多个模型输出的数据,合并起来,再做一次Stacking。在上面再训练多个模型,最后用一个线性模型做输出。
    为了避免后面层过多拟合数据,多层Stacking通常配合K-则交叉Bagging使用,也就是说这里的每个模型是K个模型的Bagging。它对下一层stacking的输出,是指每个bagging模型对应验证集上输出的合并

Digit Recognizer

  • 传统特征 + ML My-kaggle

    • HOG
    • SIFT + Kmeans
  • CNN My-kaggle

Kaggle(入门)相关推荐

  1. Kaggle入门,看这一篇就够了

    转载地址:https://zhuanlan.zhihu.com/p/25686876 之前发表了这篇关于 Kaggle 的专栏,旨在帮助对数据科学( Data Science )有兴趣的同学们更好的了 ...

  2. Kaggle 入门练习 -- Titanic

    Kaggle 入门练习 – Titanic Kaggle 大数据比赛的入门练习,泰坦尼克遇难者预测 import pandas as pd# 导入数据集 train = pd.read_csv('Ti ...

  3. Kaggle入门 (Titanic XGBoost)

    本文接前文Kaggle入门,主要的区别是更换了分类器XGBoost. # -*- coding: utf-8 -*-import pandas as pd import xgboost as xgb# ...

  4. kaggle 入门:逻辑回归应用之Kaggle泰坦尼克之灾

    经典又兼具备趣味性的Kaggle案例泰坦尼克号问题 kaggle入门--逻辑回归应用之kaggle泰坦尼克之灾 原文连接:https://blog.csdn.net/han_xiaoyang/arti ...

  5. 关于Kaggle入门,看这一篇就够了

    这次酝酿了很久想给大家讲一些关于Kaggle那点儿事,帮助对数据科学(Data Science)有兴趣的同学们更好的了解这个项目,最好能亲身参与进来,体会一下学校所学的东西和想要解决一个实际的问题所需 ...

  6. 关于Kaggle入门

    博客转载至:https://blog.csdn.net/bbbeoy/article/details/73274931 这次酝酿了很久想给大家讲一些关于Kaggle那点儿事,帮助对数据科学(Data ...

  7. Kaggle入门和学习资源

    官网:https://www.kaggle.com/ 转载自:https://zhuanlan.zhihu.com/p/25686876 也可以看看:https://zhuanlan.zhihu.co ...

  8. kaggle入门-泰坦尼克之灾

    kaggle入门-泰坦尼克之灾 引言 数据认识 总结 特征处理 建模预测 logistic分类模型 随机森林 SVM xgboost 模型验证 交叉验证 学习曲线 高偏差: 高方差 模型融合 总结 后 ...

  9. 大数据竞赛平台——Kaggle 入门

    大数据竞赛平台--Kaggle 入门篇 这篇文章适合那些刚接触Kaggle.想尽快熟悉Kaggle并且独立完成一个竞赛项目的网友,对于已经在Kaggle上参赛过的网友来说,大可不必耗费时间阅读本文.本 ...

  10. Kaggle入门系列:(一)Kaggle简介

    Kaggle是全球最大的数据分析在线平台,吸引了全球范围内数十万的顶级数据科学家,同时也是检测我们机器学习技能的最佳平台. 一.Kaggle简介 Kaggle成立于2010年,网址:https://w ...

最新文章

  1. Knowledge Test about Match
  2. java猜拳论文_Java人机猜拳实现的思路及方法实例
  3. HBase的常用Java API
  4. win11安装linux双系统
  5. 大数据技术原理与应用----大数据概述
  6. 浏览器网页操作 EXCEL 示例
  7. html怎么置顶导航栏,css怎么实现滚动页面导航栏固定在顶部
  8. LabVIEW如何将脚本插入Quick Drop
  9. python实现下载网络视频资源
  10. 大数据测试英语水平测试
  11. C语言中的hook和bait设计
  12. mongodb 3.4.10 更换集群IP
  13. 前端生成二维码qrcode.js,并下载
  14. node 连接mongodb 1
  15. Markdown学习摘要
  16. 百度总裁张亚勤宣布10月退休,李彦宏的人才建设要加紧了...
  17. JavaScript三目判读男女
  18. 内存取证之46届世界技能大赛湖北省选拔赛
  19. 利用Matlab 解决二维矩阵问题
  20. e680i linux终端,Linux下Telnet E680i经常断的解决方法

热门文章

  1. win7 错误代码 0x490 解决方法
  2. java.io.IOException: FIS_AUTH_ERROR in Android Firebase
  3. u大师u盘装系统win7_U盘启动联想ThinkPad E450 20DCA026CD重装win7系统教程分享
  4. Flink On K8s
  5. CF804B(1400)
  6. PC网站微信扫码支付,Native支付,“当前商户号暂不支持关联该类型的appid“,“签名错误,请检查后再试““springBoot 微信支付“
  7. 网桥15式:无线网桥用得好,成本的降低少不了
  8. 道一HTTP测试工具功能升级
  9. F#周报2019年第8期
  10. Flutter开始支持Windows了