EDA-数据探索性分析

EDA目标

EDA的价值主要在于熟悉数据集,了解数据集,对数据集进行验证来确定所获得数据集可以用于接下来的机器学习或者深度学习使用。
当了解了数据集之后我们下一步就是要去了解变量间的相互关系以及变量与预测值之间的存在关系。
引导数据科学从业者进行数据处理以及特征工程的步骤,使数据集的结构和特征集让接下来的预测问题更加可靠。
完成对于数据的探索性分析,并对于数据进行一些图表或者文字总结并打卡。

内容介绍

1、导入数据处理库可视化库
2、载入数据
3、数据总览
4、数据缺失值,异常值
5、预测值的分布
6、特征的分类,以及特征的分布
7、数字类型特征的分析
8、类型特征分析
9、生成分析报告

开始

工作都是在天池jupyter notebook 下开始

!ls #查看路径下的文件

baseline_model.csv submit2.csv
car.ipynb submit.csv
data_for_tree.csv sub_Weighted.csv
example.html train_data
itcont_2020_20200722_20200820.txt Train_data1.csv
jieguo.csv train_tree.csv
model.h5 used_car_sample_submit.csv
new_used_car_testA_20200313.csv used_car_testA_20200313.csv
new_used_car_train_20200313.csv used_car_train_20200313.csv
result.csv weight.best.h5
submission.csv

#导入需要的库函数
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import missingno as msno
import seaborn as sns
#没有的库pip install 安装一下
#如果使用天池的GPU安装库的时候在后面加上--user
#读取数据并查看
train_data = pd.read_csv('used_car_train_20200313.csv',sep=' ')
test_data = pd.read_csv('used_car_testA_20200313.csv',sep=' ')
#查看前五行,以及后五行数据
train_data.head().append(train_data.tail())
#查看数据的结构
train_data.shape
#同样的方式查看一下测试集的数据
test_data.head().append(test_data.tail())

2、查看数据的信息,数据的类型,

train_data.describe()
test_data.describe()
train_data.info()
test_data.info()

查看是否有缺失值

train_data.isnull().sum()
test_data.isnull().sum()

尝试缺失值可视化

#缺失值的可视化
missing = train_data.isnull().sum()
missing = missing[missing>0]
missing.sort_values(inplace=True)#缺失值进行排序
missing.plot.bar()#柱状图

#missingno是一个可视化缺失值的库
##在train_dataDataframe中,sample(250)表示抽取表格中250个样本。白线越多,代表缺失值越多
msno.matrix(train_data.sample(250))

msno.bar(train_data.sample(250))#查看一下柱状图

#还可以看一下缺失值的热力图
msno.heatmap(train_data,figsize=(16, 7))#figsize是指图的大小
#热力图表示的时某一个值缺失时另一个值缺失的概率
#例如gearbox缺失时bodyType缺失的概率是0.3

#同样查看测试集的缺失值情况
missingtest = test_data.isnull().sum()
missingtest = missingtest[missingtest>0]
missingtest.sort_values(inplace=True)
missingtest.plot.bar()
msno.matrix(test_data.sample(250))
msno.bar(test_data.sample(250))
msno.heatmap(test_data,figsize=(12,6))
#测试集和训练集缺失值的情况相差不大,并且缺失值的特征的关系也差不多
#异常值检查
train_data.info()

#可以发现除了notRepairedDamage 为object类型其他都为数字
train_data['notRepairedDamage'].value_counts()#一共有三种类型 ‘-’为空值

#处理异常值
#‘-’处理为空值
train_data['notRepairedDamage'].replace('-',np.nan,inplace=True)
train_data['notRepairedDamage'].value_counts()
train_data.isnull().sum()
#同样处理测试集的数据
test_data.isnull().sum()
test_data['notRepairedDamage'].value_counts()
test_data['notRepairedDamage'].replace('-',np.nan,inplace=True)
test_data['seller'].value_counts()#只有一个值可以去掉
test_data['offerType'].value_counts()#数据只有一个值,数据倾斜太严重,也可以去掉


del train_data['offerType']
del test_data['offerType']
del train_data['seller']
del test_data['seller']
#查看预测值的分布
train_data['price']
train_data['price'].value_counts()
train_data['price'].hist(bins=50,figsize=(20,15))
#查看分布
#分布情况属于哪种分布
#价格不属于正态分布
import scipy.stats as st
y = train_data['price']
plt.figure(1)
plt.title('Johnson SU')
sns.distplot(y,kde=False,fit=st.johnsonsu)#
plt.figure(2)
plt.title('Normal')
sns.distplot(y,kde=False,fit=st.norm)
plt.figure(3)
plt.title('Log Normal')
sns.distplot(y,kde=False,fit=st.lognorm)

## 2) 查看skewness偏度 和 kurtosis峰度
# 偏度: 是描述数据分布形态的统计量,其描述的是某总体取值分布的对称性,#简单来说就是数据的不对称程度,绝对值越大表明数据分布越不对称,偏斜程度大
# 峰度: 描述某变量所有取值分布形态陡缓程度的统计量,简单来说就是数据#分布顶的尖锐程度(>0尖顶峰, <0平顶峰, =0与正态分布陡峭程度一致)
sns.distplot(train_data['price']);
print("Skewness: %f" % train_data['price'].skew())
print("Kurtosis: %f" % train_data['price'].kurt())
train_data.skew(),train_data.kurt()
sns.distplot(train_data.skew(),color='blue',axlabel='Skewness')
sns.distplot(train_data.kurt(),color='orange',axlabel ='Kurtness')
#变换预测值的分布
plt.hist(train_data['price'], orientation = 'vertical',histtype = 'bar', color ='red')
plt.show()
#变换为log
plt.hist(np.log(train_data['price']), orientation = 'vertical',histtype = 'bar', color ='red')
plt.show()
#获取标签
y_train = train_data['price']
#特征分类
numeric_features = ['power', 'kilometer', 'v_0', 'v_1', 'v_2', 'v_3', 'v_4', 'v_5', 'v_6', 'v_7', 'v_8', 'v_9', 'v_10', 'v_11', 'v_12', 'v_13','v_14' ]
categorical_features = ['name', 'model', 'brand', 'bodyType', 'fuelType', 'gearbox', 'notRepairedDamage', 'regionCode',]
#数字特征的分布
for cat_fea in categorical_features:print(cat_fea + "分布")print("{}特征有{}不同的值".format(cat_fea,train_data[cat_fea].nunique()))print(train_data[cat_fea].value_counts())
#其他特征分布
for cat_fea in categorical_features:print(cat_fea + "的特征分布如下:")print("{}特征有个{}不同的值".format(cat_fea, test_data[cat_fea].nunique()))print(test_data[cat_fea].value_counts())
#尝试查找数字特征之间与价格之间的关系
numeric_features.append('price')
#相关性分析
price_numeric = train_data[numeric_features]
correlation = price_numeric.corr()
print(correlation['price'].sort_values(ascending=False),'\n')
#相关性热力图
f , ax = plt.subplots(figsize = (7, 7))plt.title('Correlation of Numeric Features with Price',y=1,size=16)sns.heatmap(correlation,square = True,  vmax=0.8)
#相关性低只是代表线性相关比较低,并不是没有相关性
del price_numeric['price']
#查看特征的偏度和峰度(就是和标准正态分布之间的差异)
for col in numeric_features:print('{:15}'.format(col), 'Skewness: {:05.2f}'.format(train_data[col].skew()) , '   ' ,'Kurtosis: {:06.2f}'.format(train_data[col].kurt())  )
# 每个数字特征得分布可视化
#https://blog.csdn.net/maymay_/article/details/80039677 看一下这个
#关于Facegrid https://baijiahao.baidu.com/s?id=1618970364639228034&wfr=spider&for=pc
f = pd.melt(train_data, value_vars=numeric_features)
g = sns.FacetGrid(f, col="variable",  col_wrap=2, sharex=False, sharey=False)
g = g.map(sns.distplot, "value")
#数字特征之间的关系
sns.set()#set( )通过设置参数可以用来设置背景,调色板等,更
columns = ['price', 'v_12', 'v_8' , 'v_0', 'power', 'v_5',  'v_2', 'v_6', 'v_1', 'v_14']
#pairplot:pair是成对的意思,即是说这个用来展现变量两两之间的关系,线性、非线性、相关等等
#kind:用于控制非对角线上的图的类型,可选"scatter"与"reg"
#diag_kind:控制对角线上的图的类型,可选"hist"与"kde"
sns.pairplot(train_data[columns],size=2,kind='scatter',diag_kind='kde')
plt.show()
#类别特征分析
for fea in categorical_features:print(train_data[fea].nunique())

99662,248,40,8,7,2,2,7905

# 类别特征箱形图可视化#因为 name和 regionCode的类别太稀疏了,这里我们把不稀疏的几类画一下
## 2) 类别特征箱形图可视化# 因为 name和 regionCode的类别太稀疏了,这里我们把不稀疏的几类画一下
categorical_features = ['model','brand','bodyType','fuelType','gearbox','notRepairedDamage']
for c in categorical_features:#Pandas中的Categoricals模块能够有效地编码并显著性地提高了文本分类的效率。train_data[c] = train_data[c].astype('category')#np.array.any()是或操作,将np.array中所有元素进行或操作,只要有一个为真,则返回True,否则返回Flase;#np.array.all()是与操作,将np.array中所有元素进行与操作,只要有一个为假,返回False,都为真,返回True。if train_data[c].isnull().any():train_data[c] = train_data[c].cat.add_categories(['MISSING'])#j加一个类别train_data[c] = train_data[c].fillna('MISSING')#加上这个类别def boxplot(x, y, **kwargs):sns.boxplot(x=x, y=y)x=plt.xticks(rotation=90)f = pd.melt(train_data, id_vars=['price'], value_vars=categorical_features)
g = sns.FacetGrid(f, col="variable",  col_wrap=2, sharex=False, sharey=False, size=10)
g = g.map(boxplot, "value", "price")
catg_list = categorical_features
target = 'price'
for catg in catg_list :sns.violinplot(x=catg, y=target, data=train_data)plt.show()
categorical_features = ['model','brand','bodyType','fuelType','gearbox','notRepairedDamage']# 类别特征的柱形图可视化
def bar_plot(x, y, **kwargs):sns.barplot(x=x, y=y)#x=plt.xticks(rotation=90)f = pd.melt(train_data, id_vars=['price'], value_vars=categorical_features)
g = sns.FacetGrid(f, col="variable",  col_wrap=2, sharex=False, sharey=False, size=5)
g = g.map(bar_plot, "value", "price")
#类别特征的每个类别频数可视化(count_plot)
def count_plot(x,  **kwargs):sns.countplot(x=x)x=plt.xticks(rotation=90)f = pd.melt(train_data,  value_vars=categorical_features)
g = sns.FacetGrid(f, col="variable",  col_wrap=2, sharex=False, sharey=False, size=5)
g = g.map(count_plot, "value")

二手车交易价格预测 (数据分析)————task(2)相关推荐

  1. python二手车价格预测_天池_二手车交易价格预测数据分析

    字典 FieldDescription SaleID 交易ID,唯一编码 name 汽车交易名称,已脱敏 regDate 汽车注册日期,例如20160101,2016年01月01日 model 车型编 ...

  2. 二手车交易价格预测——数据分析

    @(Aaron) [机器学习, EDA-数据探索性分析] 主要内容包括: 载入各种数据科学以及可视化库: 载入数据: 数据总览: 判断数据缺失和异常: 了解预测值的分布 特征分为类别特征和数字特征,并 ...

  3. 【算法竞赛学习】二手车交易价格预测-Task2数据分析

    二手车交易价格预测-Task2 数据分析 二. EDA-数据探索性分析 Tip:此部分为零基础入门数据挖掘的 Task2 EDA-数据探索性分析 部分,带你来了解数据,熟悉数据,和数据做朋友,欢迎大家 ...

  4. Task 3 特征工程 Datawhale零基础入门数据挖掘- 二手车交易价格预测

    Task 3 特征工程 Datawhale零基础入门数据挖掘- 二手车交易价格预测 Tips:此部分为零基础入门数据挖掘的Task3特征工程部分,主要包含各种特征工程以及分析方法 赛题:零基础入没人能 ...

  5. 二手车交易价格预测方案——数据分析EDA

    二手车交易价格预测 题目解析 赛题概况 数据概况 数据脱敏 评价指标 EDA目标 读取数据 head(),tail(),describe() 数据总览和异常值检查 describe(),info() ...

  6. 【直播】王茂霖:二手车交易价格预测-千变万化特征工程(河北高校数据挖掘邀请赛)

    二手车交易价格预测-千变万化特征工程 目前 河北高校数据挖掘邀请赛 正在如火如荼的进行中.为了大家更好的参赛,王茂霖分享了 从0梳理1场数据挖掘赛事!,完整梳理了从环境准备.数据读取.数据分析.特征工 ...

  7. 【直播】王茂霖:二手车交易价格预测 Baseline 提高(河北高校数据挖掘邀请赛)

    二手车交易价格预测 Baseline 提高 目前 河北高校数据挖掘邀请赛 正在如火如荼的进行中.为了大家更好的参赛,王茂霖分享了 从0梳理1场数据挖掘赛事!,完整梳理了从环境准备.数据读取.数据分析. ...

  8. 数据挖掘实战:二手车交易价格预测

    赛题数据 数据来自某交易平台的二手车交易记录,总数据量超过40w,包含31列变量信息,其中15列为匿名变量.从中抽取15万条作为训练集,5万条作为测试集A,5万条作为测试集B,同时会对name.mod ...

  9. 零基础入门数据挖掘——二手车交易价格预测:baseline

    零基础入门数据挖掘 - 二手车交易价格预测 赛题理解 比赛要求参赛选手根据给定的数据集,建立模型,二手汽车的交易价格. 赛题以预测二手车的交易价格为任务,数据集报名后可见并可下载,该数据来自某交易平台 ...

  10. 第一次认真的二手车交易价格预测--赛题分析

    二手车交易价格预测--赛题分析 数据比赛步骤 一. 赛题分析 1.1 学习目标 1.2 了解赛题 1.2.1 赛题概况 1.2.2 数据概况 train.csv 1.2.3 预测指标 一般问题评价指标 ...

最新文章

  1. Qt安装后配置环境变量(Mac)
  2. 月薪20k-50k| 西人马3D机器视觉算法、语音识别、DSP软件工程师招聘
  3. LeetCode 804 Unique Morse Code Words--python,java解法
  4. tomcat8启动慢
  5. 空间句法软件_【特训营2:空间句法高阶班】GIS中的空间句法运用 丨城市数据派...
  6. Python_全局变量的定义
  7. 0x30 java_终于找到了!有了它你就可以读懂字节码了!
  8. Elementui input不能再循环数据中每次自动聚焦的问题
  9. jzoj5986. 【WC2019模拟2019.1.4】立体几何题 (权值线段树)
  10. XNA 3.1 转换到 XNA4.0 的备忘录
  11. Android实现传感器应用及位置服务
  12. Python3入门机器学习经典算法与应用 第3章 Numpy中的arg运算
  13. MATLAB 线型图
  14. 软件架构风格-数据流风格
  15. 新号起步狂揽近200万粉,“老年”账号也能成为推广黑马
  16. PackageManagerService Android 8.1 源码解读 02
  17. 【五一专属活动】向所有热爱分享的“技术劳动者”致敬
  18. 苏州银行李伟:银行数字化转型中的隐私计算
  19. sscom串口网络数据调试器使用post方法向华为云obs桶上传文件和图片
  20. 2018最新苹果公司开发者账号设置税务

热门文章

  1. 与finally单独使用的是try
  2. 2018年7月18日日报
  3. go语言的ini文件配置读取
  4. 陳三甲网络笔记:赚钱路上,一些人生思考(连载四)
  5. 巧借“中国制造2025”东风占领“智”高点
  6. android 删除号码恢复,安卓手机删了联系人怎么恢复?这些方法很容易
  7. 山高有攀头,路远有奔头~
  8. 【ROS RIKIBOT 基础--使用系列 第八章节】超声波跟随、雷达跟随、手机APP建地图、视觉单线寻线
  9. 《C#零基础入门之百识百例》(五十八)接口 -- 模拟银行存储
  10. 栅格计算器(不断更新中.....)