# 导入相关库
import numpy as np
import pandas as pd
from datetime import date
from sklearn.ensemble import GradientBoostingClassifier
from sklearn.model_selection import train_test_split
from sklearn.metrics import roc_auc_score
# ------------------------------------  第一部分 读取数据  --------------------------------------#
off_train_data = pd.read_csv('./data/ccf_offline_stage1_train.csv',encoding='utf-8')
off_test_data = pd.read_csv('./data/ccf_offline_stage1_test_revised.csv',encoding='utf-8')
# 填充缺失值
off_train_data = off_train_data.fillna('null')
off_test_data = off_test_data.fillna('null')
# 用label列标记分类,label的取值为1表示正样本,0表示负样本,-1表示普通用户
def label(row):if row['Date'] != 'null' and row['Date_received'] != 'null':if row['Coupon_id'] != 'null':# 优惠券id不为空,表示使用了优惠券购买# 计算使用优惠券的日期差值td = pd.to_datetime(row['Date'], format='%Y%m%d') - \pd.to_datetime(row['Date_received'], format='%Y%m%d')if td <= pd.Timedelta(15, 'D'):  # 判断使用优惠券是否在15天内return 1else:return 0else:# 其他情况:优惠券id为null,表示没有使用优惠券购买return 0if row['Date'] == 'null' and row['Date_received'] != 'null':return 0else:return -1
# 标记label的值达到分类目的
off_train_data['label'] = off_train_data.apply(label, axis = 1)
off_train_data['label'].value_counts()
''' 0    988887
-1    7016021     64395
Name: label, dtype: int64
'''
off_train_data.columns
'''
Index(['User_id', 'Merchant_id', 'Coupon_id', 'Discount_rate', 'Distance','Date_received', 'Date', 'label'],dtype='object')
'''
# ------------------------------------  第二部分 数据取样  --------------------------------------#
# 随机抽样,按照正负样例1:1
# 切片
X = off_train_data.loc[:,off_train_data.columns != 'label']  # 数据
y = off_train_data.loc[:,off_train_data.columns == 'label']  # 标签
# 获取类1标签的长度
count_one_Class = len(off_train_data[off_train_data['label'] == 1])
# 获取两类标签的索引
one_Class_index = off_train_data[off_train_data['label'] == 1].index
zero_Class_index = off_train_data[off_train_data['label'] == 0].index
# 随机选择相同数目的索引
np.random.seed(25)  # 定义随机种子
random_zero_index = np.array(np.random.choice(zero_Class_index,count_one_Class,replace=True))
# 合并模型样本索引
sample = np.concatenate([one_Class_index,random_zero_index])
# 按照索引获取行
off_train_data = off_train_data.loc[sample,:]
# 打印结果对比
print('label为1的数目:', len(one_Class_index))
print('label为0的数目:', len(zero_Class_index))
print('总数:', len(one_Class_index) + len(zero_Class_index))
print('抽样label为1的数目:', len(one_Class_index))
print('随机抽取label为0的数目:', len(random_zero_index))
print('抽样总数:', len(one_Class_index) + len(random_zero_index))
print('总样本形状:', off_train_data.shape)
# ------------------------------------  第三部分 数据探索  --------------------------------------#
# 探索性分析
off_train_data.value_counts()
# 变换距离的类型,缺失值替换为-1
off_train_data['Distance'] = off_train_data['Distance'].replace('null', -1).astype(int)
off_test_data['Distance'] = off_test_data['Distance'].replace('null', -1).astype(int)
print('查看缺失值结果:\n',off_train_data.isnull().sum())
# 描述性统计分析
description = off_train_data.describe()
# 依次计算极差值、变异系数、四分位数间距
description.loc['range'] = description.loc['max'] - description.loc['min']
description.loc['var'] = description.loc['std'] - description.loc['mean']
description.loc['dis'] = description.loc['75%'] - description.loc['25%']
print('描述性统计结果:\n',np.round(description, 2))  # 保留两位小数
# 相关性分析
corr = off_train_data.corr(method = 'pearson')  # 计算相关系数矩阵
print('相关系数矩阵为:\n',np.round(corr, 2))  # 保留两位小数
# 绘制相关性热力图
import matplotlib.pyplot as plt
import seaborn as sns
plt.rcParams['font.sans-serif'] = 'SimHei'
plt.rcParams['axes.unicode_minus'] = False
plt.subplots(figsize=(10, 10))  # 设置画面大小
sns.heatmap(corr, annot=True, vmax=1, square=True, cmap="Blues")
plt.title('相关性热力图')
plt.show()
# 距离箱型图
off_train_data['Distance'].isnull().sum()
off_test_data['Distance'].isnull().sum()
D1 = np.array(off_train_data['Distance'].values)
D2 = np.array(off_test_data['Distance'].values)
plt.boxplot([D1,D2],labels=('off_train_data','off_test_data'))
plt.title('距离箱型图')
plt.show()
# ------------------------------------  第四部分 数据预处理  --------------------------------------#
# 属性构造
# 定义函数处理折扣率
def convertRate(row):if row == 'null':return 1.0elif ':' in str(row):rows = row.split(':')return 1.0 - float(rows[1]) / float(rows[0])else:return float(row)
# 定义函数处理折扣率类型
def getDiscountType(row):if row == -1:return -1elif ':' in row:# 满多少减多少return 1else:# 折扣率return 0
# 定义函数处理满减类型的折扣优惠券
def Man_Rate(row):if row == -1:return 0elif ':' in str(row):rows = row.split(':')return int(rows[0])else:return 0
def Jian_Rate(row):if row == -1:return 0elif ':' in str(row):rows = row.split(':')return int(rows[1])else:return 0
# 调用函数构建跟折扣率相关的四个特征属性
off_train_data['Dis_rate'] = off_train_data['Discount_rate'].apply(convertRate)
off_train_data['Discount_type'] = off_train_data['Discount_rate'].apply(getDiscountType)
off_train_data['Discount_man'] = off_train_data['Discount_rate'].apply(Man_Rate)
off_train_data['Discount_jian'] = off_train_data['Discount_rate'].apply(Jian_Rate)
off_test_data['Dis_rate'] = off_test_data['Discount_rate'].apply(convertRate)
off_test_data['Discount_type'] = off_test_data['Discount_rate'].apply(getDiscountType)
off_test_data['Discount_man'] = off_test_data['Discount_rate'].apply(Man_Rate)
off_test_data['Discount_jian'] = off_test_data['Discount_rate'].apply(Jian_Rate)
'''
# 保存文件,方便下次读取操作
off_train_data.to_csv('./final_off_train_data.csv')
off_test_data.to_csv('./final_off_test_data.csv')
# 读取保存的文件
off_train_data = pd.read_csv('./final_off_train_data.csv',index_col=0)
off_test_data = pd.read_csv('./final_off_test_data.csv',index_col=0)
'''
# 根据label标签来提取正、负样本的全部数据
data = off_train_data[off_train_data['label'] != -1]
data = data.fillna(-1)
data['label'].value_counts()
# 获取领券日期是星期几,并且构建成特征
def getWeekday(row):if row == 'null':return rowelse:return date(int(row[0:4]),int(row[4:6]),int(row[6:8])).weekday()+1data['Weekday'] = data['Date_received'].astype(str).apply(getWeekday)
off_test_data['Weekday'] = off_test_data['Date_received'].astype(str).apply(getWeekday)
# 周六日为类型1,其他为0
data['Is_weekend'] = data['Weekday'].apply(lambda x: 1 if x in [6,7] else 0)
off_test_data['Is_weekend'] = off_test_data['Weekday'].apply(lambda x: 1 if x in [6,7] else 0)
# 跟星期相关的独热编码
def One_hot(df):weekdaycols = ['weekday' + str(i) for i in range(1,8)]tmpdf = pd.get_dummies(df['Weekday'].replace('null', np.nan))tmpdf.columns = weekdaycolsdf[weekdaycols] = tmpdfreturn df
data = One_hot(data)
off_test_data = One_hot(off_test_data)
# 定义函数得到另外相关的三个特征属性
def func(data):# 提取用户使用的优惠券的数量f = data[['User_id', 'Coupon_id']]f['rec_coupon'] = 1f = f.groupby(['User_id']).agg('sum').reset_index()# 全部优惠券的数目f1 = data[['Coupon_id']]l1 = len(f1)f1['Number_coupon'] = 1f1 = f1.groupby(['Coupon_id']).agg('sum').reset_index()# 优惠券的流行度:每一种优惠券占全部优惠券的比例f1['Coupon_popu'] = f1['Number_coupon']/l1# 提取用户和商家f2 = data[['User_id','Merchant_id']]l2 = len(f2)# 提取顾客去商家的数量f2['Number_merchant'] = 1f2 = f2.groupby(['Merchant_id']).agg('sum').reset_index()# 商家的受欢迎度:商家的顾客(用户)占全部商家的顾客(用户)的比例f2['Merchant_popu'] = f2['Number_merchant']/l2# 合并特征属性d0 = pd.merge(data, f[['User_id','rec_coupon']], on='User_id')d1 = pd.merge(d0,f1[['Coupon_id','Coupon_popu']],on='Coupon_id')d2 = pd.merge(d1,f2[['Merchant_id','Merchant_popu']],on=['Merchant_id'])return d2
# 调用以上函数构建相关的三个特征属性
new_data = func(data)
new_test_data = func(off_test_data)
# 定义函数得到跟距离相关的特征属性
def Get_mer_dis(new_data):# 查看距离的类别数量new_data['Distance'].value_counts()# 提取用户-商家距离的数据集md1 = new_data[new_data.Coupon_id != 'null'][['Merchant_id', 'Distance']]md1.replace('null', -1, inplace=True)md1.replace(-1, np.nan, inplace=True)# 用户-商家的距离最小值md2 = md1.groupby('Merchant_id').agg('min').reset_index()md2.rename(columns={'Distance': 'merchant_min_distance'}, inplace=True)# 用户-商家的距离最大值md3 = md1.groupby('Merchant_id').agg('max').reset_index()md3.rename(columns={'Distance': 'merchant_max_distance'}, inplace=True)# 用户-商品的距离平均值md4 = md1.groupby('Merchant_id').agg('mean').reset_index()md4.rename(columns={'Distance': 'merchant_mean_distance'}, inplace=True)# 用户-离商品的距离中位值md5 = md1.groupby('Merchant_id').agg('median').reset_index()md5.rename(columns={'Distance': 'merchant_median_distance'}, inplace=True)# 将所有特征合并在一起merchant_feature = pd.merge(md2, md3, on='Merchant_id', how='left')merchant_feature = pd.merge(merchant_feature, md4, on='Merchant_id', how='left')merchant_feature = pd.merge(merchant_feature, md5, on='Merchant_id', how='left')new_data = pd.merge(new_data,merchant_feature,on='Merchant_id',how='left')return new_data
# 调用上边函数构建距离相关的特征属性
new_data = Get_mer_dis(new_data)
new_test_data = Get_mer_dis(new_test_data)
# 距离柱状图
x = np.arange(-1,11)
dis1 = np.array(new_data['Distance'].value_counts().sort_index())
dis2 = np.array(new_test_data['Distance'].value_counts().sort_index())
plt.bar(x,dis1,tick_label=x, label='off_train_data', width=0.3)
plt.bar(x+0.3,dis2,label='off_test_data',width=0.3)
plt.xlabel('距离')
plt.ylabel('计数')
plt.title('距离计数分布情况')
plt.legend()
plt.show()
# 定义变换距离类型的函数
def get_distance_type(row):# 距离未知if row == -1:return -1# 1千米内elif row >= 0 and row <= 2:return 0# 1.5-2.5千米内elif row >= 3 and row <= 5:return 1# 3-4.5千米内elif row >= 6 and row <= 9:return 2# 5千米elif row == 10:return 3
# 构建距离类型的特征属性
new_data['Distance_type'] = new_data['Distance'].apply(get_distance_type)
new_test_data['Distance_type'] = new_test_data['Distance'].apply(get_distance_type)
# 新距离类型分布情况
new_data['Distance_type'].value_counts()
new_test_data['Distance_type'].value_counts()
'''0    84309
-1    138583    133211    111942     6108
Name: Distance_type, dtype: int64
'''
# 距离柱状图
x1 = np.arange(-1,4)
dis_type1 = np.array(new_data['Distance_type'].value_counts().sort_index())
dis_type2 = np.array(new_test_data['Distance_type'].value_counts().sort_index())
plt.bar(x1,dis_type1,tick_label=x1, label='off_train_data', width=0.3)
plt.bar(x1+0.3,dis_type2,label='off_test_data',width=0.3)
plt.xlabel('距离类型')
plt.ylabel('计数')
plt.title('距离类型计数分布情况')
plt.legend()
plt.show()
# 跟距离相关的独热编码
def Get_dis_hot(df):discols = ['Distance' + str(i) for i in range(-1,11)]tmpdf = pd.get_dummies(df['Distance'].replace('null', np.nan))tmpdf.columns = discolsdf[discols] = tmpdfreturn df
new_data = Get_dis_hot(new_data)
new_test_data = Get_dis_hot(new_test_data)
# 集成新的数据集后,对缺失值处理
new_data = new_data.fillna(-1)
new_test_data = new_test_data.fillna(-1)
new_data.isnull().sum()
new_test_data.isnull().sum()
# 再次保存最终文件,方便下次直接读取进行预测操作
'''
new_data.to_csv('./final_new_data.csv')
new_test_data.to_csv('./final_new_test_data.csv')
# 读取最终保存的文件
new_data = pd.read_csv('./final_new_data.csv',index_col=0)
new_test_data = pd.read_csv('./final_new_test_data.csv',index_col=0)
'''
# ------------------------------------  第五部分 挖掘建模  --------------------------------------#
# 查看属性特征
new_data.columns
new_test_data.columns
# 选取要预测的特征
features = ['Dis_rate','Discount_type','Discount_man', 'Discount_jian','Distance','Distance_type','Distance-1', 'Distance0','Distance1', 'Distance2', 'Distance3', 'Distance4', 'Distance5','Distance6', 'Distance7', 'Distance8', 'Distance9', 'Distance10','rec_coupon','Coupon_popu','Merchant_popu','merchant_min_distance','merchant_max_distance','merchant_mean_distance','merchant_median_distance','Is_weekend','Weekday','weekday1','weekday2','weekday3','weekday4','weekday5','weekday6','weekday7']
# 提取指定特征属性的数据集,并且划分为训练集和验证集
X = new_data[features]
y = new_data['label']
X_train,X_test,y_train,y_test = train_test_split(X,y,test_size=0.2,stratify=y)
# 进行网格搜索调参
# from sklearn.model_selection import GridSearchCV
# param_second_grid = {
#     'learning_rate':[0.1,0.11,0.12,0.13],
#     'max_depth': [4],
#     'n_estimators': [160]
# }
# grid_second_search = GridSearchCV(estimator = GradientBoostingClassifier(),
#                      param_grid = param_second_grid, scoring = 'neg_mean_absolute_error', cv = 3)
# grid_second_search.fit(X_train , y_train)
# grid_second_search.best_params_
'''
{'learning_rate': 0.13, 'max_depth': 4, 'n_estimators': 160}
'''
# 集成学习提升决策树分类模型
# n 160 d 4 a 0.8890163692846558 s 0.6836
# n 160 d 4 l 0.12 a 0.8902440244868226 s 0.6825
GBC_model = GradientBoostingClassifier(n_estimators=160,max_depth=4)
GBC_model.fit(X,y)
# 预测样本的各类标签(这里是0和1)的概率
GBC_model.predict_proba(X_test)
# 预测标签为1的概率
y_predict = GBC_model.predict_proba(X_test)[:,1]
# AUC值,验证集上的性能结果
y_auc = roc_auc_score(y_test,y_predict)
# ------------------------------------  第六部分 模型评价  --------------------------------------#
# 绘制 ROC曲线
from sklearn import metrics
import matplotlib.pyplot as plt
# fpr假正率,tpr召回率,thresholds阈值,pos_label(设置正样本值)默认为None(标签数据为二分类的情况)
fpr, tpr, thresholds = metrics.roc_curve(y_test, y_predict, pos_label=1)
roc_auc = metrics.auc(fpr, tpr)  # auc为Roc曲线下的面积
plt.plot(fpr, tpr, 'r')  # 绘制ROC曲线
axline = np.array([0.,0.2,0.4,0.6,0.8,1.0])  # 斜线参考线坐标
plt.plot(axline,axline,'gray',linestyle='--',alpha=0.5)
plt.grid(b=True,axis='both',alpha=0.3)  # 显示网格
plt.xlim([-0.05, 1.05])  # 设置x轴刻度范围
plt.ylim([-0.05, 1.05])  # 设置y轴刻度范围
plt.xlabel('FPR')  # x轴是False Positive Rate
plt.ylabel('TPR')  # y轴是True Positive Rate
plt.title('AUC = %0.2f' % roc_auc)
plt.show()
# ------------------------------------  第七部分 模型应用  --------------------------------------#
# 预测给定的测试集
pre_test = new_test_data[features]
result = GBC_model.predict_proba(pre_test)[:,1]
test_result = new_test_data[['User_id','Coupon_id','Date_received']]
test_result['Probability'] = result
# 查看描述性结果
test_result['Probability'].describe()
test_result.to_csv('./new_sample_submission.csv',index=None,header=None)

阿里云天池实战赛o2o:优惠券使用预测(代码实现)相关推荐

  1. Sklearn:天池新人实战赛o2o优惠券使用预测 part1

    日萌社 人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新) 阿里云官网:天池新人实战赛o2o优惠券使用预测 数据集下载链接 ...

  2. Sklearn:天池新人实战赛o2o优惠券使用预测 part2

    日萌社 人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新) 阿里云官网:天池新人实战赛o2o优惠券使用预测 数据集下载链接 ...

  3. 天池新人实战赛o2o优惠券使用预测四(别家代码分析1)

    弄了2天,发现还是对python不够熟悉,完全不能实现我的各种设想,所以,还是先参考别人的代码,先明白别人的思路和python的写法再说吧. 源代码地址请直接在CSDN上搜索,原文说未经许可不得转载, ...

  4. 阿里云天池 学习赛汇总(教学赛,零基础入门,长期赛)

    [教学赛]数据分析达人赛1:用户情感可视化分析 [教学赛]数据分析达人赛2:产品关联分析 [教学赛]数据分析达人赛3:汽车产品聚类分析 零基础入门语音识别-食物声音识别 零基础入门数据挖掘-心跳信号分 ...

  5. 天池比赛:o2o优惠券使用预测

    一.比赛背景 O2O:全称Online To Offline,线上线下电子商务,是把线上的消费者带到现实的商店中去:在线支付线下商品.服务,再到线下去享受服务.通过打折(例如团购).提供信息.服务(例 ...

  6. 阿里云天池大赛赛题(机器学习)——O2O优惠券预测(完整代码)

    目录 赛题背景 全代码 算法包及全局变量 工具函数 训练及结果输出 算法分析 调参 整合及输出结果 赛题实践 结果生成 绘制学习曲线 参数调优 赛题背景 O2O行业天然关联着数亿消费者,各类App每天 ...

  7. 国内首本数据竞赛图书《阿里云天池大赛赛题解析——机器学习篇》今日开启预售!

    天池平台已经举办了超过 200 场来自真实业务场景的竞赛,每场赛事沉淀的课题和数据集,将在天池保留和开放.天池平台已成为在校学生踏入职场前的虚拟实践基地,也成为聚集40万数据人才,孵化2000余家数据 ...

  8. 阿里云天池大赛赛题解析——机器学习篇 | 留言赠书

    国内第一本针对竞赛实操的图书:<阿里云天池大赛赛题解析--机器学习篇>,正式发售. 阿里云天池7年200多场数据大赛精华提取录 为什么写这本书 七年前,天池团队的几名创始成员带着" ...

  9. 阿里云天池大赛赛题(机器学习)——天猫用户重复购买预测(完整代码)

    目录 赛题背景 全代码 导入包 读取数据(训练数据前10000行,测试数据前100条) 读取全部数据 获取训练和测试数据 切分40%数据用于线下验证 交叉验证:评估估算器性能 F1验证 Shuffle ...

最新文章

  1. 产生任意区间内的均匀分布的随机整数序列
  2. mysql事务概念_MySQL事务的概念
  3. VTK:可视化之SelectWindowRegion
  4. 同学,解决下这个 Bug!
  5. 为什么BDLocationListener没有被调用
  6. 删除链表中指定节点,要求时间复杂度为O(1)
  7. 路由器用PPP0E上网
  8. mysql大批量数据写入_存储过程写入大批量数据,用于测试mysql查询优化
  9. 使用15年,竟未得授权?真功夫遭李小龙女儿起诉索赔,回应:我们也很疑惑...
  10. 虚拟化平台cloudstack(4)——几个异常
  11. android --多线程下载
  12. java 53个关键字_java的保留(53个)关键字v11.docx
  13. 如何将 Ubuntu 版本升级到新版本
  14. 项目中用到的一些特殊字符和图标
  15. uploadify php demo,uploadify HTML5 版本,多图上传
  16. 淘宝技术这十年(子柳著)读书笔记
  17. linux下mysql修改时区,linux修改系统时区
  18. C++ 九阴真经之线程安全单例类
  19. Linux环境下如何安装达梦数据库
  20. 计算机ppt翻页笔,ppt翻页笔怎么使用?

热门文章

  1. 如何选择一款好用的健身房软件?
  2. CCF CSP 202112-2 序列查询新解
  3. 天青色等烟雨,而我在等你
  4. 关于github在linux上的加速DNS设置
  5. ubuntu各版本种子地址
  6. 计算机软件著作评职称有用吗,软件著作评职称有用吗
  7. 2022年湖南省临床执业医师考试第二单元生理学模拟题
  8. 网络安全学习笔记(适合初学者)
  9. 英文文字中有标点符号然后换行显示一大段空白
  10. android--graphics