开源一个0.827的baseline
没做太多特征,读数据,看分布,如果分布是长尾分布就加个变换
去掉相关系数低于0.05的特征
对某些在某些区间聚集较为明显的特征分桶处理
网格调参,我还没跳到最优,太慢了
采用xgb,rf融合模型
注释已经很详细了
进不去前14,拿不了复赛名额,就开源吧
是用jupyter写的,ipynb文件发到了大赛群里

#!/usr/bin/env python
# coding: utf-8# In[1]:import warnings
warnings.filterwarnings("ignore")import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns# ## 读取数据# In[2]:train_set = pd.read_csv('./train_set.csv')
train_set.head()# ### 正样本占比0.2# In[3]:train_label = pd.read_csv('./train_label.csv')
train_label[train_label['label'] == 1].shape[0] / train_label.shape[0]# In[4]:# 测试集读入
test = pd.read_csv('result_predict_A.csv')
test['label'] = -1
# test.info()# In[5]:# 全样本构建,flag判断是训练集还是测试集
train = pd.merge(train_set, train_label)
all_data = train.append(test).reset_index(drop='True')
all_data['flag'] = all_data['label'].map(lambda x: 'test' if x == -1 else 'train')
# all_data['X5'].mode()
all_data['X5'] = all_data['X5'].fillna('大众用户')
all_data[all_data['X6'].isnull() & (all_data['label'] == -1)]
all_data.head()# In[91]:all_data.info()# ### 测试集中X6到17缺失的人直接赋值0
# ### X5用众数即大众用户填充# ### X6,X7,X8具有强相关性,X4和userid有强相关性,X3,32,33和6,7,8有关系# In[6]:train.corr()  #3,6,7,8,32,33,24# In[7]:corr_dict = dict(train.corr()[train.corr() > 0.1].iloc[:, -1].dropna())
columns = list(corr_dict.keys())[:-1]    # 强相关的列# ### 进一步分析相关性# In[8]:train['X5'] = train['X5'].fillna('大众用户')
set(train['X5'].to_list())# ## 特征工程# ### 考虑6-14要不要删除
# ### 24,28极强相关# In[10]:# columns = ['X3', 'X5', 'X15', 'X16', 'X17', 'X24', 'X29', 'X32', 'X34', 'X37', 'X39']
# columns = ['X' + str(i) for i in [3,5,6,7,8,9,10,11,12,13,14,15,16,17,24,29,32,33,34,37,39]]
columns = ['X' + str(i) for i in [3,5,6,7,8,9,12,15,16,17,24,29,32,34,37,38,39,41,42,43]]
columns.append('user_id')# ### 尝试加入其他特征# In[11]:all_data = all_data[[i for i in columns] + ['label', 'flag']]
all_data['X38'] = all_data['X38'].fillna(0)
all_data.head()# In[12]:all_data = all_data.dropna(axis=0, subset=['X16'])
all_data.info()# 改变数据分布# In[13]:all_data['X8'] = np.log(all_data['X8'].values+1)
sns.kdeplot(all_data['X8'], color="Red", shade = True)# In[14]:all_data['X7'] = np.log(all_data['X7'].values+1)
sns.kdeplot(all_data['X7'], color="Red", shade = True)# In[15]:all_data['X6'] = np.log(all_data['X6'].values+1)
sns.kdeplot(all_data['X6'], color="Red", shade = True)# In[16]:all_data['X9'] = np.log(all_data['X9'].values+1)
sns.kdeplot(all_data['X9'], color="Red", shade = True)# In[17]:all_data['X15'] = np.log(all_data['X15'].values+1)
sns.kdeplot(all_data['X15'], color="Red", shade = True)# In[18]:all_data['X16'] = np.log(all_data['X16'].values+1)
sns.kdeplot(all_data['X16'], color="Red", shade = True)# 新增特征# In[19]:def trans(x):if x <= 1:return 0elif x > 1 and x < 6:return 1else:return 2# In[20]:all_data['X16_range'] = all_data['X16'].apply(trans)# In[21]:all_data['X17'] = np.log(all_data['X17'].values+1)
sns.kdeplot(all_data['X17'], color="Red", shade = True)# In[22]:sns.kdeplot(all_data['X24'], color="Red", shade = True)# In[23]:sns.kdeplot(all_data['X29'], color="Red", shade = True)# In[24]:all_data.head()# ### 用数字特征填补缺失值# In[25]:sns.kdeplot(all_data['X3'], color="Red", shade = True)
all_data['X3'] = all_data['X3'].fillna(3)# In[26]:sns.kdeplot(all_data['X29'], color="Red", shade = True)    # 24,32,33
all_data['X29'] = all_data['X29'].fillna(0)# In[35]:sns.kdeplot(all_data['X34'], color="Red", shade = True)    # 24,32,33
all_data['X34'] = all_data['X34'].fillna(0)# In[27]:all_data = pd.concat([pd.get_dummies(all_data['X5']), all_data], axis=1).drop('X5', axis=1)
all_data.head()# 处理X32# In[31]:all_data['X32'] = np.log(all_data['X32'].values+1)
sns.kdeplot(all_data['X32'], color="Red", shade = True)# In[ ]:# 填充缺失值
from sklearn.ensemble import RandomForestRegressor
temp = all_data# X32
known = temp[temp['X32'].notnull()]
unknown = temp[temp['X32'].isnull()]
X = known.drop(['user_id', 'X32', 'label', 'flag'], axis=1).valuesy = known['X32'].values
rfr = RandomForestRegressor(random_state=0, n_estimators=100)
rfr.fit(X, y)
predict_X32 = rfr.predict(unknown.drop(['user_id', 'X32', 'label', 'flag'], axis=1).values)
all_data.loc[all_data['X32'].isnull(), 'X32'] = predict_X32# 新增特征# In[124]:def transX32(x):if x < 2.7:return 0elif 2.7 <= x  < 3.15:return 1elif 3.15 <= x < 3.92:return 2elif 3.92 <= x < 4.4:return 3elif 4.4 <= x <4.9:return 3else:return 4# In[125]:all_data['X32_range'] = all_data['X32'].apply(transX32)# In[128]:del all_data['X38']# ### 分割训练集,验证集,测试集# In[137]:train = all_data[all_data['flag'] == 'train'].drop(['flag', 'user_id'], axis=1)
test = all_data[all_data['flag'] == 'test'].drop(['label', 'flag', 'user_id'], axis=1).reset_index(drop=True)# In[140]:import xgboost as xgb
from tqdm import tqdm
from xgboost.sklearn import XGBClassifier
from sklearn.model_selection import GridSearchCV
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error, f1_score  # 均方误差
import catboost as cbX_train, X_cv, y_train, y_cv = train_test_split(train.drop(['label'], axis=1), train['label'], test_size=0.2)# ### 网格调参# In[758]:param_grid = [
{'n_estimators': list(range(100, 501, 100)), 'max_depth':list(range(2,21,5))}
]rf = RandomForestClassifier()
grid_search_rf = GridSearchCV(rf, param_grid, cv=5,scoring='f1')grid_search_rf.fit(train.drop(['label'], axis=1), train['label'])
print(grid_search_rf.best_estimator_)    # max_depth=17,n_estimators=500# In[760]:param_dist = {'n_estimators':list(range(20, 141, 20)), # 120'max_depth':list(range(2,15,5)), # 7'learning_rate':list(np.linspace(0.01,2,5)), # 0.01
#         'subsample':list(np.linspace(0.7,0.9,5)),
#         'colsample_bytree':list(np.linspace(0.5,0.98,3)),
#         'min_child_weight':list(range(1,9,3)) # 6}xgb = XGBClassifier()
grid_search_xgb = GridSearchCV(xgb, param_dist,cv = 3,n_jobs = -1, scoring='f1')grid_search_xgb.fit(train.iloc[:, :-1], train['label'])
print(grid_search_xgb.best_estimator_)# ### 验证集效果# In[141]:train = all_data[all_data['flag'] == 'train'].drop(['flag', 'user_id'], axis=1)
test = all_data[all_data['flag'] == 'test'].drop(['label', 'flag', 'user_id'], axis=1).reset_index(drop=True)
X_train, X_cv, y_train, y_cv = train_test_split(train.drop(['label'], axis=1), train['label'], test_size=0.2)# In[142]:rf = RandomForestClassifier(n_estimators=500, max_depth=17).fit(X_train, y_train)
print('rf F1: {}' .format(f1_score(rf.predict(X_cv), y_cv)))# In[143]:xgb = XGBClassifier().fit(X_train, y_train)
print('xgb F1: {}' .format(f1_score(xgb.predict(X_cv), y_cv)))# In[168]:from sklearn.linear_model import LogisticRegression
for x in np.linspace(500, 1500, 10):clf3 = LogisticRegression(penalty='l2', C=0.1, max_iter=x, tol=1e-4, solver='lbfgs').fit(X_train, y_train)print(x)print('lr F1: {}' .format(f1_score(clf3.predict(X_cv), y_cv)))# In[203]:clf4 = cb.CatBoostClassifier(n_estimators=7000).fit(X_train, y_train)
print('catboost F1: {}' .format(f1_score(clf4.predict(X_cv), y_cv)))# In[206]:y_pred_1 = rf.predict_proba(X_cv)[:, 0]
y_pred_2 = clf4.predict_proba(X_cv)[:, 0]y_pred = (y_pred_1 + y_pred_2 ) / 2
y_pred = list(map(lambda x: 1 if x<0.62 else 0, y_pred))
print(f1_score(y_pred, y_cv))# 遍历找到阈值
score_lst = []
for i in list(np.linspace(0.45,0.75,100)):i = round(i, 4)y_pred = (y_pred_1 + y_pred_2 ) / 2y_pred = list(map(lambda x: 1 if x<i else 0, y_pred))score = f1_score(y_pred, y_cv)score_lst.append([i, score])print('i={}, total F1: {}' .format(i, score))score_lst = np.array(score_lst)
plt.plot(score_lst[:, 0], score_lst[:, 1])# ### 预测# In[1]:clf1 = RandomForestClassifier(n_estimators=500, max_depth=17)
clf2 = cb.CatBoostClassifier(n_estimators=5000)clf1.fit(train.drop(['label'], axis=1), train['label'])
print('训练完了')
clf2.fit(train.drop(['label'], axis=1), train['label'])# In[232]:y_pred_1 = clf1.predict_proba(test)[:, 0]
y_pred_2 = clf2.predict_proba(test)[:, 0]y_pred = (y_pred_1 + y_pred_2 ) / 2
y_pred = list(map(lambda x: 1 if x<0.75 else 0, y_pred))# 添加特殊用户# In[233]:temp = pd.read_csv('result_predict_A.csv')
temp[temp['X16'].isnull()]# In[190]:extra = pd.DataFrame([['2697592699877', 0], ['2697527496793', 0], ['2697624945417', 0]], columns=['user_id', 'label'])
extra.head()# In[234]:result = pd.read_csv('result_predict_A.csv')
result = result.dropna(axis=0, subset=['X16'])result['label'] = y_pred
result = result[['user_id', 'label']]# 加入X16为NAN的三个样本
result = result.append(extra)result.head()# In[235]:result.shape# In[236]:result.to_csv('./submit.csv', index=False)

“梧桐杯”中国移动大数据应用创新大赛 - 智慧城市赛道baseline相关推荐

  1. 报名即将截止,中国移动“梧桐杯”大数据应用创新大赛,寻找大数据敢想者!...

    ↑↑↑关注后"星标"Datawhale 每日干货 & 每月组队学习,不错过 Datawhale赛事 主办方:中国移动信息技术中心 也许,你在大数据分析路上踽踽独行 来这里, ...

  2. 报名即将截止,“梧桐杯”大数据应用创新大赛,邀你进入大数据先锋阵营

    大数据建模不是孤独寂寞的路,面对无数的数字,一定要有人作伴 大数据建模不是望不到头的路,步履坚实的历程,要用成绩来证明 大数据建模不是沉闷无声的路,凝结心血的方案,值得大声说出来 路上的人 或许在电脑 ...

  3. 报名开始!第二届中国移动“梧桐杯”大数据应用创新大赛邀你夺52w大奖!

    为进一步落实中国移动战略,助力公司数字化转型发展,推动高校人才创新培养,由中国移动通信集团有限公司主办,中国移动通信集团北京有限公司.中国移动通信集团湖北有限公司.中国移动通信集团广东有限公司.中国移 ...

  4. 三城演义!第二届中国移动“梧桐杯”大数据应用创新大赛复赛完美收官

    8月19日至26日,第二届中国移动"梧桐杯"大数据应用创新大赛暨大数据创客马拉松大赛的三场复赛路演暨颁奖典礼在杭州.武汉.广州三地成功举办.35支队伍在数智乡村.数智城市.数智交通 ...

  5. 【报名开始】第二届中国移动“梧桐杯”大数据应用创新大赛邀你夺52w大奖

    为进一步落实中国移动战略,助力公司数字化转型发展,推动高校人才创新培养,由中国移动通信集团有限公司主办,中国移动通信集团北京有限公司.中国移动通信集团湖北有限公司.中国移动通信集团广东有限公司.中国移 ...

  6. 大数据应用项目创新大赛_温州首届大数据应用创新大赛决赛名单公布!有你的单位吗?...

    如何发掘和培养一批优秀大数据应用领域专业人才,让大数据应用精准服务经济发展?昨日上午,"图科杯"首届温州市大数据应用创新大赛(初赛)拉开帷幕.据悉,这是温州贯彻落实我省大数据发展实 ...

  7. 大数据应用项目创新大赛_全国高校大数据应用创新大赛

    2015年国务院发布<促进大数据发展行动纲要>,标志着大数据战略正式上升为国家战略.为配合国家大数据战略,加快产业人才培养,教育部增设了"数据科学与大数据技术"本科专业 ...

  8. 大数据应用项目创新大赛_经济管理学院大数据应用创新大赛顺利举行

    为促进大学生大数据时代的应用创新设计能力,培养大学生技术技能.创新思维.实践能力和团队协作的能力,挖掘大数据管理.商务大数据分析等领域的优秀人才,11月27日由营口理工学院教务处主办,经济管理学院承办 ...

  9. 南海发展大数据产业 建设新型智慧城市

    今天(9月5日)上午,佛山市南海区将迎来一大盛事--"南海大数据及工业互联网创新应用工作推进会"(以下简称"推进会")召开,南海将与阿里巴巴.腾讯以及三大通信运 ...

最新文章

  1. 多表拆解 | 数据PM的工作内容
  2. Spring中的后置处理器BeanPostProcessor讲解
  3. 红帽子linux改ip命令,RedHat 7 修改IP地址
  4. javascript笔记:javascript的前世,至于今生嘛地球人都知道了哈
  5. Python爬虫从入门到放弃(二十)之 Scrapy分布式原理
  6. ABS 1.1.0:更多Python和Bash提供最有趣的编程语言
  7. 强化学习算法在京东广告序列推荐场景的应用实践
  8. HAProxy从零开始到掌握
  9. Context 使用不当造成内存泄露
  10. 反射——Reflection
  11. 详谈利用系统漏洞及mysql提权
  12. Shallow heap Retained heap
  13. 深入浅出聊机器学习西瓜书
  14. python中main.py是什么意思_python 模块中的 __init__.py __main__.py的作用
  15. CodeForces 858C Did you mean... 、 CodeForces 858D Polycarp's phone book!黑科技
  16. Process finished with exit code 1 解决方法
  17. web 页面接入局域网监控视频
  18. 【影像学基本知识】有关CT及MRI阅片常识
  19. 黑马程序员:PHP为何能成最抢手后端语言?
  20. 音乐市场只剩腾讯、网易和阿里?豆瓣音乐拆分来搅局

热门文章

  1. 笔记86 | 视频在ACC起来后会跳进度问题分析
  2. css3 Gradient 背景渐变
  3. Error:java: Compilation failed: internal java compiler error
  4. Node开发知识概括
  5. ORB-SLAM2初步(跟踪模块)
  6. 网站建设十大忠告,新手建站必看
  7. IOS的Target-action 设计模式
  8. JavaScript把客户端时间转换为北京时间
  9. Oracle 数据库管理脚本 命名规范
  10. 硬盘分区表和文件分配表格式