背景

关于用户留存有这样一个观点,如果将用户流失率降低5%,公司利润将提升25%-85%。如今高居不下的获客成本让电信运营商遭遇“天花板”,甚至陷入获客难的窘境。随着市场饱和度上升,电信运营商亟待解决增加用户黏性,延长用户生命周期的问题。因此,电信用户流失分析与预测至关重要。
数据集来自kesci中的“电信运营商客户数据集”
数据集:添加链接描述

本文将从以下方面进行分析:

1.背景
2.提出问题
3.理解数据
4.数据清洗
5.可视化分析
6.用户流失预测
7.结论和建议

提出问题

1.分析用户特征与流失的关系。
2.从整体情况看,流失用户的普遍具有哪些特征?
3.尝试找到合适的模型预测流失用户。
4.针对性给出增加用户黏性、预防流失的建议。

理解数据

根据介绍,该数据集有21个字段,共7043条记录。每条记录包含了唯一客户的特征。
我们目标就是发现前20列特征和最后一列客户是否流失特征之间的关系。

数据清洗

数据清洗的“完全合一”规则:

完整性:单条数据是否存在空值,统计的字段是否完善。
全面性:观察某一列的全部数值,通过常识来判断该列是否有问题,比如:数据定义、单位标识、数据本身。
合法性:数据的类型、内容、大小的合法性。比如数据中是否存在非ASCII字符,性别存在了未知,年龄超过了150等。
唯一性:数据是否存在重复记录,因为数据通常来自不同渠道的汇总,重复的情况是常见的。行数据、列数据都需要是唯一的。
导入工具包。

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
customerDF = pd.read_csv('/home/kesci/input/yidong4170/WA_Fn-UseC_-Telco-Customer-Churn.csv')
# 查看数据集大小
customerDF.shape
# 运行结果:(7043, 21)# 设置查看列不省略
pd.set_option('display.max_columns',None)# 查看前10条数据
customerDF.head(10)

# Null计数
pd.isnull(customerDF).sum()
# 查看数据类型
customerDF.info()
#customerDf.dtypes#将‘TotalCharges’总消费额的数据类型转换为浮点型,发现错#误:字符串无法转换为数字。

依次检查各个字段的数据类型、字段内容和数量。最后发现“TotalCharges”(总消费额)列有11个用户数据缺失。

# 查看每一列数据取值
for x in customerDF.columns:test=customerDF.loc[:,x].value_counts()print('{0} 的行数是:{1}'.format(x,test.sum()))print('{0} 的数据类型是:{1}'.format(x,customerDF[x].dtypes))print('{0} 的内容是:\n{1}\n'.format(x,test))


采用强制转换,将“TotalCharges”(总消费额)转换为浮点型数据。

#强制转换为数字,不可转换的变为NaN
customerDF['TotalCharges']=customerDF['TotalCharges'].convert_objects(convert_numeric=True)

#强制转换为数字,不可转换的变为NaN
customerDF[‘TotalCharges’]=customerDF[‘TotalCharges’].convert_objects(convert_numeric=True)

test=customerDF.loc[:,'TotalCharges'].value_counts().sort_index()
print(test.sum())
#运行结果:7032print(customerDF.tenure[customerDF['TotalCharges'].isnull().values==True])
#运行结果:11#将总消费额填充为月消费额
customerDF.loc[:,'TotalCharges'].replace(to_replace=np.nan,value=customerDF.loc[:,'MonthlyCharges'],inplace=True)
#查看是否替换成功
print(customerDF[customerDF['tenure']==0][['tenure','MonthlyCharges','TotalCharges']])# 将‘tenure’入网时长从0修改为1
customerDF.loc[:,'tenure'].replace(to_replace=0,value=1,inplace=True)
print(pd.isnull(customerDF['TotalCharges']).sum())
print(customerDF['TotalCharges'].dtypes)

查看数据的描述统计信息,根据一般经验,所有数据正常。

查看数据的描述统计信息,根据一般经验,所有数据正常。

可视化分析

根据一般经验,将用户特征划分为用户属性、服务属性、合同属性,并从这三个维度进行可视化分析。

查看流失用户数量和占比。

plt.rcParams['figure.figsize']=6,6
plt.pie(customerDF['Churn'].value_counts(),labels=customerDF['Churn'].value_counts().index,autopct='%1.2f%%',explode=(0.1,0))
plt.title('Churn(Yes/No) Ratio')
plt.show()

churnDf=customerDF['Churn'].value_counts().to_frame()
x=churnDf.index
y=churnDf['Churn']
plt.bar(x,y,width = 0.5,color = 'c')#用来正常显示中文标签(需要安装字库)
plt.title('Churn(Yes/No) Num')
plt.show()

属于不平衡数据集,流失用户占比达26.54%。

(1)用户属性分析

def barplot_percentages(feature,orient='v',axis_name="percentage of customers"):ratios = pd.DataFrame()g = (customerDF.groupby(feature)["Churn"].value_counts()/len(customerDF)).to_frame()g.rename(columns={"Churn":axis_name},inplace=True)g.reset_index(inplace=True)#print(g)if orient == 'v':ax = sns.barplot(x=feature, y= axis_name, hue='Churn', data=g, orient=orient)ax.set_yticklabels(['{:,.0%}'.format(y) for y in ax.get_yticks()])plt.rcParams.update({'font.size': 13})#plt.legend(fontsize=10)else:ax = sns.barplot(x= axis_name, y=feature, hue='Churn', data=g, orient=orient)ax.set_xticklabels(['{:,.0%}'.format(x) for x in ax.get_xticks()])plt.legend(fontsize=10)plt.title('Churn(Yes/No) Ratio as {0}'.format(feature))plt.show()
barplot_percentages("SeniorCitizen")
barplot_percentages("gender")


customerDF['churn_rate'] = customerDF['Churn'].replace("No", 0).replace("Yes", 1)
g = sns.FacetGrid(customerDF, col="SeniorCitizen", height=4, aspect=.9)
ax = g.map(sns.barplot, "gender", "churn_rate", palette = "Blues_d", order= ['Female', 'Male'])
plt.rcParams.update({'font.size': 13})
plt.show()

小结:
用户流失与性别基本无关;
年老用户流失占显著高于年轻用户。

fig, axis = plt.subplots(1, 2, figsize=(12,4))
axis[0].set_title("Has Partner")
axis[1].set_title("Has Dependents")
axis_y = "percentage of customers"# Plot Partner column
gp_partner = (customerDF.groupby('Partner')["Churn"].value_counts()/len(customerDF)).to_frame()
gp_partner.rename(columns={"Churn": axis_y}, inplace=True)
gp_partner.reset_index(inplace=True)
ax1 = sns.barplot(x='Partner', y= axis_y, hue='Churn', data=gp_partner, ax=axis[0])
ax1.legend(fontsize=10)
#ax1.set_xlabel('伴侣')# Plot Dependents column
gp_dep = (customerDF.groupby('Dependents')["Churn"].value_counts()/len(customerDF)).to_frame()
#print(gp_dep)
gp_dep.rename(columns={"Churn": axis_y} , inplace=True)
#print(gp_dep)
gp_dep.reset_index(inplace=True)
#print(gp_dep)ax2 = sns.barplot(x='Dependents', y= axis_y, hue='Churn', data=gp_dep, ax=axis[1])
#ax2.set_xlabel('家属')#设置字体大小
plt.rcParams.update({'font.size': 20})
ax2.legend(fontsize=10)#设置
plt.show()

# Kernel density estimaton核密度估计
def kdeplot(feature,xlabel):plt.figure(figsize=(9, 4))plt.title("KDE for {0}".format(feature))ax0 = sns.kdeplot(customerDF[customerDF['Churn'] == 'No'][feature].dropna(), color= 'navy', label= 'Churn: No', shade='True')ax1 = sns.kdeplot(customerDF[customerDF['Churn'] == 'Yes'][feature].dropna(), color= 'orange', label= 'Churn: Yes',shade='True')plt.xlabel(xlabel)#设置字体大小plt.rcParams.update({'font.size': 20})plt.legend(fontsize=10)
kdeplot('tenure','tenure')
plt.show()

小结:
有伴侣的用户流失占比低于无伴侣用户;
有家属的用户较少;
有家属的用户流失占比低于无家属用户;
在网时长越久,流失率越低,符合一般经验;
在网时间达到三个月,流失率小于在网率,证明用户心理稳定期一般是三个月。

(2)服务属性分析

plt.figure(figsize=(9, 4.5))
barplot_percentages("MultipleLines", orient='h')

plt.figure(figsize=(9, 4.5))
barplot_percentages("InternetService", orient="h")

cols = ["PhoneService","MultipleLines","OnlineSecurity", "OnlineBackup", "DeviceProtection", "TechSupport", "StreamingTV", "StreamingMovies"]
df1 = pd.melt(customerDF[customerDF["InternetService"] != "No"][cols])
df1.rename(columns={'value': 'Has service'},inplace=True)
plt.figure(figsize=(20, 8))
ax = sns.countplot(data=df1, x='variable', hue='Has service')
ax.set(xlabel='Internet Additional service', ylabel='Num of customers')
plt.rcParams.update({'font.size':20})
plt.legend( labels = ['No Service', 'Has Service'],fontsize=15)
plt.title('Num of Customers as Internet Additional Service')
plt.show()

plt.figure(figsize=(20, 8))
df1 = customerDF[(customerDF.InternetService != "No") & (customerDF.Churn == "Yes")]
df1 = pd.melt(df1[cols])
df1.rename(columns={'value': 'Has service'}, inplace=True)
ax = sns.countplot(data=df1, x='variable', hue='Has service', hue_order=['No', 'Yes'])
ax.set(xlabel='Internet Additional service', ylabel='Churn Num')
plt.rcParams.update({'font.size':20})
plt.legend( labels = ['No Service', 'Has Service'],fontsize=15)
plt.title('Num of Churn Customers as Internet Additional Service')
plt.show()


电话服务整体对用户流失影响较小。
单光纤用户的流失占比较高;
光纤用户绑定了安全、备份、保护、技术支持服务的流失率较低;
光纤用户附加流媒体电视、电影服务的流失率占比较高。

(3)合同属性分析¶

plt.figure(figsize=(9, 4.5))
barplot_percentages("PaymentMethod",orient='h')

g = sns.FacetGrid(customerDF, col="PaperlessBilling", height=6, aspect=.9)
ax = g.map(sns.barplot, "Contract", "churn_rate", palette = "Blues_d", order= ['Month-to-month', 'One year', 'Two year'])
plt.rcParams.update({'font.size':18})
plt.show()

kdeplot('MonthlyCharges','MonthlyCharges')
kdeplot('TotalCharges','TotalCharges')
plt.show()


小结:

采用电子支票支付的用户流失率最高,推测该方式的使用体验较为一般;
签订合同方式对客户流失率影响为:按月签订 > 按一年签订 > 按两年签订,证明长期合同最能保留客户;
月消费额大约在70-110之间用户流失率较高;
长期来看,用户总消费越高,流失率越低,符合一般经验。

用户流失预测

对数据集进一步清洗和提取特征,通过特征选取对数据进行降维,采用机器学习模型应用于测试数据集,然后对构建的分类模型准确性进行分析

(1)数据清洗

customerID=customerDF['customerID']
customerDF.drop(['customerID'],axis=1, inplace=True)
cateCols = [c for c in customerDF.columns if customerDF[c].dtype == 'object' or c == 'SeniorCitizen']
dfCate = customerDF[cateCols].copy()
dfCate.head(3)#进行特征编码。for col in cateCols:if dfCate[col].nunique() == 2:dfCate[col] = pd.factorize(dfCate[col])[0]else:dfCate = pd.get_dummies(dfCate, columns=[col])
dfCate['tenure']=customerDF[['tenure']]
dfCate['MonthlyCharges']=customerDF[['MonthlyCharges']]
dfCate['TotalCharges']=customerDF[['TotalCharges']]##查看关联关系plt.figure(figsize=(16,8))
dfCate.corr()['Churn'].sort_values(ascending=False).plot(kind='bar')
plt.show()

(2)特征选取

# 特征选择
dropFea = ['gender','PhoneService','OnlineSecurity_No internet service', 'OnlineBackup_No internet service','DeviceProtection_No internet service', 'TechSupport_No internet service','StreamingTV_No internet service', 'StreamingMovies_No internet service',#'OnlineSecurity_No', 'OnlineBackup_No',#'DeviceProtection_No','TechSupport_No',#'StreamingTV_No', 'StreamingMovies_No',]
dfCate.drop(dropFea, inplace=True, axis =1)
#最后一列是作为标识
target = dfCate['Churn'].values
#列表:特征和1个标识
columns = dfCate.columns.tolist()

(3)构建模型

# 构造各种分类器
classifiers = [SVC(random_state = 1, kernel = 'rbf'),    DecisionTreeClassifier(random_state = 1, criterion = 'gini'),RandomForestClassifier(random_state = 1, criterion = 'gini'),KNeighborsClassifier(metric = 'minkowski'),AdaBoostClassifier(random_state = 1),
]
# 分类器名称
classifier_names = ['svc', 'decisiontreeclassifier','randomforestclassifier','kneighborsclassifier','adaboostclassifier',
]
# 分类器参数
#注意分类器的参数,字典键的格式,GridSearchCV对调优的参数格式是"分类器名"+"__"+"参数名"
classifier_param_grid = [{'svc__C':[0.1], 'svc__gamma':[0.01]},{'decisiontreeclassifier__max_depth':[6,9,11]},{'randomforestclassifier__n_estimators':range(1,11)} ,{'kneighborsclassifier__n_neighbors':[4,6,8]},{'adaboostclassifier__n_estimators':[70,80,90]}
]

(4)模型参数调优和评估

对分类器进行参数调优和评估,最后得到试用AdaBoostClassifier(n_estimators=80)效果最好。

# 对具体的分类器进行 GridSearchCV 参数调优
def GridSearchCV_work(pipeline, train_x, train_y, test_x, test_y, param_grid, score = 'accuracy_score'):response = {}gridsearch = GridSearchCV(estimator = pipeline, param_grid = param_grid, cv=3, scoring = score)# 寻找最优的参数 和最优的准确率分数search = gridsearch.fit(train_x, train_y)print("GridSearch 最优参数:", search.best_params_)print("GridSearch 最优分数: %0.4lf" %search.best_score_)#采用predict函数(特征是测试数据集)来预测标识,预测使用的参数是上一步得到的最优参数predict_y = gridsearch.predict(test_x)print(" 准确率 %0.4lf" %accuracy_score(test_y, predict_y))response['predict_y'] = predict_yresponse['accuracy_score'] = accuracy_score(test_y,predict_y)return responsefor model, model_name, model_param_grid in zip(classifiers, classifier_names, classifier_param_grid):#采用 StandardScaler 方法对数据规范化:均值为0,方差为1的正态分布pipeline = Pipeline([#('scaler', StandardScaler()),#('pca',PCA),(model_name, model)])result = GridSearchCV_work(pipeline, train_x, train_y, test_x, test_y, model_param_grid , score = 'accuracy')

结论和建议

根据以上分析,得到高流失率用户的特征:

用户属性:老年用户,未婚用户,无亲属用户更容易流失;
服务属性:在网时长小于半年,有电话服务,光纤用户/光纤用户附加流媒体电视、电影服务,无互联网增值服务;
合同属性:签订的合同期较短,采用电子支票支付,是电子账单,月租费约70-110元的客户容易流失;
其它属性对用户流失影响较小,以上特征保持独立。
针对上述结论,从业务角度给出相应建议:

根据预测模型,构建一个高流失率的用户列表。通过用户调研推出一个最小可行化产品功能,并邀请种子用户进行试用。
用户方面:针对老年用户、无亲属、无伴侣用户的特征退出定制服务如亲属套餐、温暖套餐等,一方面加强与其它用户关联度,另一方对特定用户提供个性化服务。
服务方面:针对新注册用户,推送半年优惠如赠送消费券,以渡过用户流失高峰期。针对光纤用户和附加流媒体电视、电影服务用户,重点在于提升网络体验、增值服务体验,一方面推动技术部门提升网络指标,另一方面对用户承诺免费网络升级和赠送电视、电影等包月服务以提升用户黏性。针对在线安全、在线备份、设备保护、技术支持等增值服务,应重点对用户进行推广介绍,如首月/半年免费体验。
合同方面:针对单月合同用户,建议推出年合同付费折扣活动,将月合同用户转化为年合同用户,提高用户在网时长,以达到更高的用户留存。 针对采用电子支票支付用户,建议定向推送其它支付方式的优惠券,引导用户改变支付方式。

【数据分析与挖掘实战】电信用户流失分析与预测相关推荐

  1. 电信用户流失分析与预测

    电信用户流失分析与预测 一. 研究背景 二. 分析结论与建议 三. 任务与实现 四. 数据集解析 五. 数据分析套餐 1.准备工作 导入相关的库 导入数据集 2.数据预处理 类型转换 缺失值处理 重复 ...

  2. 实战 | 电信客户流失分析与预测

    本文所有代码都通过运行! 将从以下方面进行分析:1.背景 2.提出问题 3.理解数据 4.数据清洗 5.可视化分析 6.用户流失预测 7.结论和建议 本项目带你根据以上过程详细分析电信客户数据! 01 ...

  3. 数据分析与挖掘实战-家用电器用户行为分析与事件识别

    家用电器用户行为分析与事件识别 背景 居民使用家电过程中,会因为地区气候.区域不同.年龄差异,形成不同的使用习惯,若能深入了解这些习惯,针对性地开发新功能,便能开拓市场. 本案例以热水器为例,分析用户 ...

  4. 实战案例 :电信客户流失分析与预测

    本文所有代码都通过运行! 将从以下方面进行分析:1.背景 2.提出问题 3.理解数据 4.数据清洗 5.可视化分析 6.用户流失预测 7.结论和建议 本项目带你根据以上过程详细分析电信客户数据! 01 ...

  5. 数据分析与挖掘实战-应用系统负载分析与磁盘容量预测

    应用系统负载分析与磁盘容量预测 背景 某大型企业为了信息化发展的需要,建设了办公自动化系统.人力资源管理系统.财务管理系统.企业信息门户系统等几大企业级应用系统.因应用系统在日常运行时,会对底层软硬件 ...

  6. 电信客户流失分析与预测

    一.项目背景 近年来,不论是传统行业还是互联网行业,都面临着用户流失问题.研究表明,企业可以在一周内失去100个用户,而同时又得到另外一个用户,从表明上来看业绩没有受到任何影响,而实际上争取这些新用户 ...

  7. python 数据分析 电信_基于Python的电信客户流失分析和预测

    一.项目背景 电信服务是生活中常见的消费服务,在现代社会,凡是使用手机打电话,或者在家看电视,都必须通过电信运营商提供的通话.网络等服务才能实现.本文采用来自kaggle平台的电信客户数据集,来分析人 ...

  8. 大数据分析案例-对电信客户流失分析预警预测

    目录 1.项目背景 2.项目简介 2.1数据说明 2.2变量介绍 2.3技术工具 3.算法原理 4.项目实施步骤 4.1导入数据 4.2理解数据 4.3数据预处理 4.4数据可视化 4.5特征工程 4 ...

  9. 银行用户流失分析与预测

    一.项目背景与目的 数据来源于Kaggle某项目:Bank Customer Churn | Kaggle 本数据集包括10000条匿名跨国银行的客户数据.数据分析的目的是预测客户流失的概率,然后通过 ...

最新文章

  1. 【温故知新】CSS学习笔记(行高简介)
  2. 西安电子科技大学计算机录取分数,2021年西安电子科技大学投档线及各省最低录取分数线统计表...
  3. 十大经典数据挖掘算法:EM
  4. 【转】Android 最火的快速开发框架XUtils
  5. python对象序列化或持久化的方法
  6. 机器学习算法及应用领域相关的中国大牛
  7. 服务器RAID技术基础
  8. shell逻辑运算符优先级_逻辑运算符有那些?
  9. 跟KingDZ学HTML5之九 HTML5新的 Input 种类
  10. Excel - 数组类型及数组公式
  11. 选课系统 mysql_「选课系统」我的数据库大作业——学生选课系统实现(准备) - seo实验室...
  12. Unity坦克大战完整源码
  13. idea解决Untracked Files Prevent Merge问题
  14. html 标签的语义化
  15. 写一个函数,输出四次“hello world“,每次间隔3秒
  16. EXSI 中新建虚拟机
  17. 《炬丰科技-半导体工艺》氢氟酸中玻璃湿法化学蚀刻的综述
  18. 【MySQL】MySQL中的表锁
  19. MATLAB算法实战应用案例精讲-【图像处理】数字图像二值化(附Java、python、matlab、C++和R语言代码实现)
  20. el-input 输入框禁止输入特殊字符

热门文章

  1. 离线安装vim详细步骤
  2. cnetos 7 安装 nfsen
  3. 《花雕学AI》02:人工智能挺麻利,十分钟就为我写了一篇长长的故事
  4. 启明云端分享| sigmastar SSD201/SSD202D双网口开发板技术相关资料
  5. Linux查看分区文件系统类型的几种方法
  6. 使用JQuery实现一个图书分类的一个效果
  7. sessionStorage与localStorage存储 localStorage.getItem(
  8. 2020年做什么行业,发展比较好?
  9. RestfulToolk----IDEA在线接口测试插件神器
  10. isomorphic graphs 图同构