来源:大数据DT本文约6500字,建议阅读10分钟 本文将结合示例,讲解选择行为的经济学理论和计量分析模型,详细介绍用户选择行为的分析方法论。

[ 导读 ]生活中的选择行为无处不在,数据分析师面对的商业场景也存在大量的用户选择问题。系统、科学地研究用户选择问题,得到选择行为背后的客观规律并基于这些规律提出业务优化策略,这些能力对于数据分析师非常重要且极具价值。

01 引子:以出行为例剖析选择行为的具体逻辑

下面以选择出行方式为例,剖析选择行为的具体逻辑,为后面的学习做好铺垫。

1. 出行选择的场景还原

出行就是“在某时从A点到达B点”,这一行为主要面临的选择是“以什么方式前往”,回想一下我们平时做出行选择时,是否有如下参考信息浮现在脑海。

  • 可以选择的交通方式有哪些?

  • 同程的人多不多?

  • 需要在什么时间到达?

  • 出行预算是多少?

  • 公共交通的便捷程度?

  • 出行方式是否受天气影响?

通常,我们会带着这些疑问打开出行类App看看各类交通方式的花费、耗时及路线,可能还会打开天气App看看未来一段时间是否下雨、是否有严重的雾霾,如图1-1所示。

▲图1-1 打开App查看出行路线和天气

2. 出行选择的决策逻辑

接下来,我们通过一个更加具体的案例说明出行选择的决策逻辑:有200个家庭要进行家庭旅行,每个家庭的情况不同(包括出行人数、目的地、家庭年收入等),每个家庭都会在飞机、火车、长途巴士及自驾车中选择一种作为出行方式。

不同的家庭会有不同的选择,在选择的表象下有着相似的决策逻辑。我们尝试置身于这个场景中,在大脑里构建一张类似图1-2的打分表

出行方式的属性可以主要归结为行程外(等车)耗时、行程中耗时、行程花费、舒适性等,确定这些出行方式的属性后,再结合自身属性(家庭收入、出行人数等),对每个选项进行定性/定量的排序,得到最适合自己的选择结果。

▲图1-2 旅行出行方式打分表

在选择的过程中,如果某个因素发生变化,就有可能对选择结果产生影响。例如:其他因素保持不变,由于航空公司促销,机票价格比火车票还便宜,你的选择是不是会从火车改为飞机呢?再假设,临行前你收获一笔超过预期的奖金,可支配的现金增多,是不是也会从火车改为飞机呢?

回忆一下我们生活中其他方面的选择,其实也秉持类似的方式。经济学家、心理学家经过长期研究,发现人类个体间的“选择之道”存在较高相似性,对这些相似性加以总结就形成了一系列选择行为的经济学理论。

这些长期沉淀下来的理论对于数据分析师来说是非常有价值的,它不仅能帮助我们从本质上理解相关计量选择模型的原理,还能在对业务方进行分析阐述时有理论背书,下面我们开始学习选择行为的经济学理论。

02 选择行为的经济学理论

选择行为主要有两个经济学派别,分别是理性人选择和行为经济学。尽管行为经济学在某些方面对理性人选择提出了挑战,但理性人选择仍然是群体选择行为分析的主流理论框架。本文后续内容均基于理性人选择。

1. 理性人选择理论

理性人选择是指经济决策的主体是充满理智的,他们对于所处环境具有完备的知识,能够找到实现目标的所有备选方案,有稳定且清晰的偏好,拥有很强的计算能力,能预测每种方案的选择后果,并依据某种衡量标准从这些方案中做出最优选择,选择的唯一目标是自身经济利益最大化。

结合上文的出行案例,我们先来解释什么是理性人选择

当我们选择出行方式时,首先确认每种交通方式的重要属性(行程外耗时、行程中耗时、行程花费、舒适性)、自身属性(家庭收入、出行人数)、客观因素(天气);然后基于这些信息为每个方案计算一个偏好值并排序;最终选择偏好值最大的选项。

如果选择了自驾车,那么说明综合多种因素,自驾是最能获得满足感的出行方式。

2. 效用理论

消费者内心的满足感其实可以用一个经济学的词汇来表示,即“效用”。依照每种选择方案的“效用”排序进行选择的过程叫作“效用最大化”,这就是理性人选择理论最常用的准则,学术上的描述是当消费者面对一系列备选商品的时候,他们会清楚地计算每个商品的效用,并严格将所有商品按照效用排序,选择效用最大化的商品。

读到这里你也许会有疑问,尽管我们认同选择时确实是基于理性人选择理论,但如此抽象的理论怎样才能在实际的数据分析中发挥作用呢?哪怕知道了影响选择行为的因素,也无法得出效用的计算公式。此时,我们需要继续学习揭示性偏好理论。

3. 揭示性偏好理论

揭示性偏好理论由美国经济学家保罗·安东尼·萨缪尔森提出。该理论表明:可以结合消费者历史消费行为分析消费者偏好,通过统计分析的方式得到相关因素的量化影响。该理论有以下两个重要假设

  1. 消费者在进行实际消费行为时,若从备选方案中选择了一个选项,即为首选选项,则该选项效用是最大的。

  2. 在给定的消费者预算、商品价格等因素不变的情况下,如果消费者购买了某种产品,那么他将始终做出相同的选择。

在该理论提出之初,包含的影响因素有消费者预算、商品价格以及其他商品或消费者属性。对这些因素进行归纳和拓展,再结合上述假设,形成了离散选择模型的模型框架。

03 离散选择模型

了解了必要的理论知识后,我们开始学习离散选择模型(Discrete Choice Models,DCM)。

DCM不是单一模型,而是一个模型簇,它包含了一系列应对不同选择场景的模型,例如逻辑回归(Logistics Regression,LR)、多项Logit模型(Multinomial Logit Model,MNL)及嵌套Logit模型(Nested Logit Model,NL Model)等。

如图1-3所示,DCM主要包括5个部分,分别是决策者(决策者属性)、备选项集合、备选项属性、决策准则和选择结果,数学表达形式如下。

选择结果 = F(决策者, 备选项集合, 备选项属性)

其中,F是决策准则,即效用最大化准则。模型最终实现的功能是在给定决策者, 备选项集合, 备选项属性后,基于效用最大化准则,得到选择结果。

▲图1-3 离散选择模型的元素及结构

回到旅行出行方式选择的案例中,我们对例子中的元素进行映射。

  • 决策者:一次选择行为的主体(决策者属性包括家庭收入、出行人数、天气)。

  • 备选项集合:飞机、火车、长途巴士、自驾车(不同决策者的备选项集合可以不同)。

  • 备选项属性:行程外耗时、行程中耗时、行程花费、舒适性(不同备选项的属性也可以不同)。

  • 选择准则:效用的最大化准则。

  • 选择结果:备选项中的一个选项(每个选择过程均存在选择结果)。

04 案例分析:使用逻辑回归分析自驾选择问题

基于前文的介绍,相信读者已经迫不及待使用MNL或NL模型进行建模分析了,这里先从LR的实操讲起。LR是目前应用最广泛的可解释二分类模型之一,深入了解LR对我们的日常工作有很大帮助。

通过对案例数据进行一定的处理,可以得到一份满足LR模型要求的宽格式数据。具体数据描述如下所示,场景逻辑如图1-5所示。

OBS_ID:离散,选择行为ID
HINC:连续,家庭收入
PSIZE:连续 or 离散,出行人数
TTME_AIR:连续,站点等待时间(飞机)
TTME_TRAIN:连续,站点等待时间(火车)
TTME_BUS:连续,站点等待时间(长途巴士)
INVC_AIR:连续,金钱成本(飞机)
INVC_TRAIN:连续,金钱成本(火车)
INVC_BUS:连续,金钱成本(长途巴士)
INVC_CAR:连续,金钱成本(自驾)
INVT_AIR:连续,行程中 -时间成本(飞机)
INVT_TRAIN:连续,行程中 -时间成本(火车)
INVT_BUS:连续,行程中 -时间成本(长途巴士)
INVT_CAR:连续,行程中 -时间成本(自驾)
y:离散,是否选择自驾

▲图1-5 LR的场景逻辑示意图

了解数据形式后,开始进行具体的模型搭建工作。

第1步:软件包引入,数据读取

重要的软件包在代码的备注中,如代码清单1-3所示。

  • 代码清单1-3 软件包引入及数据读取

import numpy as np                     # 引入基础软件包numpyimport pandas as pd                    # 引入基础软件包pandasimport statsmodels.api as sm  # 引入Logistic regression软件包statsmodelsfrom sklearn.model_selection import train_test_split # 引入训练集/测试集构造工具包from sklearn import metrics            # 引入模型评价指标AUC计算工具包import matplotlib.pyplot as plt        # 引入绘图软件包import scipy                           # 引入scipy软件包完成卡方检验# 数据读入data_path = 'wide_data.csv'raw_data = pd.read_table(data_path, sep=',', header=0)

第2步:数据预处理

数据预处理工作对于任何模型搭建都是必要的,这里结合LR及后续将介绍的MNL、NL模型的特点着重讲3个数据预处理的要点:①不要存在缺失值;②每一列均为为数值型;③多枚举值离散变量入模前要进行哑变量处理,如代码清单1-4所示。

  • 代码清单1-4 数据预处理

# 1. 缺失值探查&简单处理model_data.info()                      # 查看每一列的数据类型和数值缺失情况# | RangeIndex: 210 entries, 0 to 209# | Data columns (total 9 columns):# | ...# | HINC              210 non-null int64# | ...model_data = model_data.dropna()       # 缺失值处理——删除model_data = model_data.fillna(0)      # 缺失值处理——填充(零、均值、中位数、预测值等)
# 2. 数值型核查(连续变量应为int64或float数据类型)# 若上一步中存在应为连续数值变量的字段为object,则执行下列代码,这里假设'HINC'存在为字符串'null'的值。import re                               # 正则表达式工具包float_patten = '^(-?\\d+)(\\.\\d+)?$'   # 定义浮点数正则pattenfloat_re = re.compile(float_patten)     # 编译model_data['HINC'][model_data['HINC'].apply(lambda x : 'not_float' if float_re.match(str(x)) == None else 'float') == 'not_float'] # 查看非浮点型数据# | 2    null# | Name: distance, dtype: objectmodel_data = model_data[model_data['HINC'] != 'null']model_data['HINC'] = model_data['HINC'].astype(float)

第3步:单变量分析

在建模之前需要先对每个自变量进行单变量分析,确定是否纳入模型,变量分为离散变量和连续变量两种,其分析方式也有所不同。

对于离散变量,我们使用k-1自由度的卡方检验,其中k为离散变量的值个数;对于连续变量,比较简单的分析方法是直接对单变量进行逻辑回归,查看回归系数的显著性,根据AUC分析自变量对y的解释能力。

保留显著的自变量进入到后续的操作,如代码清单1-5所示。

  • 代码清单1-5 单变量分析

# 离散变量分析crosstab = pd.crosstab( model_data['y'],model_data['PSIZE'])p=scipy.stats.chi2_contingency(crosstab)[1]print("PSIZE:",p)# PSIZE: 0.0024577358937625327
# 连续变量分析logistic = sm.Logit(model_data['y'],model_data['INVT_CAR']).fit()p = logistic.pvalues['INVT_CAR']y_predict = logistic.predict(model_data['INVT_CAR'])AUC = metrics.roc_auc_score(model_data['y'],y_predict)result = 'INVT_CAR:'+str(p)+'  AUC:'+str(AUC)print(result)# INVT_CAR:2.971604856310474e-09  AUC:0.6242563699629587

第4步:共线性检验

由于LR模型是一种广义线性模型,变量间严重的共线性会对参数估计的准确性及泛化能力产生影响,因此需要对自变量间的共线性进行分析。

若vif值大于10,可认为变量间具有很强的共线性,需要进行相应的处理,最简单的处理方式就是进行自变量剔除,保留单变量分析中AUC最大的变量。共线性检验示例如代码清单1-6所示。

  • 代码清单1-6 共线性检验

from statsmodels.stats.outliers_influence import variance_inflation_factor #共线性诊断包X = raw_data[[ 'INVT_AIR', 'INVT_TRAIN','INVT_BUS', 'INVT_CAR']]vif = pd.DataFrame()vif['VIF Factor'] = [variance_inflation_factor(X.values, i) for i in range(X.shape[1])]vif['features'] = X.columnsprint('================多重共线性==============')print(vif)# | 0   14.229424    INVT_AIR# | 1   72.782420  INVT_TRAIN# | 2   80.279742    INVT_BUS# | 3   35.003438    INVT_CAR

第5步:模型搭建

这里需要注意的是,对于3值及以上的离散变量要进行哑变量处理(需要记住去掉的枚举值),并且增加截距项Intercept,同时进行训练集和测试集的拆分(目的是防止模型的过拟合,确定分析结论可以泛化),代码如清单1-7所示。

  • 代码清单1-7 搭建LR模型

# 建模数据构造X = model_data[[ 'HINC','PSIZE','TTME_TRAIN' , 'INVC_CAR']]y = raw_data['y']# 哑变量处理dummies = pd.get_dummies(X['PSIZE'], drop_first=False)dummies.columns = [ 'PSIZE'+'_'+str(x) for x in dummies.columns.values]X = pd.concat([X, dummies], axis=1)X = X.drop('PSIZE',axis=1)   # 删去原离散变量X = X.drop('PSIZE_4',axis=1) # 删去过于稀疏字段X = X.drop('PSIZE_5',axis=1) # 删去过于稀疏字段X = X.drop('PSIZE_6',axis=1) # 删去过于稀疏字段X['Intercept'] = 1           # 增加截距项# 训练集与测试集的比例为80%和20%X_train, X_test, y_train, y_test = train_test_split(X, y, train_size = 0.8, random_state=1234)# 建模logistic = sm.Logit(y_train,X_train).fit()print(logistic.summary2())# 重要返回信息# | ------------------------------------------------------------------# |                Coef.   Std.Err.     z     P>|z|    [0.025   0.975]# | ------------------------------------------------------------------# | HINC           0.0264    0.0100   2.6477  0.0081   0.0068   0.0459# | TTME_TRAIN     0.0389    0.0195   1.9916  0.0464   0.0006   0.0772# | INVC_CAR      -0.0512    0.0204  -2.5103  0.0121  -0.0913  -0.0112# | PSIZE_1       -0.3077    0.7317  -0.4206  0.6741  -1.7419   1.1264# | PSIZE_2       -1.0800    0.6417  -1.6829  0.0924  -2.3378   0.1778# | PSIZE_3       -0.7585    0.7582  -1.0004  0.3171  -2.2444   0.7275# | Intercept     -1.8879    1.1138  -1.6951  0.0901  -4.0708   0.2950# | =================================================================# 模型评价print("========训练集AUC========")y_train_predict = logistic.predict(X_train)print(metrics.roc_auc_score(y_train,y_train_predict))print("========测试集AUC========")y_test_predict = logistic.predict(X_test)print(metrics.roc_auc_score(y_test,y_test_predict))# | ========训练集AUC========# | 0.7533854166666667# | ========测试集AUC========# | 0.6510263929618768

第6步:模型修正

可以看到由于不显著变量的影响,模型的测试集AUC与训练集AUC存在较大差异,我们需要对不显著变量进行剔除。可以看到,新建模型的拟合优度尚可(AUC接近0.75),且自变量显著(p < 0.05),可以进行后续解读,如代码清单1-8所示。

  • 代码清单1-8 修正LR模型

X = X.drop('PSIZE_1',axis=1) X = X.drop('PSIZE_2',axis=1) X = X.drop('PSIZE_3',axis=1)# 训练集与测试集的比例为80%和20%X_train, X_test, y_train, y_test = train_test_split(X, y, train_size = 0.8, random_state=1234)# 建模logistic = sm.Logit(y_train,X_train).fit()print(logistic.summary2())# 重要返回信息# | ------------------------------------------------------------------# |                Coef.   Std.Err.     z     P>|z|    [0.025   0.975]# | ------------------------------------------------------------------# | HINC           0.0266    0.0096   2.7731  0.0056   0.0078   0.0454# | TTME_TRAIN     0.0335    0.0161   2.0838  0.0372   0.0020   0.0650# | INVC_CAR      -0.0450    0.0168  -2.6805  0.0074  -0.0778  -0.0121# | Intercept     -2.3486    0.8275  -2.8384  0.0045  -3.9704  -0.7269# | =================================================================print("========训练集AUC========")y_train_predict = logistic.predict(X_train)print(metrics.roc_auc_score(y_train,y_train_predict))print("========测试集AUC========")y_test_predict = logistic.predict(X_test)print(metrics.roc_auc_score(y_test,y_test_predict))# | ========训练集AUC========# | 0.7344618055555555# | ========测试集AUC========# | 0.7419354838709677

第7步:模型解读

DCM模型解读的对象可以分为概率(probability)和几率(odds)。在本例中,概率为“选择自驾的概率”,几率为“选择自驾的概率/不选择自驾的概率”。限于模型的数学性质,无法直接从模型参数中快速得到概率,需要经过一定计算,这部分会在复杂的MNL及NL模型中介绍。

得益于LR的数学性质,分析师可以基于模型参数直接对几率进行解读(这一点类似于线性回归)。模型解读的话术为“在其他条件保持不变的情况下,某因素增长一个单位(或属性a相对属性b),几率会变化(增长或降低)多少”,计算公式如下。

  • 连续变量:odd(xi+1)/odd(xi)-1=exp(βi)-1

  • 离散变量:odd(xj=1)/odd(xj=0)-1=exp(βj)-1

例如,根据模型可知,在其他条件保持不变的情况下,家庭收入增长1个单位,选择自驾的odds会变化,exp(β"HINC" )-1=exp(0.0266)-1=0.027,即增加0.027倍。

在其他条件保持不变的情况下,自驾成本上升1个单位,选择自驾的odds会变化exp(β"INVC_CAR" )-1=exp(-0.0450)-1=-0.044,即下降0.044倍。

关于作者:周银河,现任腾讯数据科学家,曾任滴滴数据科学家,清华大学商学院及哥伦比亚大学商学院商业分析硕士项目指导嘉宾。拥有丰富的数据分析、统计建模及实验设计经验。

本文摘编自《数据科学工程实践:用户行为分析与建模、A/B实验、SQLFlow》,经出版方授权发布。

编辑:黄继彦

校对:林亦霖

腾讯数据科学家手把手教你做用户行为分析(案例:出行选择)相关推荐

  1. 年终福利,Smartbi手把手教你做汇报型分析报告

    时间如白马过隙,一晃又到年尾了,各种总结报告汇报也随之而来.我也接到各种总结汇报规划的要求,这段时间也一直在整这个. ​ 今天我就以一个示例手把手教大家如何进行汇报型分析报告的制作. 首先,我们来了解 ...

  2. 手把手教你做用户画像:3种标签类型、8大系统模块

    导读:在互联网步入大数据时代后,用户行为给企业的产品和服务带来了一系列的改变和重塑,其中最大的变化在于,用户的一切行为在企业面前是可"追溯""分析"的.企业内保 ...

  3. 手把手教你做用户画像体系规划

    乔巴:公司领导让我规划用户画像体系,我之前从没做过,现在感觉就像丈二和尚摸不着头脑.用户画像体系规划是怎样的?整个画像体系有哪些模块?在实施过程中先做哪些,后做哪些?需要哪些人来参与,协作流程是怎样的 ...

  4. bootstraptable 怎么在特定行添加数据_手把手教你做一个“渣”数据师,用Python代替老情人Excel...

    大数据文摘出品 来源:medium 编译:张大笔茹 十年前,你说你是做数据的,大家的反应就是 -- 用 Excel 做做表. 现在,要成为一个合格的数据分析师,你说你不会 Python,大概率会被江湖 ...

  5. 手把手教你做用户画像

    本篇文章是训练营的部分课件,分享给大家,希望能给大家带来启发. 最后,欢迎有问题的小伙伴加微信:yw5201a1 沟通交流. 此外我们的官方网站也上线了,每日分享高质量的文章.原型素材和行业报告,小伙 ...

  6. 炸翻AI和生化环材圈!GPT-4学会自己搞科研,手把手教人类做实验

    [导读]GPT-4等大模型组成的AI智能体,已经可以手把手教你做化学实验了,选啥试剂.剂量多少.推理反应会如何发生,它都一清二楚.颤抖吧,生化环材圈! 不得了,GPT-4都学会自己做科研了? 最近,卡 ...

  7. 微信测试工程师手把手教你做弱网络模拟测试

    微信测试工程师手把手教你做弱网络模拟测试 Posted by 腾讯优测  | 3,152 views 小优有话说: app研发不同于实验室里做研究,哪里有"理想环境". 理想里,用 ...

  8. 手把手教你做关键词匹配项目(搜索引擎)---- 第二十一天

    客串:屌丝的坑人表单神器.数据库那点事儿 面向对象升华:面向对象的认识----新生的初识.面向对象的番外----思想的梦游篇(1).面向对象的认识---如何找出类 负载均衡:负载均衡----概念认识篇 ...

  9. 可视化实战!Python+BI,手把手教你做炫酷的NBA可视化分析

    之前手痒做了一次NBA可视化分析,好多人追着我问教程,这两天终于闲下来了,花时间整理这篇NBA可视化分析教程,手把手教大家做一次炫酷的数据可视化分析! 先部分展示本次教程的作品: 数据获取 本次可视化 ...

最新文章

  1. 第一章 MongoDb概述
  2. 7个极具杀伤性的Linux命令
  3. Linux发行版,分类,CentOS下载
  4. Java Data Access Object Pattern(数据访问对象模式)
  5. 内部使用final参数的原因
  6. node项目发送邮件失败
  7. 邮件办公系统Exchange
  8. Structs2 ModelDriven使用方法介绍
  9. 把 Console 部署成 Windows 服务,四种方式总有一款适合你!
  10. php event_base_new,php event拓展基本使用
  11. 基本的Windows相关的DOS命令
  12. javascript基础修炼(10)——VirtualDOM和基本DFS
  13. 五邑大学计算机组成原理试卷,2017年五邑大学信息工程学院807微机原理与应用[专业硕士]之计算机组成原理考研强化模拟题...
  14. 32乘法运算_算术运算指令
  15. 技术人员如何持续不断的成长?
  16. Java 笔试题---Java与编程模式--7月6日
  17. Java线程之间的协作
  18. 1加6投屏_1加6投屏_6月的早餐,1杯牛奶加燕麦,营养健康又美味,饱腹感很强...
  19. php pdf转为jpg 插件,php使用Image Magick将PDF文件转换为JPG文件的方法
  20. 简单输出斐波那契数列

热门文章

  1. source ubuntu 退出_Ubuntu如何使用source命令执行文件
  2. Java 程序员都该懂的 HashMap
  3. Clojure世界:单元测试
  4. I.MX6 ar1020 SPI device driver hacking
  5. 2013-12-2 学习笔记
  6. 存储的学习:freenas使用记录
  7. os.chdir用法
  8. Python正则表达式:match(),search(),findall()与finditer()的用法
  9. pip如何安装whl
  10. python enumerate()用法