离散选择模型中的分散系数theta到底该放在哪里呢?
前言
\quad~~ 一直都在想为啥子离散选择模型中分散系数以分母形式出现而在路径选择公式中以系数形式出现呢?看着公式想了想,现在想出了一个似乎感觉应该差不多很合理的答案,希望与大家一起探讨。
进入正题
根据随机效用理论,决策者在面对 n n n 个备选方案做选择时,会根据自身的意愿感知哪一个备选方案对自身而言是最好的,从而作出自身选择。这里的最好用数量来进行衡量就可以说是效用最高的
比如从A点到B点共有 n n n 条路,我现在需要从A点到B点,从节约时间的角度来考虑的话,那么我肯定希望选择最快捷的一条路。即如果我能以最快的时间到达我的目的地的话,对我而言,我就得到了最高的出行效用。
通常呢,我们的感知能力是有限的,如果我们记选择任意一个方案 j j j 的效用为 U j U_j Uj,那么 U j U_j Uj 为一个随机变量,它可以分为两部分,一部分呢是我们可以以实际那数字量化出来的,我们称为系统效用。另一部分呢为我们无法测量出来的,或估测时的误差,为一个随机变量,我们称为感知误差项。因此这里的方案 j j j 的效用 U j U_j Uj 就可以写为系统效用 V j V_j Vj 与随机误差项 ε j \varepsilon_j εj 的和,即:
U j = V j + ε j . (1) U_j=V_j+\varepsilon_j.\tag{1} Uj=Vj+εj.(1)
在多项式Logit模型中,我们假设随机误差项 ε j \varepsilon_j εj 服从零均值的Gumbel分布,其概率密度函数与累积分布函数分别为:
f ( x ) = 1 θ e x p ( − x θ − Φ ) e x p [ − e x p ( x θ − Φ ) ] , (2) f(x)=\frac{1}{\theta}exp(-\frac{x}{\theta}-\Phi)exp[-exp(\frac{x}{\theta}-\Phi)],\tag{2} f(x)=θ1exp(−θx−Φ)exp[−exp(θx−Φ)],(2) F ( x ) = P r ( ε j ≤ x ) = e x p [ − e x p ( x θ − Φ ) ] , (3) F(x)=Pr(\varepsilon_j\leq x)=exp[-exp(\frac{x}{\theta}-\Phi)],\tag{3} F(x)=Pr(εj≤x)=exp[−exp(θx−Φ)],(3)这里的参数 Φ \Phi Φ 为欧拉常数, Φ ≈ 0.577 \Phi\approx0.577 Φ≈0.577。
从而可以得出决策者选择备选方案 j j j 的概率为: p j = P r ( U j > U k , ∀ k ≠ j ) = e x p ( V j / θ ) ∑ k e x p ( V k / θ ) . (4) p_j=Pr(U_j>U_k,\forall k\neq j)=\frac{exp(V_j/\theta)}{\sum_k exp(V_k/\theta)}.\tag{4} pj=Pr(Uj>Uk,∀k=j)=∑kexp(Vk/θ)exp(Vj/θ).(4)
而通常在路径选择情形中我们以出行阻抗作为我们的出行负效用(因为我们出行就会花费时间,金钱等,这都属于是对我们自身资源的一种消耗),负效用越小的路径被选择的可能性就会越大。这里呢,同样因为人们的感知,计算等能力有限,我们所判定的出行负效用也为一个随机变量,为可直接估量的系统效用与随机误差项的和。同样以路径 j j j 为例,其感知出行负效用为 C j C_j Cj, 可进行估测的系统效用为 c j c_j cj,随机误差项为 ξ j \xi_j ξj, 则 C j C_j Cj 就可写为:
C j = c j + ξ j , (5) C_j=c_j+\xi_j,\tag{5} Cj=cj+ξj,(5)那么选择路径 j j j 的效用就可以写为: U j = − C j , (6) U_j=-C_j,\tag{6} Uj=−Cj,(6)那么我们使用概率密度函数公式 (2) 计算得出的选择路径 j j j 的概率为:
p j = P r ( U j > U k , ∀ k ≠ j ) = e x p ( − c j / θ ) ∑ k e x p ( − c k / θ ) . (7) p_j=Pr(U_j>U_k,\forall k\neq j)=\frac{exp(-c_j/\theta)}{\sum_k exp(-c_k/\theta)}.\tag{7} pj=Pr(Uj>Uk,∀k=j)=∑kexp(−ck/θ)exp(−cj/θ).(7)但通常呢,路径选择概率会写为如下形式:
p j = P r ( U j > U k , ∀ k ≠ j ) = e x p ( − θ c j ) ∑ k e x p ( − θ c k ) . (8) p_j=Pr(U_j>U_k,\forall k\neq j)=\frac{exp(-\theta c_j)}{\sum_k exp(-\theta c_k)}.\tag{8} pj=Pr(Uj>Uk,∀k=j)=∑kexp(−θck)exp(−θcj).(8)所以公式 (7) 和 (8) 同样是路径选择概率公式为什么不一样呢?
解决问题
观察概率密度函数,即公式 (2), 如果令 y = − x θ y=-\frac{x}{\theta} y=−θx, 那么就有 f ( − θ y ) = 1 θ e x p ( y − Φ ) e x p [ − e x p ( y − Φ ) ] , (9) f(-\theta y)=\frac{1}{\theta}exp(y-\Phi)exp[-exp(y-\Phi)],\tag{9} f(−θy)=θ1exp(y−Φ)exp[−exp(y−Φ)],(9)那么 θ f ( − θ y ) = e x p ( y − Φ ) e x p [ − e x p ( y − Φ ) ] , (10) \theta f(-\theta y)=exp(y-\Phi)exp[-exp(y-\Phi)],\tag{10} θf(−θy)=exp(y−Φ)exp[−exp(y−Φ)],(10)对应的累积分布函数为 θ F ( − θ y ) = e x p [ − e x p ( y − Φ ) ] , (11) \theta F(-\theta y)=exp[-exp(y-\Phi)],\tag{11} θF(−θy)=exp[−exp(y−Φ)],(11)看着公式 (10) 和公式 (11) 是不是相对于(2),(3) 来说更简洁呢?公式 (10) 和公式 (11) 变成了零均值的标准Gumbel分布。所以如果公式(2)为随机变量 ε j \varepsilon_j εj 的概率密度函数,从简化的角度来看,我们是不是可以让随机变量 ξ j = − ε j / θ \xi_j =- \varepsilon_j/\theta ξj=−εj/θ,即 ε j = − θ ξ j \varepsilon_j= -\theta \xi_j εj=−θξj,那么为了统一公式 (6),我们可以令 V j = − θ c j V_j = -\theta c_j Vj=−θcj,那么 ε j \varepsilon_j εj 经过处理后的概率密度函数就可以表示为公式 (10) 和公式 (11),即选择路径 j j j 的概率就表示为 p j = ∫ − ∞ + ∞ e x p [ − e x p ( ε j + V j − V k − Φ ) ] ∗ e x p ( ε j − Φ ) e x p [ − e x p ( ε j − Φ ) ] d ε j , (12) p_j=\int_{-\infty}^{+\infty}exp[-exp(\varepsilon_j+V_j-V_k-\Phi)]* \\ exp(\varepsilon_j-\Phi)exp[-exp(\varepsilon_j-\Phi)]d\varepsilon_j, \tag{12} pj=∫−∞+∞exp[−exp(εj+Vj−Vk−Φ)]∗exp(εj−Φ)exp[−exp(εj−Φ)]dεj,(12)
整理可得概率公式为: p j = P r ( U j > U k , ∀ k ≠ j ) = e x p ( V j ) ∑ k e x p ( V k ) , (13) p_j=Pr(U_j>U_k,\forall k\neq j)=\frac{exp(V_j)}{\sum_k exp(V_k)},\tag{13} pj=Pr(Uj>Uk,∀k=j)=∑kexp(Vk)exp(Vj),(13)将 V j = − θ c j V_j = -\theta c_j Vj=−θcj代入公式 (13),即得到公式 (8)。
离散选择模型中的分散系数theta到底该放在哪里呢?相关推荐
- 非期望产出的sbm模型_线性模型 vs. Logistic模型——离散选择模型之二
前言:为什么因变量是分类变量的时候,我们会选择Logistic模型.而非最常见的线性回归模型?或者,换个说法:线性回归模型的劣势是什么?Logistic模型的优势又是什么?--针对这些问题,本文为您详 ...
- logit回归模型_你们要的二项Logit模型在这里——离散选择模型之八
前言:本文主要介绍如何以效用最大化理论为基础,推导出二项 Logit(Binary Logit)模型. 本文为系列离散选择模型(Discrete Choice Model, DCM)系列文章的第8篇. ...
- 离散选择模型之Gumbel分布
文章目录 Gumbel 分布 matlab 产生服从极值分布的相关函数 I类型极值分布(Gumbel分布) 广义极值分布 附录----[数据介绍](https://www.sohu.com/a/303 ...
- 离散选择模型(Discrete Choice model)
目录 1. 什么是离散选择模型? 1.1 基本概念 1.2 效用 1.3 离散选择模型的类型 2. 线性概率模型 3. Probit模型 3.1 效用最大化准则 4. Logit模型 4.1 Gumb ...
- 二值logit模型的适用条件_你们要的二项Logit模型在这里——离散选择模型之八...
前言:本文主要介绍如何以效用最大化理论为基础,推导出二项 Logit(Binary Logit)模型. 本文为系列离散选择模型(Discrete Choice Model, DCM)系列文章的第8篇. ...
- python拟合离散数据_Logit模型拟合实战案例(Python)——离散选择模型之六
前言:本文详细介绍如何在Python中拟合Logit模型,包括数据准备.哑变量的处理.参数拟合结果解读等内容. 本文为系列离散选择模型(Discrete Choice Model, DCM)系列文章的 ...
- 离散选择模型(DCM)和深度神经网络(DNN)结合
前言:这篇文章是深度学习和传统离散选择模型的融合. 机器学习在交通运输领域中越来越多地被应用,但 DCM(discrete choice model, 离散选择模型)和 DNN(deep neural ...
- logit模型应用实例_最大似然估计(上)——离散选择模型之十
原创文章,如需转载请联系作者! 希望这篇文章能讲清楚什么是"最大似然估计". 通过前文的推理,我们已经得到了二项Probit和二项Logit的模型表达式.在二项Probit模型中, ...
- 效用最大化准则:离散选择模型的核心(二项Logit模型)——离散选择模型之九
效用最大化准则:离散选择模型的核心(二项Logit模型)--离散选择模型之九 (qq.com)
最新文章
- Linux下配置rdate时间服务器
- iOS 查看崩溃日志
- 项目托管到Github
- python怎么清空屏幕_python如何清屏
- Lombok的@Data生成的hashCode和equals方法坑
- jquery选择器连续选择_JQuery中的选择器
- 《剑指Offer》 二维数组中的查找
- 【Kafka】Kafka 镜像 Kafka mirroring (MirrorMaker)
- alert点击完确定关闭浏览器窗口_为Microsoft Edge浏览器开启标签组功能
- 各国语言(语系)代码表(ZH-TW, ZH-CN,EN-US...) JSON 格式 [繁中/简中/英文格式]
- 《七周七并发模型》作者Paul Butcher、阿里云研究员余锋(褚霸)——QCon北京2016前瞻...
- 01_DM 主备集群体验故障状态切换
- Swift - 视频录制教程3(设置拍摄窗口大小,录制正方形视频)
- android手机传文件,Android手机间如何高速互传文件?
- SOA 服务设计-传统车载架构的迭代升级
- 售前工程师——PaaS
- 零散知识点20180403
- h1283命令行下刷机法
- wen服务器型号,查看服务器是否使用了HTTP2.htm
- wagon-maven-plugin 实现远程部署
热门文章
- 精心收藏风林火山系统下载
- 服务器文件自动备份工具
- python autosub_9.1如何使用autosub自动生成音频视频字幕
- 02-什么是域名?什么是网址?
- mysql deadlock found_MySQLTransactionRollbackException: Deadlock found when trying to get lock
- 如何删除需要使用管理员权限才能删除的文件?
- 外部存储之SDcard
- 13视频监控-02视频监控画面-videopanel
- EM规划器:EMPlanner
- 4.3 论文笔记 | Achieving Keyless CDNs with Conclaves