「论文访谈间」是由 PaperWeekly 和中国中文信息学会社会媒体处理专委会(SMP)联合发起的论文报道栏目,旨在让国内优质论文得到更多关注和认可。

研究动机

A* 算法因为它的高效和准确而被广泛应用于路径发现和图遍历等任务上。斯坦福的 Peter Hart, Nils Nilsson and Bertram Raphael(Nils Nilsson 老先生于 2019 年 4 月 23 日去世,哀悼)于 1968 年首次提出了 A* 算法。A* 算法在寻找最优路径的过程中,使用 f(n) 来评价所有候选节点的得分,每次要扩展结点的时候都会选择那个 f(n) 最小的节点:

g(n) 是从出发点到 n 节点的费用值,而 h(n) 是一个被估计的从 n 到终点的费用值。不同于 Dijkstra 算法,A* 算法需要多考虑一个启发值 h(n),通过启发值的帮助,A* 算法可以大大减小搜索空间。

此图引用于:https://www.redblobgames.com/pathfinding/a-star/introduction.html

上图是三种搜索算法的对比,Dijkstra 算法只使用 g(n), 虽然可以找到最优路径,但是搜索空间巨大。贪心的最佳优先(Greedy Best-First)算法只使用 h(n),虽然减小了搜索空间,但是不能保证得到最优的结果。而 A* 算法可以保证得到最优路径,并且大大减小了搜索空间。

传统的 A* 算法使用一些比较简单的指标作为 g(n) 和 h(n),比如欧氏距离,用以解决最短路径等比较简单的问题,因此对于一些复杂的非线性问题的搜索求解并不适用。

在智能交通领域,一个非常典型的例子就是个性化的路径推荐。传统的 A* 算法对于“最短路径”、“最快路径”的搜索非常有效,但是对于“最喜欢的路径”搜索就很难发挥作用。

因为用户的偏好是一个非常复杂的非线性过程,无法用简单的欧氏距离进行度量。面对这样的问题,我们提出使用深度神经网络来学习 A* 算法的 g(n) 和 h(n) 值,以此来帮助 A* 算法解决更为复杂的问题。

研究思路

我们以个性化出行路径推荐为例子介绍神经网络是怎样与 A* 算法结合的。出行路径推荐是一个和我们平时生活息息相关的问题,也一直是各大地图应用的核心算法之一。一个好的路径推荐算法,可以提升人们的出行体验,为经济社会的发展带来价值。

出行路径推荐受到了学术界和工业界的广泛关注,最初的路径规划算法讨论的是怎样在路网上找到一条最短路径。随着时代的发展,基于历史轨迹数据的个性化的路径推荐任务也开始受到研究者们的关注。

过去的路径推荐方案大多以 A* 搜索为框架不同的费用函数对应于不同的搜索任务,比如说以移动距离为费用,那么搜索的便是最短路径,以用时为费用,那么搜索的便是最快路径,以用户的偏好为费用,那么便是个性化的路径推荐。

在现有工作中,大家往往以简单的统计或者浅层的模型来作为搜索的费用函数,但是用户的喜好往往是难以被如此简单地建模的,因此,我们提出用神经网络来学习 A* 搜索算法中的费用函数,以此为基础结合 A* 搜索算法来完成个性化的路径推荐。本文 Empowering A ∗ Search Algorithms with Neural Networks for Personalized Route Recommendation 已经被 KDD 2019 收录,可以通过 https://arxiv.org/pdf/1907.08489.pdf 下载。

模型介绍

任务定义

路径推荐任务中,我们的模型接受一个历史轨迹数据集 D,起点 ls,终点 ld,出发时间 b 和用户 u 作为输入,然后基于输入推荐个性化的轨迹 。形式化地来讲,我们需要找到一条条件概率最高的最优路径:

基于A*算法的解决方案

首先我们讨论传统 A* 算法在路径推荐上的应用。A* 算法是 Dijkstra 算法的扩展,在寻找最优路径的过程中,它每次扩展一个结点 n,然后使用 f(n) 来评价这个节点的得分:

g(n) 是从出发点到 n 节点的费用值,而 h(n) 是一个被估计的从 n 到终点的费用值。我们算法的关键部分就是 h(n) 的设计,它会大大影响算法的效果和性能。

前面已经说过了,我们的任务目标是最大化 Pr(p|q,u,D),它等同于最小化负对数 -logPr(p|q,u,D)。给出一条可能的路径 p:ls→l1→l2…→lm→ld,我们可以将路径的概率分解为各个项之和。

因此,对于一条路径 ls→l1…→li-1,我们可以计算已知费用 g(ls…→li):

为了方便计算条件转移概率,在传统 A* 算法费用函数的计算中,一阶马尔可夫假设经常被使用,因此我们有 Pr(lk+1|ls→lk,q,u)=Pr(lk+1|lk,q,u)。然而在个性化路径推荐的任务中,这样简单的假设并不能很好地建模用户对于每个位置的选择,因此我们需要引入深度学习来建模用户和位置之间的复杂依赖关系。

NASR模型结构

本文的网络主要分为两部分:g() 和 h(),分别对应于 A* 搜索算法中的两个 Cost:g 和 h。g() 学习的是从起点到候选位置的费用,我们称之为可观测费用,而 h() 学习的是从候选位置到终点的费用,我们称之为估计费用。在设计这两个网络的时候,需要满足一些要求:

1. 如何衡量已知路径的费用:怎样捕获用户的个性化偏好,时空特征以及路网限制呢? 用户的每一次的选择都会带来费用,这个费用跟用户的历史信息有关,跟时空信息也有关,并且还受到了路网邻接关系的影响。

2. 如何去衡量未来的费用:给定候选位置和终点,如何衡量这两个位置之间的费用呢?  类似于衡量路网上两个点的距离,在考虑用户偏好的前提下,怎样建模路网上两个位置之间潜在的费用是一个很重要的问题。

特征嵌入:

首先我们介绍多源输入信息的嵌入。通过词嵌入技术,我们将离散的用户信息嵌入到一个低维向量中,用 Vu 来表示。对于每一个位置,我们也使用相似的方法将这个位置嵌入到一个低维向量中,用 Vl 来表示。另外,我们又引入了时间信息,用 Vdi(b) 来表示天的向量,Vhi(b) 来表示小时的向量。最后这四者会被拼接起来成为循环神经网络的输入:

g网络的设计:

我们采用 GRU(门控循环单元)来建模轨迹:

 是 GRU 在第i时刻的隐状态,它包含了该用户当前的移动状态, 是第 i 时刻的上下文向量。在引入了 GRU 之后,我们进一步引入了内部注意力机制来改进建模效果:

在这里是通过内部注意力机制改进了之后的状态向量,att() 是注意力函数:

上式中 w1,W1,W2 是需要学习的参数。在内部注意力机制的基础上,我们又进一步提出了外部注意力机制,将用户的历史轨迹数据也考虑了进来:

上式中  是用户 u 的历史轨迹集合。在实现了两个注意力机制之后,我们开始以下式计算可观察的花费函数,在这个式子中,我们考虑了:

上式中为 li-1 的邻居集合,在上式的基础上我们可以用负对数和来计算 g 函数。

最后我们采用交叉熵来进行优化:

h网络的设计:

对于 h 函数,我们使用图神经网络来建模。

上式中是一个矩阵,这个矩阵每一行都是一个节点的表示, z 是第 z 次迭代。接着,在图神经网络的基础上,我们引入了图注意力神经网络,并在计算注意力机制的时候考虑了移动的状态信息和位置之间的距离信息

在这里  和 w2 都是可学习的参数。既然我们融入了这么多信息,因此我们使用了多头的注意力机制来稳定训练过程。

我们将 A 个参数不同的注意力机制计算的结果拼接起来,是不同的注意力机制的参数。最后,我们使用了一个多层感知机 MLP() 来融合所有信息。

是 GRU 输出的状态向量,是 li 的表示向量,是 ld 的表示向量,是 li 和 ld 之间距离的表示向量。最后,为了对 h() 网络进行训练,我们采用了时间差分的方法。首先我们将用户运动的过程定义为一个马尔可夫决策过程,对于每一次位置的转移,都会得到一个奖励,我们将奖励定义为如下形式。

因此,h() 函数可以被以下式子近似,这个式子代表了未来奖励之和:

上式中,γ 是折扣因子,T 是到达终点时的时间步骤数,距离当前时间点越远,那么这个奖励就需要被打的折扣越多。进一步,通过时间差分法,我们可以将时间差分学习的标签写成如下形式。

预测误差可以被写成如下形式:

最终对于所有用户,所有轨迹的损失函数可以被定义成如下形式:

实验结果

表 2 是模型的性能,对比的都是经典或者最新的算法,可以看出本文的模型表现最佳。图 2 展示了注意力机制,图注意力神经网络以及时序差分学习对于性能的帮助。

图 3 展示了图注意力机制的有效性,我们可视化了路网上每个节点与起点和终点的相似度之和,可以发现,通过图注意力机制,我们的模型可以更多地关注那些可能经过的路网上的节点。而图 4 则展示了我们 h 网络的有效性,通过 h 网络,算法的搜索空间被大大减小了,避免了很多无谓的搜索。

总结

作者提出使用神经网络来学习 A* 搜索中的费用函数,并专门设计了两个网络。这两个网络建模了用户的偏好并充分利用了路网的结构信息,取得了非常好的效果。

按照本文的思路,未来可以尝试设计不同的神经网络来适应不同的路径规划任务,从而满足用户不同的需求。更多关于大数据与城市计算的论文以及相关代码数据请访问:https://www.bigscity.com/。

关于作者

王静远, 北京航空航天大学计算机学院副教授、博士生导师 (https://www.bigscity.com)。他2011年博士毕业于清华大学计算机系,近年来在顶级期刊和会议上发表了30多篇论文,担任了多个重要的国际会议或者期刊评审,并获得多项中国和美国专利。他的研究兴趣包括人工智能,数据挖掘和城市计算。

吴宁,北京航空航天大学计算机学院硕士研究生。目前的研究方向为城市计算和图神经网络。

赵鑫,中国人民大学信息学院副教授、博士生导师 (https://weibo.com/batmanfly)。近五年内在国内外著名学术期刊与会议上以第一作者或者第二作者身份发表论文60余篇。担任多个重要的国际会议或者期刊评审,入选第二届CCF青年人才发展计划。曾获得CIKM 2017最佳短文候选以及AIRS 2017最佳论文奖。他的研究兴趣包括社交媒体数据挖掘,大数据挖掘技术,自然语言处理,人工智能。

主办单位

点击以下标题查看更多往期内容:

  • 巧用文本语境信息:基于上下文感知的向量优化

  • 一文看懂虚假新闻检测(附数据集 & 论文推荐)

  • 一大批中文(BERT等)预训练模型等你认领

  • 万字综述之生成对抗网络(GAN)

  • ACL 2019 | 基于知识增强的语言表示模型

  • NAACL 2019最佳论文:量子概率驱动的神经网络

  • 复旦大学邱锡鹏教授:词法、句法分析研究进展综述

    ?

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

关于PaperWeekly

PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。

▽ 点击 | 阅读原文 | 下载论文

KDD 2019 | 使用神经网络为A*搜索算法赋能:以个性化路径推荐为例相关推荐

  1. 为什么a*算法采用哈密尔顿距离作为启发函数比不在位数为启发函数的性能要好?_KDD2019: 使用神经网络为A*搜索算法赋能 --以个性化路径推荐为例...

    本文系 KDD2019 论文的解读: Wang, Jingyuan, Ning Wu, Wayne Xin Zhao, Fanzhang Peng, and Xin Lin. "Empowe ...

  2. AI和大数据如何落地智能城市?京东城市这6篇论文必读 | KDD 2019

    来源 | 京东城市(ID: icity-jd)作为世界数据挖掘领域的最高级别的学术会议,ACM SIGKDD(国际数据挖掘与知识发现大会,简称 KDD)将于 2019 年 8 月 4 日-8 日在美国 ...

  3. KDD 2019 | 结合属性随机游走的图递归网络

    今天给大家介绍德克萨斯A&M大学的Xiao Huang等人在KDD 2019发表的一篇文章"Graph Recurrent Networks with Attributed Rand ...

  4. PGE - A Representation Learning Framework for Property Graphs 属性图表示学习框架 KDD 2019

    文章目录 1 相关介绍 1.1 背景 1.2 现有方法的局限性 1.3 contributions 2 相关工作 矩阵分解 随机游走 图神经网络中的邻接聚合 3 PGE框架 3.1 符号定义 3.2 ...

  5. KDD 2019|DuerQuiz:一个面向智能招聘笔试、面试的个性化试题推荐系统

    你和"懂AI"之间,只差了一篇论文 很多读者给芯君后台留言,说看多了相对简单的AI科普和AI方法论,想看点有深度.有厚度.有眼界--以及重口味的专业论文. 为此,在多位AI领域的专 ...

  6. KDD 2019高维稀疏数据上的深度学习Workshop论文汇总

    作者 | 深度传送门 来源 | 深度传送门 [导读]本文是"深度推荐系统"专栏的第九篇文章,这个系列将介绍在深度学习的强力驱动下,给推荐系统工业界所带来的最前沿的变化.本文简要总结 ...

  7. ​KDD 2019 | 用户视角看世界:腾讯提出ConcepT概念挖掘系统,助力推荐搜索

    来自腾讯PCG移动浏览器产品部和阿尔伯塔大学的研究者构建了ConcepT概念挖掘标记系统,其利用query搜索点击日志从用户视角提取不同的概念,以便提高对短文本(query)和长文章(document ...

  8. 国际数据挖掘顶会 KDD 2019 研究方向亚军论文《Optimizing Impression Counts for Outdoor Advertising》解读

    KDD简介 第 25 届 ACM SIGKDD 知识发现和数据挖掘会议(KDD)已于今年 8 月 4 日在美国阿拉斯加州安克雷奇开幕.今年的大会奖项分为研究方向和应用数据科学方向.在今天公布的最佳论文 ...

  9. KDD 2019放榜!录取率仅14%,强调可重现性

    [导读]KDD 2019录取结果终于放榜了,今年Research和ADS两个 track共评审论文1900篇,其中Research track的录取率只有14%.今年也是KDD第一次采用双盲评审政策, ...

最新文章

  1. l-lsblk查看设备可用块设备
  2. python的集合运算和set相关操作
  3. 重庆理工大学c语言程序实验报告,重庆理工大学-C语言程序实验报告.doc
  4. Python数据格式:%s字符串,%d整型,%f浮点型
  5. C++结构体多级排序的三种方法
  6. html访问java接口出现缓存_一个牛逼的多级缓存实现方案
  7. 【视觉项目】【day3】8.22号实验记录(利用canny检测之后的来进行模板匹配)
  8. UE4从4.15移植到4.16
  9. 5 Transforms 转移 笔记
  10. ssh不能进入save方法_快速理清为什么你的redis未授权不能getshell
  11. Java语言基本元素
  12. HTTPRunner学习笔记
  13. Python Tricks(十六)—— list转换为str
  14. oracle中字符串连接
  15. BZOJ5224[Lydsy2017省队十连测] 毁灭
  16. python文件怎么打开_py文件怎么打开?
  17. eplan p8详细安装步骤文库_eplan p8详细安装步骤
  18. js图片加载 完成之前显示loading中的图片
  19. 软考中级 真题 2015年上半年 信息系统管理工程师 应用技术
  20. Windows获取本机公网ip脚本

热门文章

  1. 自带flash的浏览器_小技巧:三步还你一个干净清爽无广告的360浏览器
  2. golang——net/rpc包学习
  3. 吴恩达机器学习006分类问题
  4. JavaScript Notes
  5. 计算沙盒中一个目录的大小
  6. ORA-04028: cannot generate diana for object xxx
  7. Resource接口,及资源
  8. YYModel 源码解读(二)之YYClassInfo.h (1)
  9. (转)DOS批处理的字符串功能
  10. WPF系列学习之三(路由事件)