AAAI 2021 最佳论文公布
作者:Synced
翻译:仿佛若有光
第三十五届 AAAI 人工智能会议 (AAAI-21) 以虚拟会议的形式拉开帷幕。组委会在开幕式上公布了最佳论文奖和亚军。三篇论文获得了最佳论文奖,三篇被评为亚军。
AAAI 2021 共收到 9,034 篇论文,再创历史新高,超过了去年的 8800 篇。来自中国的论文(3,319 篇)几乎是美国论文数量(1,822 篇)的两倍。在 7,911 篇去评审的论文中,共有 1,692 篇论文通过。今年的录取率为21%,略高于去年的20.6%。
点个关注,专注于计算机视觉
最佳论文奖
Informer:超越用于长序列时间序列预测的高效transformer
论文名称:Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting
论文地址:https://arxiv.org/pdf/2012.07436.pdf (文末附下载方式)
机构:北京航空航天大学、加州大学伯克利分校、罗格斯大学、北京国旺福达科技发展公司
作者:Haoyi Zhou、Shanghang Zhang、Jieqi Peng、Shuai Zhang、Jianxin Li、Hui Xiong、Wancai Zhang
摘要:许多实际应用需要预测长序列时间序列,例如用电规划。长序列时间序列预测(LSTF)需要模型的高预测能力,即高效捕捉输出和输入之间精确的长期依赖耦合的能力。最近的研究表明 Transformer 具有提高预测能力的潜力。
然而,Transformer 存在一些严重的问题,使其无法直接应用于 LSTF,例如二次时间复杂度、高内存使用率以及编码器-解码器架构的固有限制。
为了解决这些问题,我们为 LSTF 设计了一个高效的基于 Transformer 的模型,名为 Informer,具有三个鲜明的特征:
(i)ProbSparse Self-attention 机制,在时间复杂度和内存使用方面实现了 O(Llog L),并且具有序列依赖性比对的可比性能。
(ii) 自注意力蒸馏通过将级联层输入减半来突出主导注意力,并有效地处理极长的输入序列。
(iii) 生成式解码器虽然概念上很简单,但在一次前向操作中而不是一步一步地预测长时间序列序列,这大大提高了长序列预测的推理速度。
在四个大规模数据集上的大量实验表明,Informer 显着优于现有方法,并为 LSTF 问题提供了新的解决方案。
多智能体学习中的探索-利用:灾难理论遇到博弈论
论文:Exploration-Exploitation in Multi-Agent Learning: Catastrophe Theory Meets Game Theory
论文地址:https://arxiv.org/pdf/2012.03083.pdf (文末附下载方式)
院校:新加坡科技与设计大学
作者:Stefanos Leonardos、Georgios Piliouras
摘要:探索-利用是多智能体学习 (MAL) 中一种强大而实用的工具,但其效果尚不清楚。为了在这个方向上取得进展,我们研究了 Q-learning 的平滑模拟。我们首先表明,我们的学习模型作为研究探索开发的最佳模型具有很强的理论依据。
具体来说,我们证明,对于明确捕获游戏和探索成本之间的平衡的成本模型,平滑 Q 学习在任意游戏中具有有限的遗憾,并且它始终收敛到一组量子响应均衡(QRE),标准解决方案概念对于有限理性下的博弈,在具有异构学习代理的加权潜在博弈中。
在我们的主要任务中,我们然后转向衡量探索对集体系统性能的影响。我们描述了低维 MAL 系统中 QRE 表面的几何形状,并将我们的发现与灾难(分叉)理论联系起来。特别是,随着探索超参数随着时间的推移而演变,系统会经历相变,其中平衡的数量和稳定性可以从根本上改变,因为探索参数的变化非常小。
基于此,我们提供了一个正式的理论处理,说明如何调整探索参数可以证明导致平衡选择对系统性能产生积极和消极(并且可能是无限的)影响。
通过强化校准减轻语言模型中的政治偏见
论文名称:Mitigating Political Bias in Language Models Through Reinforced Calibration
论文地址:https://www.cs.dartmouth.edu/~rbliu/aaai_copy.pdf (文末附下载方式)
机构:达特茅斯学院、德克萨斯大学奥斯汀分校、Google AI
作者:Ruibo Liu、Chenyan Jia、Jason Wei、Guangxuan Xu、Lili Wang 和 Soroush Vosoughi
摘要:当前的大规模语言模型可能会因其所训练的数据而存在政治偏见,当它们部署在现实世界中时可能会导致严重的问题。
在本文中,我们描述了测量 GPT-2 生成中政治偏见的指标,并提出了一个强化学习 (RL) 框架来减轻生成文本中的政治偏见。通过使用来自词嵌入或分类器的奖励,我们的 RL 框架指导去偏差生成,而无需访问训练数据或需要重新训练模型。在对政治偏见敏感的三个属性(性别、位置和主题)的实证实验中,我们的方法根据我们的指标和人工评估减少了偏见,同时保持了可读性和语义一致性。
最佳论文亚军
从极端强盗反馈中学习
论文名称:Learning From Extreme Bandit Feedback
论文地址:https://arxiv.org/pdf/2009.12947.pdf (文末附下载方式)
机构:加州大学伯克利分校、德克萨斯大学奥斯汀分校
作者:Romain Lopez、Inderjit Dhillon、Michael I. Jordan
摘要:我们研究了在极大动作空间的设置中从强盗反馈中批量学习的问题。从极端强盗反馈中学习在推荐系统中无处不在,其中在一天内对由数百万个选择组成的集合做出数十亿个决策,产生大量观察数据。
在这些大规模的现实世界应用中,尽管由于老虎机反馈和监督标签之间的不匹配而导致显着的偏差,但诸如极限多标签分类 (XMC) 之类的监督学习框架被广泛使用。这种偏差可以通过重要性采样技术来减轻,但这些技术在处理大量动作时会出现不切实际的差异。
在本文中,我们引入了一种选择性重要性采样估计器 (sIS),它在一个明显更有利的偏差方差机制中运行。sIS 估计器是通过对每个实例的一小部分动作(Rao-Blackwellization 的一种形式)对奖励的条件期望进行重要性采样来获得的。
我们在一个新的算法程序中使用这个估计器——称为极端模型的策略优化 (POXM)——从强盗对 XMC 任务的反馈中学习。在 POXM 中,sIS 估计器选择的动作是日志策略的 top-p 动作,其中 p 是根据数据调整的,并且明显小于动作空间的大小。
我们在三个 XMC 数据集上使用监督到强盗的转换来对我们的 POXM 方法与三种竞争方法进行基准测试:BanditNet、以前应用的部分匹配修剪策略和监督学习基线。虽然 BanditNet 有时比日志记录策略略有改进,但我们的实验表明,POXM 在所有基线上都有系统且显着的改进。
Self-Attention Attribution:解读transformer内部的信息交互
论文名称:Self-Attention Attribution: Interpreting Information Interactions Inside Transformer
论文地址:https://arxiv.org/pdf/2004.11207.pdf (文末附下载方式)
机构:北京航空航天大学、微软研究院
作者:郝亚茹、李东、傅如薇、许柯
摘要:基于 Transformer 的模型的巨大成功得益于强大的多头自注意力机制,该机制从输入中学习令牌依赖性并编码上下文信息。先前的工作努力将模型决策归因于具有不同显着性度量的单个输入特征,但他们未能解释这些输入特征如何相互作用以达到预测。
在本文中,我们提出了一种自注意力归因算法来解释 Transformer 内部的信息交互。我们以BERT为例进行广泛的研究。首先,我们提取每一层中最显着的依赖关系来构建一个归因图,它揭示了 Transformer 内部的分层交互。此外,我们应用 selfattention 归因来识别重要的注意力头,而其他注意力头只能在边缘性能下降的情况下进行修剪。
最后,我们表明归因结果可以用作对抗性模式来实施对 BERT 的非针对性攻击。
双重任务巡逻:绿色安全的多臂强盗
论文名称:Dual-Mandate Patrols: Multi-Armed Bandits for Green Security
论文地址:https://arxiv.org/pdf/2009.06560.pdf (文末附下载方式)
机构:哈佛大学、卡内基梅隆大学
作者:Lily Xu、Elizabeth Bondi、Fei Fang、Andrew Perrault、Kai Wang、Milind Tambe
摘要:在绿色安全领域保护野生动物和森林的保护工作受到防御者(即巡逻者)的有限可用性的限制,他们必须巡逻大片区域以防止攻击者(例如偷猎者或非法伐木者)。防御者必须选择在保护区的每个区域花费多少时间,平衡不常访问区域的探索和已知热点的开发。
我们将问题表述为随机多臂老虎机,其中每个动作代表一个巡逻策略,使我们能够保证巡逻策略的收敛速度。然而,幼稚的老虎机方法会为了长期最优而损害短期性能,导致动物被偷猎和森林被毁。
为了加快性能,我们利用奖励函数的平滑性和动作的可分解性。我们展示了 Lipschitz 连续性和分解之间的协同作用,因为每个都有助于另一个的收敛。通过这样做,我们弥合了组合老虎机和 Lipschitz 老虎机之间的差距,提出了一种无悔方法,可以在优化短期性能的同时收紧现有保证。
我们证明了我们的算法 LIZARD 提高了柬埔寨真实世界偷猎数据的性能。
原文链接:
https://synced.medium.com/aaai-2021-best-papers-announced-c32307f3d39b
在公众号 “CV技术指南” 后台回复关键字 “ 0004 ” 可获取以上论文。
本文来源于公众号 CV技术指南 的论文分享系列。
欢迎关注公众号 CV技术指南 ,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读。
在公众号中回复关键字 “技术总结” 可获取以下文章的汇总pdf。
其它文章
计算机视觉中的自注意力
经典论文系列--胶囊网络:新的深度学习网络
综述专栏 | 姿态估计综述
漫谈CUDA优化
为什么GEMM是深度学习的核心
使用深度神经网络为什么8位足够?
经典论文系列 | 目标检测--CornerNet & 又名 anchor boxes的缺陷
如何看待人工智能的泡沫
使用Dice loss实现清晰的边界检测
PVT--无卷积密集预测的多功能backbone
CVPR2021 | 开放世界的目标检测
Siamese network总结
视觉目标检测和识别之过去,现在及可能
在做算法工程师的道路上,你掌握了什么概念或技术使你感觉自我提升突飞猛进?
计算机视觉专业术语总结(一)构建计算机视觉的知识体系
欠拟合与过拟合技术总结
归一化方法总结
论文创新的常见思路总结
CV方向的高效阅读英文文献方法总结
计算机视觉中的小样本学习综述
知识蒸馏的简要概述
优化OpenCV视频的读取速度
NMS总结
损失函数技术总结
注意力机制技术总结
特征金字塔技术总结
池化技术总结
数据增强方法总结
CNN结构演变总结(一)经典模型
CNN结构演变总结(二)轻量化模型
CNN结构演变总结(三)设计原则
如何看待计算机视觉未来的走向
CNN可视化技术总结(一)特征图可视化
CNN可视化技术总结(二)卷积核可视化
CNN可视化技术总结(三)类可视化
CNN可视化技术总结(四)可视化工具与项目
AAAI 2021 最佳论文公布相关推荐
- AAAI 2021 最佳论文出炉!华人包揽 4 奖,北航成最大赢家,Transformer变热门
作者:周寅张皓.梦佳.贾伟 2 月 4 日,人工智能顶会 AAAI 2021(第 35 届 AAAI 大会)以在线虚拟会议的形式正式拉开序幕,并将持续到 2 月 9 日结束. 本届AAAI大会投稿量再 ...
- AAAI 2021最佳论文亚军:Attention+积分梯度=归因解释新方法
©PaperWeekly 原创 · 作者|李泺秋 学校|浙江大学硕士生 研究方向|自然语言处理.知识图谱 本文是对 AAAI 2021 最佳论文亚军得主<Self-Attention Attri ...
- 直播 | AAAI 2021最佳论文:比Transformer更有效的长时间序列预测
「AI Drive」是由 PaperWeekly 和 biendata 共同发起的学术直播间,旨在帮助更多的青年学者宣传其最新科研成果.我们一直认为,单向地输出知识并不是一个最好的方式,而有效地反馈和 ...
- AAAI 2021最佳论文 Informer
AAAI 2021最佳论文 Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting 背景 Tr ...
- 回顾 | AAAI 2019最佳论文公布,CMU、斯坦福、MIT上榜
点上方蓝字计算机视觉联盟获取更多干货 在右上方 ··· 设为星标 ★,与你不见不散 编辑:Sophia 计算机视觉联盟 报道 | 公众号 CVLianMeng 转载于 :AAAI,新智元 [人工智 ...
- AAAI 2021最佳论文奖出炉
视学算法报道 机器之心编辑部 第 35 届 AAAI 人工智能会议已于 2 月 2 日在线上召开.在刚刚举行的开幕式上,组委会颁发了今年的最佳论文奖和提名奖,分别有三篇论文获奖.其中来自北航的学者以一 ...
- 超越Transformer!AAAI 2021最佳论文:高效长序列预测模型
©PaperWeekly 原创 · 作者|西南交一枝花 学校|西南交通大学CCIT实验室博士生 研究方向|NLP.时空数据挖掘 前言 AAAI 2021 结束有一段时间了,最佳论文奖项也公布了很久.但 ...
- AAAI 2021最佳论文奖出炉,北航成最大赢家,还有这样一批华人学术新星!
点击上方"3D视觉工坊",选择"星标" 干货第一时间送达 编辑丨机器之心 第 35 届 AAAI 人工智能会议已于 2 月 2 日在线上召开.在刚刚举行的开幕式 ...
- AAAI 2021最佳论文《Informer》作者:Transformer 最新进展
作者:周号益,彭杰奇 单位:北京航空航天大学 自2017年,Ashish Vaswani等人在<Attention Is All You Need>这篇文章种提出了Transformer模 ...
最新文章
- LB 终面 与 智能家电 的浅析
- 用js实现时间减去前1小时、7天、1月、1年
- 基于谱减法的声音去噪
- 注册刷短信验证码的问题
- 大数据WEB阶段(十三)JSP(一)JSP基础、JSP指令详解、四大域九大隐式对象总结
- (pytorch-深度学习)SE-ResNet的pytorch实现
- js 快速集成开发:easyui 时间控件格式化
- 图解:Kafka 水印备份机制
- [认证] 丢掉盔甲,我们依然是骄傲的骑士——Secooler“三问四看”话认证培训...
- 分享各类AI资源,算法干货,我们是认真的!(附最全AI资源分享)
- 【设计模式】适配器模式
- c++ qt qlistwidget清空_Qt音视频开发16-mpv通用接口
- 清理谷歌浏览器注册表_【从注册表解决谷歌浏览器主页被篡改】注册表被篡改_谷歌浏览器被360篡改...
- Ubuntu16 e1000e驱动安装
- Android Studio使用天天模拟器运行Android程序
- 工时管理:警惕员工时间偷窃!企业应该如何避免?
- 《Web前端工程师修炼之道》学习笔记
- java判断点与线与面的关系_高中数学必修二点线面的位置关系与线面平行判定及其性质(精华试题版)...
- 在for循环中运行setTimeout的三种情况
- html网页设计期末大作业——酒庄网页设计实例(5页)