在斯坦福,做 Manning 的 phd 要有多强?
文 | 付瑶
编 | 小轶
博士的毕业论文是我们博士学位教育重要的一环,不仅仅是获得学位的最后一个难关,也是读博期间工作的总结展现。那么一个优秀的博士在读博期间会做出多少成果?ta 的博士论文又长什么样?今天,让我们打开一篇最新的斯坦福博士的毕业论文,来看看都讲了些什么。
作者是刚刚8月份毕业于斯坦福的女博士Abigail See。Abigail 的研究方向是开放式的文本生成,导师是大名鼎鼎的 Chris Manning。目前在谷歌学术上已经拥有 2139 的引用量。同时,她也是斯坦福 AI Salon,AI woman 两个组织的主要负责人,还连续担任过是斯坦福 cs224n (NLP导论)的助教组长。
Abigail 在读博期间共计发表了 6 篇一作文章。她在博士毕业论文中对自己读博 6 年间的科研成果进行了总结。单论数量而言,平均每年一篇的产量,可能即使放之国内普通高校也不能算十分突出。难得的是篇篇高质量,其中不乏引用量 1700+ 的超高影响力论文,以及获得最佳论文提名的高认可度工作。
博士论文标题:
NEURAL GENERATIONOF OPEN-ENDED TEXT AND DIALOGUE
论文链接:
https://purl.stanford.edu/hw190jq4736
作者主页:
https://cs.stanford.edu/people/abisee/
工作概述
Abigail 博士期间的研究方向在开放式文本生成,但具体应用的下游任务并不集中,主要涉及 摘要、对话、故事生成 三类。在这三个子领域上,作者对自己的 contribution 总结如下:
摘要:提出指针生成器模型(pointer-generator network)来提高复制的准确性,以及一个覆盖机制来减少生成摘要的重复。
对话:通过收集大规模用户评价,揭示了机器人行为(如重复、特异性、话题停留和提问)和用户质量判断之间的关系,改善用户体验
故事生成:描述了大规模预训练和解码算法对生成文本的句法、语义、结构和文体方面的影响。作为成果,作者部署研究了一个生成式聊天模型,能够通过分析机器人与用户的交互,确定了机器人的主要错误类型、与用户不满的关系,从而改善对话系统。
文章架构
作者在毕业论文中分为了5大部分来主要叙述自己的研究工作分别是:
引言
研究背景
指针生成网络
控制聊天对话的属性
预训练对故事生成的影响
用户聊天对话中的不满
引言和背景介绍部分我们就略去不表了,主要关注后面四个部分。
指针生成网络概述
本章节中主要叙述了作者构建的指针生成网络 Pointer-Generator的相关工作。该文发表于ACL'17,目前引用量已达1700+。对 NLG 有过了解的同学想必都听说过。
相关论文:
Get to the point: Summarization with pointer-generator networks
论文链接:
https://arxiv.org/pdf/1704.04368.pdf
Pointer-Generator 构建了一个融合网络以及指针网络的混合模型,既允许通过指针复制单词,也允许从固定词汇表中生成新的单词。把sequence-to-sequence模型应用于摘要生成时存在两个主要的问题:(1)难以准确复述原文的事实细节、无法处理原文中的未登录词(OOV);(2)生成的摘要中存在重复的片段。针对这两个问题,本文提出的融合了seq2seq模型和pointer network的pointer-generator network以及覆盖率机制(coverage mechanism),在CNN/Daily Mail数据集上,相比于state-of-art,ROUGE分数提升了两个点。
控制聊天对话的属性
相关论文:
What makes a good conversation? How controllable attributes affect human judgments
论文链接:
https://arxiv.org/pdf/1902.08654.pdf
作者提出:一个好的对话需要有以下特性:简洁与细节 持续主题与更换主题 问问题和回答问题,对应四种属性:重复性、独特性、回复相关性和问与答。在这部分内容中作者旨在设计通用且易于调整的的控制方法,研究了两种控制方法条件训练(conditional Traning)和加权解码(weighted decoding)。使用条件训练和加权解码来控制四个属性:repetition重复性、secificity特异性、response-relatedness反映相关性和question-asking提问。在测试该任务改进的效果子作者对28种模型配置进行了大规模的人工评估,并进行了人机对话以进行比较。
预训练对故事生成的影响
相关论文:
Do Massively Pretrained Language Models Make Better Storytellers?
论文链接:
https://arxiv.org/pdf/1909.10705.pdf
在大规模语料中训练得到的预训练语言模型在很多NLP任务中都取得了较好的表现,但是在开放文本生成中的能力仍未被明确。一些实验结果虽然展现了其潜在的能力,但是并没有关于预训练模型在文本生成的能力的具体研究。作者通过在WritingPrompts-1024上评估,对比了GPT2-117与Fusion model等模型在故事生成的表现。通过多种指标评估生成文本后,研究人员发现了一些可以很好生成故事的模型,以及一些表现不太好的模型。虽然 GPT2-117 在语境上更好,对事件的顺序更敏感,而且使用了更多不常用的词汇,但是它在使用最大似然解码算法时只能生成重复的、没有多样性的文本。
用户聊天对话中的不满
相关论文:
Understanding and predicting user dissatisfactionin a neural generative chatbot
论文链接: 文 | Jazon 编 | 小轶 大家好,我是 Jazon.作为 AI 科研工作者,我们的目光不该只聚焦在开发新技术.刷榜打 SoTA 上.学界如职场,还有很多技术之外的软实力需要培养.这篇文章里,我 ... 移动应用时代,办公移动化已经成为了企业经营的一大发展趋势,在企业数据管理领域,移动端报表也成为了现代企业运营管理的迫切需要. 通过移动数据分析,可以帮助管理者实时了解业务状态,及时获取企业营运状况. ... 深度学习在图像分类,机器翻译等领域都展示了其强大的能力,但是在因果推理方面,深度学习依然是短板,图神经网络在因果推理方面有巨大的潜力,有望成为AI的下一个拐点.DeepMind 公司最近开源了其Gra ... 作者丨happy 编辑丨极市平台 导读 旷视科技&中科院对单阶段目标检测中的FPN进行了重思考,采用一级特征进行检测替换复杂的特征金字塔来解决优化问题,提出了YOLOF.该方法取得了与Reti ... 文 | 付奶茶 随着最近几年多模态大火的,越来越多的任务都被推陈出新为多模态版本.譬如,传统对话任务,推出了考虑视觉信息的多模态数据集:事件抽取,也推出视频形式的多模态版本:就连 grammar in ... 今天这篇文章不谈技术,给大家分享一些干货!首先来聊聊一个AI圈子里画风清奇的公众号 夕小瑶的卖萌屋.公号的作者中不仅妹子居多,颜值能打,而且喜欢将学术研究和大厂业务上线中的收获与读者分享. 卖萌屋的作 ... 今天这篇文章不谈技术,给大家分享一些干货!首先来聊聊一个AI圈子里画风清奇的公众号 夕小瑶的卖萌屋.公号的作者中不仅妹子居多,颜值能打,而且喜欢将学术研究和大厂业务上线中的收获与读者分享. 卖萌屋的作 ... /* 在网上看到的一篇文章. 不知道是真是假 只是觉得,事情没有我们想象的那么简单.尤其是对于学习理论物理专业的同学. */ 很多人关心自己花5年甚至更长时间拿到一个博士学位,能干什么,能找到什么样的 ... 转自:http://www.google.com.hk/ggblog/googlechinablog/2009/01/blog-post_9073.html 硅谷的兴起很大程度上是靠斯坦福大学多方位的 ...
https://sigdial.org/sites/default/files/workshops/conference22/Proceedings/pdf/2021.sigdial-1.1.pdf
在斯坦福,做 Manning 的 phd 要有多强?相关推荐
最新文章
热门文章