作者 | 李梅
编辑 | 陈彩娴
来源 | AI科技评论

人类从与他人的互动中学习,而目前的人工智能却常常只能在与社会隔离的环境中学习。所以当我们把一个智能体放到真实世界中时,它会不可避免地在遇到大量新的数据,无法应对不断变化的新需求。

如何将智能体从只有一堆书的房间里“解放”出来,让它在广阔的社会情境中学习,是一个新的挑战。

最近,斯坦福大学计算机系的 Ranjay Krishna、Donsuk Lee、李飞飞、Michael Bernstein 等人针对此问题提出了一种新的研究框架:社会化人工智能(socially situated AI),即智能体通过在现实社会环境中与人的持续互动来学习。 论文“Socially situated artificial intelligence enables learning from human interaction”已发表在美国科学院院刊(PNAS)上。

论文地址:
https://www.pnas.org/doi/epdf/10.1073/pnas.2115730119

在这项工作中,研究团队将社会化 AI 形式化为一个强化学习的过程,即智能体通过从社会互动中获取的奖励来学习识别有信息量的问题。在一个视觉问答任务的测试中,与其他智能体相比,社会化智能体识别新视觉信息的性能提高了 112%。

1 社会化 AI 的强化学习框架

目前,在迭代扩展模型能力时,主动学习是最常用的一个框架。它的目标是优化一系列标注请求以获取新的数据,并将新数据将用于以尽可能少的请求来提高模型的性能。

主动学习已经被形式化为强化学习的过程,其中,真正的人类角色被移除,只假设存在一个能为所有请求提供标签的“预言机”。

尽管纯粹的主动学习方法也可以通过社会环境中的互动来收集新数据,但从用户角度看,他们并不原意充当“预言机”的角色来做重复提供标签的劳动,这就打破了主动学习的基本假设。

所以,我们必须探索智能体真正与人交互的学习方法。要开发社会化的 AI,智能体不仅要收集数据来学习新概念,还要学习如何与人互动来收集数据。

而且,智能体必须要在交互学习(interacting to learn)和学习交互(learning to interact)这两个目标之间进行权衡。这非常具有挑战性,因为智能体要遍历的可能交互空间是巨大的,只有一部分社会交互空间是有用的,并且信息交互空间还会随着智能体的学习进程而不断变化。

在强化学习中,我们将可能的交互形式化为行动空间,将反馈形式化为奖励,需要数亿次交互才能获得具有信息量和亲社会的交互的子空间,这让很多研究人员望而却步。所以,目前从与人类交互中学习的方法,通常只局限于人工标注或者小的工作空间(如只有几十个动作的游戏和仿真环境)。

为此,研究团队将社会化的 AI 形式化为一个迭代强化学习问题。

▲图注:社会化 AI 的强化学习框架

其框架描述如下:

一个智能体被放置在社会环境 E=(S,A,P,P0) 当中,它的目标是收集数据,以尽可能少的交互来优化模型的性能;

S 是环境状态,如对话智能体的对话历史,或机器人智能体在三维世界中当前位置;

A 是智能体可以发起的与人交互的可能空间,如对话智能体可以询问的一组语句,或机器人智能体可以执行的一组动作。;

P:S × A → S 是过渡动力学(transition dynamics),如使用过渡函数(transition function)编码人们对智能体历史行为的反应以及环境的变化。;

最后,P0 是初始状态分布的概率测度。

总结而言,这样一个迭代强化学习的过程包括三个重要的方面:改进底层模型、发现社会规范、更新交互策略。它们贯穿着智能体的整个生命周期。

其中,智能体在人们可能会或可能不会做出信息回应的社会环境中与人进行互动,从而改进底层模型。只有当人的回应包含对智能体有用的新信息时,回应才是有用的。因此,智能体必须与环境中数十万人的单次交互,从中选择能够引发对模型有用的新概念的社会互动。

为了平衡智能体的交互学习和学习交互两个目标,我们可以引入知识奖励(knowledge reward)来引导智能体进行交互以获得有用的新概念;同时采用交互奖励(interaction reward)来引导智能体进行符合环境中社会规范的交互。

在使用新概念改进模型的基础上,智能体会更新其策略,开始学习如何就人们有兴趣回应的新概念提出问题,来改进自身性能还比较差的部分。

2 从问答互动中改进视觉模型

为了验证社会化 AI 框架在计算机视觉中的实用性,作者在照片共享社交网络应用 Instagram 上部署了一个社会化智能体,它向人们提出自然语言问题,并从人的回应中提取答案,收集视觉知识。

这种使用自然语言来获取视觉知识的方法,可以用来测试很多计算机视觉识别任务,如对象检测(“图像中有什么?”)、细粒度识别(“花瓶里是什么花?”)、属性分类(“这张桌子是用什么材料做的?”)、知识库推理(“这份食物是素食吗?”)和常识推理(“这张照片是在冬天拍摄的吗?”)等等。

在这项工作中,研究团队设计了一个计算机视觉问答模型,其输入是一张图像和相应的自然语言问题,输出是一个自然语言答案。智能体提出的问题非常多样,如下图。

▲图注:社会化智能体在社交媒体上发起的互动示例

智能体的目标是从与人的交互中获得数据,提高模型识别视觉概念的能力。为了达到这个目标,智能体需要一些“奖励”。如上文所述的框架,作者引入了知识奖励和互动奖励。

知识奖励衡量模型的在识别任务中的确定性。在刚开始,识别模型不知道如何识别任何概念,但随着看到的特定概念的增长,它会对自己的判断更加肯定。比如,如果人们帮助智能体将图像中的动物识别为鹿,那么它的不确定性就会减少。

交互奖励则引导智能体的行为符合社区规范。如在社交网络中,人们更喜欢回答较短的问题、提供事实知识以及回避含糊不清的问题。所以智能体的每一次交互都会被标记为积极(产生了新信息)或消极(未获得新信息),从而被不断训练成亲社会的。

最后,是如何寻找有用的语言交互问题。这是一个组合性的搜索问题。一种直接的方法可以将智能体的策略设计成一个从图像到提问的生成模型。随着模型性能的提升,信息交互的空间会不断变化,因此组合搜索过程需要反复重复。

为了使搜索过程更易于处理,作者使用现有的信息最大化变分自动编码器来学习现实中人与人交互的表示:通过重新配置策略将输入图像映射到表示空间中,并通过设计解码器从表示空间映射到单词序列。

3 更少的交互,更高的识别准确率

在社会化 AI 的框架中,智能体同时有两个目标:一个发起社交互动,让人们根据信息数据作出回应;另一个是通过收集有用的数据来改进其基础模型。这两个目标也成了智能体的评估指标。

首先,为了评估该智能体获得回应的能力,我们需要测量对它所提问题的信息回应率(Informative Response Rate),也就是它收到问题答案(即获得有用的交互)的交互百分比。较高的信息回应率意味着对智能体对隐性社会规范有更好的理解,而较低的信息回应率则意味着人们不给予回应,这会减慢甚至停止智能体的学习进程。

其次,为了评估智能体识别新的视觉概念的能力,研究人员使用由 Amazon Mechanical Turk 的注释器收集的 50104 个社交媒体图像、问题和答案,构成测试集,来评估视觉识别模型的准确率。

此外,为了对照和比较使用社会化 AI 框架所涉及的社会化智能体与其他智能体的区别,作者还部署了一个仅使用交互奖励的人类偏好智能体,一个仅使用知识奖励的主动学习智能体,以及一个基线智能体。

这个基线智能体不使用预训练的交互表示作为动作空间,它允许微调解码器的参数,使用整个组合词汇空间作为动作空间。而且,它同时使用交互奖励和知识奖励,并额外添加了语言建模奖励,以鼓励它生成语法正确的语言。

所有这些智能体都使用近端策略梯度(proximal policy gradients)进行训练,而且都使用相同数量的数据进行初始化,并具有相同的策略和解码器架构。

实验进行了 8 个月,每个智能体可以发起至少 20 万次交互。当它们与人交互、并收集新的视觉知识时,信息回应率和识别准确率的变化结果表明,社会化智能体整体上优于其他智能体。

信息回应率更高

如下图,在 236000 次互动中,社会化智能体的信息回应率从最初的 22% 提高到 33%,相对提高了 50%。相比之下,主动学习和基线智能体在每次迭代后获得的回应较少,分别为 6% 和 12.3%。

▲图注:信息回应率与发起的交互次数的关系。社会化智能体(绿色)和人类偏好的智能体(紫色)都使用交互奖励,在交互次数提高的同时信息回应率也更高;其他智能体的信息回应率随着交互次数的增加而下降,这是因为交互会阻碍它们的数据采集。

具体来看,基线智能体在尽力探索所有可能的语言交互组合空间时,不可避免地会产生不连贯的问题,这导致了回应率的下降,并产生一个恶性循环,从而无法识别有用的交互。回应率下降到 6% 以后,研究人员将其终止。

主动学习智能体的弊端则在于它会提出更长、更难的问题,无法引起热人们的兴趣。例如,要回答“这些工具是为左撇子还是右撇子设计的?”这个问题,还得知道有关特定工具的知识以及是否可以用任何一只手操作。

人类偏好智能体的回应率最高,但它的提问又太简单了。比如,它会问“这件衬衫是什么颜色的?”

可以看到,当前实验中智能体的最高回应率是 33%,那么这一数值还有多少上升空间呢?研究人员又进行了一项实验,聘请标注人员来人工编辑问题,以增加智能体获得回应的可能性。最终,智能体获得了 37% 的回应率,这代表了人类从既定社会环境中获得回应的平均能力。所以,智能体还有 4% 的社交能力提升空间。

识别准确率更高

再来看这些智能体在使用收集的数据来改进视觉模型方面表现如何。

与其他智能体相比,社会化智能体能使用更少的交互来提高识别准确率。它在 236000 次交互中实现了 39.44% 的模型性能(下图 B),从中收到了 70000 条回应(下图 C)。

▲图注:视觉模型性能与智能体发起的交互次数之间的关系。社会化智能体和主动学习智能体(橙色)都使用知识奖励来收集有用数据,但主动学习智能体本身缺少交互,要达到同样性能,它需要更多交互。

▲图注:视觉模型性能与来自人的回应数量的关系。社会化智能体需要权衡知识与交互两种奖励,其准确率的提高与主动学习智能体相当,而后者只能最大化知识奖励。

相比之下,主动学习智能体共发起了 274893 次交互,但仅收到 30000 条回应,并且性能开始饱和,达到 31.4%,回应率也下降到 12.3%。

这再次表明,在某些社会环境中,纯粹的主动学习方法是不可行的。

而人类偏好智能体每次交互虽然都会收到更多回应,但它收集的数据并没有改善视觉模型。因为它倾向于收集一小部分问题的答案,因此它的底层视觉模型开始过拟合,最后只生成与时间相关或与颜色相关的输出。

基线智能体也暴露出它的问题,即不连贯,收集的数据也没有用。

获取比传统数据集更多的新信息

最后,研究团队对使用社会化智能体收集的数据进行的训练与使用现有数据集中的数据进行的训练作了比较。

结果表明,前者的识别准确率远高于后者,这说明社会化智能体可以获得传统数据集中不存在的新信息。

▲图注:从社会互动中收集的数据与从传统数据集中的数据进行训练的准确率比较。使用来自现有数据集的相同数量的标签进行训练,仅将准确度从 11.24% 提高到 17.45%;而使用来自社会互动的数据进行训练时,准确度从 18.13% 提高到 39.44%。

总结一下,这项研究的重要创新之处在于它提出了一个智能体从与人的交互中学习的形式框架,并通过使用语言交互的视觉模型验证了该框架的实用性。作者相信,这项工作将有助于更广泛的交互式智能体的研究。

后台回复关键词【入群

加入卖萌屋NLP、CV、搜推广与求职讨论群

视觉能力提升112%!李飞飞团队让AI进入社会,学会了“骗”标注…相关推荐

  1. 李飞飞团队加入AI抗疫:家用监控系统,可以远程反馈新冠症状

    白交 发自 凹非寺  量子位 报道 | 公众号 QbitAI AI女神李飞飞,也率队加入科技抗疫中. 最近,在斯坦福大学HAI研究院举办"COVID-AI"直播大会上,李飞飞团队提 ...

  2. 斯坦福李飞飞团队新作:刷榜视觉自监督

    点击上方"AI遇见机器学习",选择"星标"公众号 第一时间获取价值内容 仅作学术分享,不代表本公众号立场,侵权联系删除 转载于:新智元 在计算机视觉领域,想要建 ...

  3. 李飞飞团队 | 零样本泛化技术

    公众号 新智元编辑 先来看看李飞飞团队这次在arXiv上发表了的论文题目: SECANT:用于视觉策略零样本泛化的自专家克隆 废话少说,给大家介绍一下这篇论文的大致内容. 论文介绍 简要介绍 强化学习 ...

  4. 西交出身,辛书冕获CVPR 2019最佳论文,李飞飞团队获经典论文奖

    作者 | 夕颜 出品 | AI科技大本营(ID:rgznai100) 6 月 18 日上午,CVPR 2019 会议开幕式暨颁奖仪式在美国洛杉矶举行,经过 CVPR 2019 专门的最佳论文奖评选委员 ...

  5. 时间序列的建模新思路:清华、李飞飞团队等提出强记忆力E3D-LSTM网络

    作者 | Yunbo Wang,.Lu Jiang. Ming-Hsuan Yang.Li-Jia Li.Mingsheng Long.Li Fei-Fei 译者 | 凯隐 编辑 | Jane 出品 ...

  6. 斯坦福大学李飞飞团队图像分类课程笔记

    斯坦福大学李飞飞团队图像分类课程笔记 Stanford image classification course notes 这是斯坦福CS231n课程图像分类基础知识. 目标:这一节先介绍图像分类基本 ...

  7. 李飞飞团队最经典计算机视觉课更新!斯坦福出品,深度学习入门必备

    萧萧 发自 凹非寺 量子位 报道 | 公众号 QbitAI 斯坦福最经典的计算机视觉课程CS231n--全称是面向视觉识别的卷积神经网络. 今天更新啦. 作为计算机视觉和深度学习领域的经典课程,CS2 ...

  8. 李飞飞团队最新研究,真实场景中识别物体具体属性,连表面纹理都识别出来了...

    点击上方"3D视觉工坊",选择"星标" 干货第一时间送达 整理:公众号@量子位 本文仅做学术分享,如有侵权,请联系删除. 现在,细微到物体表面的纹理,AI都可以 ...

  9. 李飞飞团队CVPR论文:让AI识别语义空间关系(附论文、实现代码)

    本文经AI新媒体量子位(公众号ID:qbitai )授权转载,转载请联系出处. 本文共1000字,建议阅读5分钟. 斯坦福视觉实验室即将在CVPR 2018上发表的一篇关于研究"指称关系&q ...

最新文章

  1. “诺奖风向标”2021拉斯克奖公布:授予mRNA疫苗、光遗传学以及戴维·巴尔的摩...
  2. mysql设置参数不生效_关于mysql的wait_timeout参数 设置不生效的问题【转】
  3. (转)mysql基础命令
  4. TCP,UDP数据包的大小以及MTU
  5. tomcat8开启远程debug
  6. 实现CA证书创建及客户端申请证书
  7. 【源码】高精度31波段音频均衡器
  8. Web在线预览CAD(使用AUTODESK)
  9. mysql中 经纬度用什么类型存储_MySQL数据库之***mysql中经度纬度字段用什么存储(关于mysql的float和decimal区别)...
  10. h5页面 请在微信客户端打开链接_如何看到“请在微信客户端打开链接”页面的源码?...
  11. 软件打包部署神器InnoSetup
  12. 收件人、寄件人如何根据快递单号查询物流进度
  13. matlab方程求解的实验报告,用matlab对微分方程求解实验报告.doc
  14. win7无法安装gpt、mbr问题
  15. Python获取Win7,Win10系统缩放大小
  16. H5移动端 引入高德地图(获取经纬度与地址带搜索反选
  17. tomcat启动时日志卡在Deploying web application directory解决
  18. adobe air 通用设置
  19. 小芭比linux怎么装win7_Linux系统怎么安装Win7?安装XP或WIN7系统教程
  20. TcaplusDB君 · 行业新闻汇编(8月11日)

热门文章

  1. 平面设计【PS】汉堡寿司横幅PSD分层模版素材
  2. linux下qt浏览word文件内容,Qt获取office文件内容
  3. 合肥太阳能电池片表面缺陷检测-施努卡
  4. 深入学习ArduinoJson库 V5版本
  5. JavaScript 数据结构与算法(二)哈希表
  6. 现货黄金与白银现货的区别
  7. gdiPlus的imag::fromFile函数调用返回为空
  8. 计算机视觉(北邮鲁鹏)--卷积
  9. 看完就能出去神侃,来自研发第一线的“区块链”扫盲文(二)
  10. 2020年各省二建房建挂靠价格汇总