大模型的时代的到来,现在的大模型的参数几乎是几何级数的上升。

谷歌和柏林工业大学的团队重磅推出了史上最大视觉语言模型——PaLM-E:An Embodied Multimodal Language Model。通才大模型PaLM-E,什么是通才模型,就是多任务统一学习范式的成果。尤其在GPT3.5的巨大成功后,大家都不甘落后。

文章目录

  • 具身智能概述
  • 一、难点解析
  • 二、如何实现更加便利的人机交互?
    • 1. 问题
    • 2.对环境的模拟Sim2Real
  • 总结

具身智能概述

具身智能定义:智能体通过与环境产生交互后,通过自身的学习,产生对于客观世界的理解和改造能力。
具身智能假设:智能行为可以被具有对应形态的智能体,通过适应环境的方式学习到。因此,地球上所有的生物,都可以说是具身智能。
具身智能是能够提升当前的“弱人工智能”认知能力的重要方式。人工智能可以通过与环境交互的渠道,从真实的物理或虚拟的数字空间中学习和进步。同时,具身智能是产生超级人工智能的一条可能路径。
具身AI对立的词是Internet AI,指通过互联网上的数据进行学习,比如我们一直在做的CV、NLP。而Embodied AI是指从与环境的交互中学习。

Embodied AI = Embodied Intelligence = 具象AI = 具身智能Internet AI = Disembodied AI = 非具身智能


一、难点解析

如何通过互联网上丰富的多模态数据,训练一个通用模型,可以根据指令在环境中执行各种任务。
有以下两个难点:

  1. 如何提升学习效率:通过与环境交互学习有很大风险,效率也低(正向奖励太少),而通过观察(observation),利用现有数据学习效率才更高,这样也可以延续预训练-精调/Prompt的范式,把更多的知识迁移到下游。

  2. 复杂的输入输出和环境:在最复杂的情况下,模型的输入是多模态指令,输出是可以在真实环境执行的动作。其实针对Embodied AI的评估有多种任务,比如Navigation、Manipulation、Instruction following,但指令是可以描述所有任务的,需要更高维的理解。同时,输出的动作空间大小、环境是模拟的还是真实的,都会带来不同的挑战。
    一些机构的进展如下:

二、如何实现更加便利的人机交互?

1. 问题

具身智能机器人:首先,要能够听懂人类语言,然后,分解任务,规划子任务,移动中识别物体,与环境交互,最终完成相应任务。
GPT等大模型的出现提供了新思路——已有不少研究者尝试将多模态的大语言模型与机器人结合起来,通过将图像、文字、具身数据联合训练,并引入多模态输入,增强模型对现实中对象的理解,帮助机器人处理具身推理任务。

谷歌、微软的AI团队走在前列,试图以大模型为机器人注入灵魂。

3月8日,谷歌和柏林工业大学的团队重磅推出了史上最大的视觉-语言模型——PaLM-E,参数量高达5620亿(GPT-3的参数量为1750亿)。具体来说, PaLM-E-562B 集成了参数量 540B 的 PaLM 和参数量 22B 的视觉 Transformer(ViT),作为一种多模态具身视觉语言模型(VLM),PaLM-E不仅可以理解图像,还能理解、生成语言,可以执行各种复杂的机器人指令而无需重新训练。谷歌研究人员计划探索PaLM-E在现实世界场景中的更多应用,例如家庭自动化或工业机器人。他们希望PaLM-E能够激发更多关于多模态推理和具身AI的研究。

https://arxiv.org/abs/2303.03378
作为一种多模态具身视觉语言模型 (VLM),PaLM-E不仅可以理解图像,还能理解、生成语言,而且竟然还能将两者结合起来,处理复杂的机器人指令。此外,通过PaLM-540B语言模型与ViT-22B视觉Transformer模型相结合,PaLM-E最终的参数量高达5620亿。
PaLM-E,全称Pathways Language Model with Embodied,是一种具身视觉语言模型。它的强大之处在于,能够利用视觉数据来增强其语言处理能力。

据论文介绍,PaLM-E是一个仅有解码器的LLM,在给定前缀(prefix)或提示(prompt)下,能够以自回归方式生成文本补全。其训练数据为包含视觉、连续状态估计和文本输入编码的多模式语句。研究人员则观察到了一个显著的优势。语言模型越大,在视觉语言与机器人任务的训练中,保持的语言能力就越强。从模型规模来看,5620亿参数的PaLM-E几乎保持了它所有的语言能力。
比如,「从抽屉里拿出薯片」这类指令中,就包括了多个计划步骤,以及来自机器人摄像头的视觉反馈。经过端到端训练的PaLM-E,可以直接从像素开始对机器人进行规划。由于模型被集成到一个控制回路中,所以机器人在拿薯片的过程中,对途中的干扰都有鲁棒性。

人类:给我来点薯片。
机器人:

  1. 走到抽屉旁
  2. 打开最上面的抽屉
  3. 从最上面的抽屉里拿起绿色的薯片
  4. 放在柜台上。

最后,研究结果还表明,冻结语言模型是通向完全保留其语言能力的通用具身多模态模型的可行之路。但同时,研究人员还发现了一条解冻模型的替代路线,即扩大语言模型的规模可以显著减少灾难性遗忘。

在最近的一项研究中,微软团队在探索如何将 OpenAI研发的ChatGPT扩展到机器人领域[8],从而让我们用语言直观控制如机械臂、无人机、家庭辅助机器人等多个平台。研究人员展示了多个 ChatGPT 解决机器人难题的示例,以及在操作、空中和导航领域的复杂机器人部署。

很明显,谷歌和微软对具身AI有高度相似的期许:人类操作机器人,不需要学习复杂的编程语言或机器人系统的细节,“言出”(向机器人口述/比划需求)即“法随”(机器人完成任务)[2],达到“得心应手,如臂使指“的境界。可以预见,基于自然语言控制的机器人控制,将成为未来热门的研究方向。
在使用ChatGPT几个月后,我仍觉得其有很大的探索空间,基于GPT开发的插件在提高工作效率上有很大的潜力,比如ChatPaper可以帮助快速阅览论文;EditGPT可以帮忙润色英文写作。体验下来,大语言模型对数据的归纳梳理能力毫无疑问早已超越人类,理解、逻辑推理能力也是出乎意料的强大,黄仁勋将ChatGPT的问世称之为AI界的“iPhone时刻”。在某些问题上,向ChatGPT提问比向百度、Google等搜索引擎提问更加快速且有效。GPT-4相比于GPT-3.5,增加了理解图像的能力;基本没有误解问题的情况,甚至能够去处理更复杂的任务。简而言之,它的可靠性更好。例如,GPT-4能够写诗,可以写押头韵的诗,也能写押尾韵的诗。甚至它能去理解笑话,能明白笑话背后的意思。还有一个例子体现出GPT-4的理解能力得到了进一步的进化。
ChatGPT等先进的大语言模型对实现具身智能中便利的人机交互有着至关重要的作用。

2.对环境的模拟Sim2Real

训练具身智能的一种直接方法是将它们直接放置在物理世界中。这很有价值,但在现实世界中训练机器人速度慢、危险(机器人可能会摔倒并摔坏)、资源密集型(机器人和环境需要资源和时间)并且难以重现(尤其是罕见的边缘情况)。另一种方法是在逼真的模拟器中训练具身代理,然后将学到的技能转移到现实中。模拟器可以帮助克服物理世界的一些挑战。模拟器可以比实时运行快几个数量级,并且可以在集群上并行化;模拟培训安全、便宜。一旦在模拟中开发和测试了一种方法,就可以将其转移到在现实世界中运行的物理平台。

很大概率,具身智能是通向通用人工智能的更Promising的一条路。


总结

如果说数据是算法的天花板,那现在的瓶颈,比如推理、常识学习,原因可能在于现有数据的多样性?

视觉、听觉、触觉都是我们认识世界的途径之一,他们之间的联系也会让我们加深理解,把模态叠加起来,让模型不断接近我们的现实世界,或许是突破单模态任务瓶颈的方法。

另外到了Embodied AI时代,虚拟环境就是必需品了,OpenAI、英伟达、AllenAI都发布了他们的虚拟环境,能否滋生一个新的生态?

Embodied AI 具身智能相关推荐

  1. 具身智能综述和应用(Embodied AI)

    什么是具身智能? 目前人工智能的进展,在诸多数据源和数据集(Youtube.Flickr.Facebook).机器计算能力(CPU.GPU.TPU)的加持下,已经在CV.NLP上取得了许多任务(如目标 ...

  2. 具身智能(Embodied AI)和食品计算

    文章目录 具身智能 简介 什么是具身智能 具身智能学习 现有问题 现有方法 具身智能任务 具身智能工具 计算机视觉可能的任务 食品计算 食品识别.检测.分割 未来工作 具身智能 简介 什么是具身智能 ...

  3. 深度学习也利用进化论!李飞飞谈创建具身智能体,学动物进化法则

    今年早些时候斯坦福李飞飞教授等人的研究「深度进化强化学习」有了突破,首次证明了「鲍德温效应」.最近李飞飞带着研究团队做客Bio Eats World访谈,AI智能体也可以很快学会动物的这种智能行为,但 ...

  4. 李飞飞划重点的「具身智能」,走到哪一步了?

    来源:选自Quanta magazine 作者:Allison Whitten 编译:机器之心 编辑:张倩 在前段时间的一篇文章中,李飞飞指出了计算机视觉未来的几个重要方向,其中最重要的一个就是具身智 ...

  5. CV往哪卷?李飞飞指出三颗「北极星」:具身智能,视觉推理和场景理解

    点击上方"迈微AI研习社",选择"星标★"公众号 重磅干货,第一时间送达 [迈微导读]ImageNet见证了计算机视觉发展的辉煌历程,在部分任务性能已超越人类的 ...

  6. 李飞飞提出深度进化强化学习新框架:创建具身智能体学会动物进化法则

    点击上方"视学算法",选择加"星标"或"置顶" 重磅干货,第一时间送达 转自 | 新智元 来源 | 外媒 编辑 | Yaxin, LQ 6亿 ...

  7. 拟人化的肌肉骨骼机器人上肢理解具身智能

    Anthropomorphic Muscular–Skeletal Robotic Upper Limb for Understanding Embodied Intelligence Koh Hos ...

  8. 预测算法:具身智能如何应对不确定性[Reviews of Daniel Williams]

    这是一篇翻译文章,本人把它当作第一遍阅读<预测算法:具身智能如何应对不确定性>的一个总结. 原文下载链接:Review of surfing uncertainty: prediction ...

  9. 北京大学董豪:招具身智能、智能机器人、计算机视觉科研实习生

    导师简介 董豪,北京大学计算机学院助理教授,博士生导师,2019年于帝国理工获得博士学位.主要研究方向为计算机视觉.机器人和具身智能,当前研究工作围绕智能机器人的自主决策与泛化交互 .担任NeurIP ...

最新文章

  1. 台湾国立大学郭彦甫Matlab教程笔记(15)polynomial integration 多项式积分
  2. postfix+sasl+dovecot
  3. How Many Replication Method In SAP HANA
  4. HTTP解决设置返回header的code码为400仍然是200的问题
  5. hdu 4493 Tutor (水 精度)
  6. java struts 文件下载_Struts2文件下载实例
  7. 设计师交流平台!!!
  8. 修复Ubuntu系列pip
  9. react中的虚拟DOM
  10. testbench简介
  11. CSDN没有C币如何下载文章?
  12. 四 解决问题1 只列式不计算机,小学六年级数学下册期末试题人教版
  13. 台式计算机m.2的参数,联想启天M系列
  14. html的embed标签的元素隐藏,HTML-embed标签详解
  15. 关于Win8引导菜单风格切换
  16. A. Extreme Extension
  17. 数据挖掘学习笔记3-贝叶斯与决策树
  18. 统计给定的n个数中,负数、零和正数的个数。
  19. type-c接口边充电边听歌解决方案
  20. 【C/C++】【NOI】雇佣兵代码及分析理解

热门文章

  1. Unsafe 使用详解
  2. 7-2 判断素数 (10分)
  3. 力扣每日一题——三角形的最大周长
  4. python中 “__name__“的实际应用
  5. Bootstrap系列之-FileInput中文API整理
  6. 月薪3000和30000的数据分析师差在哪?
  7. 获取指定日期的开始和结束时间
  8. 3D人脸模型Flame ----《Learning a model of facial shape and expression from 4D scans》论文讲解及代码注释
  9. 201409-1 相邻数对
  10. CMMI五个级别旁解