如今,大多数人工智能(AI)系统都是基于处理任务的单个代理,或者在对抗模型的情况下,是一些相互竞争以改善系统整体行为的代理。然而,现实世界中的许多认知问题是大群人建立的知识的结果。以自动驾驶汽车场景为例,任何座席的决策都是场景中许多其他座席行为的结果。金融市场或经济中的许多情景也是大型实体之间协调行动的结果。我们如何模仿人工智能(AI)代理中的行为?

多智能体强化学习(MARL)是深度学习学科,侧重于包含多个代理的模型,这些代理通过动态地与其环境交互来学习。在单一代理强化学习场景中,环境状态仅由于代理的动作而改变,在MARL场景中,环境受到所有代理的操作。从这个角度来看,我们是否将MARL环境视为元组{X1-A1,X2-A2 … .Xn-An},其中Xm是任何给定的代理,Am是任何给定的动作,然后环境的新状态是由A1xA2x … .An定义的一组连接动作的结果。换句话说,MARL场景的复杂性随着环境中代理的数量而增加。

MARL场景的另一个复杂性增加与代理的行为有关。 在许多情况下,MARL模型中的代理可以协同,竞争或表现出中立行为。 为了处理这些复杂性,MARL技术借鉴了博弈论中的一些想法,这对于具有多个参与者的模型环境非常有用。 具体来说,大多数MARL场景可以使用以下游戏模型之一来表示:

·静态游戏:静态游戏是指所有玩家同时做出决策(或选择策略)的游戏,而不了解其他玩家正在选择的策略。即使可以在不同的时间点做出决定,游戏也是同步的,因为每个玩家都没有关于他人决定的信息;因此,就好像决定是同时做出的。

·舞台游戏:舞台游戏是在静态游戏的某个阶段出现的游戏。换句话说,游戏规则取决于具体阶段。囚徒困境是舞台游戏的典型例子

·重复游戏:当玩家通过多次玩类似的舞台游戏(例如囚徒的困境)进行互动时,游戏被称为重复游戏。与曾经玩过一次的游戏不同,重复游戏允许策略取决于过去的动作,从而允许声誉效果和报应。

大多数MARL场景可以建模为静态,阶段或重复游戏。游戏理论中的新领域,例如平均场比赛在MARL场景中变得非常有价值(更多关于未来的帖子)。

MARL Algorithms and Game Theory

最近,我们看到研究实验室中生成的MARL算法数量激增。 跟上所有的研究是非常困难的,但在这里我们也可以使用一些博弈论的想法。 我见过了解MARL空间的最佳分类法之一是将代理人的行为分为完全合作,完全竞争或混合。 以下是使用该分类标准对MARL空间的快速分类。

在该级别,我们可以添加另一个有趣的分类标准,该标准基于MARL系统中的代理需要执行的任务类型。 例如,在某些MARL环境中,代理商会在完全隔离其他代理商的情况下做出决策,而在其他情况下,代理商会与合作伙伴或竞争对手进行协调。

MARL代理商面临的挑战

MARL模型为深度学习任务提供了切实的好处,因为它们是现实世界中许多认知活动的壁橱代表。但是,在实施此类模型时需要考虑很多挑战。在没有尝试提供详尽的列表的情况下,在考虑实施MARL模型时,任何数据科学家都应该首先考虑三个挑战:

1.维度的诅咒:深度学习系统的着名挑战在MARL模型中尤为重要。随着代理/玩家数量的增加,许多适用于某些游戏环境的MARL策略都会失败。

2.培训:在MARL情景中,协调大量代理人的培训是另一场噩梦。通常,MARL模型使用一些培训政策协调机制来最小化培训任务的影响。

3.歧义:MARL模型非常容易受到代理歧义情形的影响。想象一下多人游戏,其中两个代理在环境中占据完全相同的位置。为了应对这些挑战,每个代理商的政策都需要考虑其他代理商采取的行动。

MARL模型被称为未来十年最相关的深度学习学科。当这些模型处理更复杂的场景时,我们可能会看到更多来自博弈论的想法成为MARL场景的基础。

现代博弈论与多智能体强化学习系统相关推荐

  1. 张海峰-从博弈论到多智能体强化学习

    文章目录 内容摘要 群体决策智能研究背景 博弈论 多智能体强化学习 研究展望 内容摘要 ·随着以图像识别为代表的"感知智能"日趋成熟,越来越多的人工智能研究者开始关注以AlphaG ...

  2. 《强化学习周刊》第40期:PMIC多智能体强化学习、Lazy-MDPs、CTDS

    No.40 智源社区 强化学习组 强 化 学  习 研究 观点 资源 活动 周刊订阅 告诉大家一个好消息,<强化学习周刊>已经开启"订阅功能",以后我们会向您自动推送最 ...

  3. 多智能体强化学习与博弈论-博弈论基础

    多智能体强化学习与博弈论-博弈论基础 最近开始学习一些多智能体强化学习相关的内容,因此我打算写一些多智能体强化学习和博弈论相关的学习记录

  4. 多智能体强化学习与博弈论-博弈论基础4

    多智能体强化学习与博弈论-博弈论基础4 本篇文章主要讲的是贝叶斯博弈(Bayesian Games,也称作不完全信息博弈)和拍卖理论.不完全信息博弈在我们生活中经常出现,比如拍卖,在市场和别人讨价还价 ...

  5. 多智能体强化学习与博弈论-博弈论基础2

    多智能体强化学习与博弈论-博弈论基础2 Repeated Games(重复博弈) 之前我们介绍了一些单次博弈的例子,除了单次博弈外,重复博弈也是经常在我们生活中出现的.在重复博弈中智能体有机会在单次的 ...

  6. 博弈论-多智能体强化学习基础

    博弈是多智能体强化学习中的常用理论.本文介绍几种基本的博弈游戏. 1 囚徒困境 在囚徒困境博弈中,两名犯罪的囚犯一起被警察盘问,每个罪犯都有两种选择:一种是与警察合作来对付同伙:另一种是与同伙串通而对 ...

  7. 《强化学习周刊》第16期:多智能体强化学习的最新研究与应用

    No.16 智源社区 强化学习组 强 化 学  习 研究 观点 资源 活动 关于周刊 强化学习作为人工智能领域研究热点之一,多智能强化学习的研究进展与成果也引发了众多关注.为帮助研究与工程人员了解该领 ...

  8. 《强化学习周刊》第2期:多智能体强化学习(MARL)赋能“AI智能时代”

    No.02 智源社区 强化学习组 R L 学  习 研究 观点 资源 活动 关于周刊 随着强化学习研究的不断成熟,如何将其结合博弈论的研究基础,解决多智能体连续决策与优化问题成为了新的研究领域,为了帮 ...

  9. 上海交大开源训练框架,支持大规模基于种群多智能体强化学习训练

    机器之心专栏 作者:上海交大和UCL多智能体强化学习研究团队 基于种群的多智能体深度强化学习(PB-MARL)方法在星际争霸.王者荣耀等游戏AI上已经得到成功验证,MALib 则是首个专门面向 PB- ...

最新文章

  1. Lession 15 Good news
  2. Keras中Callback函数的使用
  3. 回顾 | Kubernetes SIG-Cloud-Provider-Alibaba 首次网研会(含 PPT 下载)
  4. 复现网状的记忆Transformer图像描述模型(失败)
  5. 2016年12月数据库流行度排行榜
  6. 九九乘法表编程上三角python_java语言打印上三角和下三角,进一步得到九九乘法表...
  7. 判断用户名和密码是否正确java_facebook中如何判断用户名和密码是否正确
  8. 安卓牛客专项练习2020.12.31
  9. 计算机网络应用是学什么类型的,计算机网路中服务类型及应用
  10. html怎么做成响应式的,怎么用html5完成响应式布局?
  11. SparkStreaming kafka zookeeper本地环境调试安装
  12. mysql php教程笔记_Mysql学习笔记(一)
  13. R语言线性混合效应模型实战案例
  14. (八)IT_开发常用单词大全
  15. HTML5期末考核大作业——学生网页设计作业源码HTML+CSS+JavaScript 中华美德6页面带音乐文化
  16. 枯燥的Kotlin协程三部曲(中)——应用实战篇
  17. 亲密关系科学(05)男女大脑激素差异
  18. 狂胜——Redis学习笔记
  19. @PostMapping和@GetMapping使用详解
  20. SpringBoot POI导出Excel

热门文章

  1. Linux手动内存转储,转:八大Linux/Unix服务器内存转储工具
  2. 程序运行过程,C盘占用暴增_内存转储文件
  3. 谈谈你对java的理解,java是“解释执行”这句话对吗?
  4. excel、wps中用VLOOKUP函数查找相同产品对应的价格
  5. 弘辽科技:拼多多618红包雨一天有几次?怎么使用红包?
  6. 苹果屏幕上的小圆点_原来苹果手机轻点两下就能截屏,黑科技十足,我也是才发现...
  7. 《基于Modern工具包的本地化方式》的错误修正
  8. 真正理解傅里叶级数和傅里叶变换
  9. 创建java取消module_在idea 中添加和删除模块Module操作
  10. 在火狐浏览器安装vue devtools【简单、快速】