【RL-GAN-Net】强化学习控制GAN网络,用于实时点云形状的补全。
文章目录
- 所解决的问题
- 所采用的方法?
- 自编码器
- lll-GAN
- 强化学习
- 取得的效果?
- 参考资料
- 论文题目:RL-GAN-Net: A Reinforcement Learning Agent Controlled GAN Network for Real-Time Point Cloud Shape Completion
所解决的问题
用强化学习控制GAN
网络,以使得GAN
更快,更鲁棒。将其用于点云数据生成。全网第一次用RL
控制GAN
。通过数据驱动的方法填补三维数据中的数据缺失。
所采用的方法?
预训练阶段,训练一个自编码器,用于生成隐空间的表示,之后用这个去训练GAN
网络。强化学习智能体用于选择合适的zzz向量,去合成隐空间的表示。与之前的反向传播发现zzz向量不同,本文采用RL
的方法进行选择。
主要由三个模块组成:1. 自编码器;2. lll-GAN;3. 强化学习智能体(RL
)。
自编码器
自编码器用的损失函数如下:
dCH(P1,P2)=∑a∈P1minb∈P2∥a−b∥22+∑b∈P2mina∈P1∥a−b∥22d_{C H}\left(P_{1}, P_{2}\right)=\sum_{a \in P_{1}} \min _{b \in P_{2}}\|a-b\|_{2}^{2}+\sum_{b \in P_{2}} \min _{a \in P_{1}}\|a-b\|_{2}^{2}dCH(P1,P2)=a∈P1∑b∈P2min∥a−b∥22+b∈P2∑a∈P1min∥a−b∥22
其中P1P_{1}P1和P2P_{2}P2代表点云的输入和输出。
lll-GAN
结合GFV
来训练GAN
。
- Chamfer loss:
输入点云数据PinP_{in}Pin和生成器和解码器输出数据E−1(G(z))E^{-1}(G(z))E−1(G(z))做loss
:
LCH=dCH(Pin,E−1(G(z)))L_{C H}=d_{C H}\left(P_{i n}, E^{-1}(G(z))\right)LCH=dCH(Pin,E−1(G(z)))
- GFV loss:生成
CFV
G(z)G(z)G(z)和输入点云E(Pin)E(P_{in})E(Pin)
LGFV=∥G(z)−E(Pin)∥22L_{G F V}=\left\|G(z)-E\left(P_{i n}\right)\right\|_{2}^{2}LGFV=∥G(z)−E(Pin)∥22
- Discriminator loss 判别器损失函数:
LD=−D(G(z))L_{D}=-D(G(z))LD=−D(G(z))
强化学习
强化学习用于快速选择GAN
生成器的输入zzz:
奖励函数定义为:
r=wCH⋅rCH+wGFV⋅rGFV+wD⋅rDr=w_{C H} \cdot r_{C H}+w_{G F V} \cdot r_{G F V}+w_{D} \cdot r_{D}r=wCH⋅rCH+wGFV⋅rGFV+wD⋅rD
其中 rCH=−LCHr_{CH}=-L_{CH}rCH=−LCH,rGFV=−lGFVr_{GFV}=-l_{GFV}rGFV=−lGFV,rD=−LDr_{D}=-L_{D}rD=−LD。智能体用DDPG
算法。
取得的效果?
参考资料
相似文献:
- Panos Achlioptas, Olga Diamanti, Ioannis Mitliagkas, and Leonidas J. Guibas. Representation learning and adversarial generation of 3d point clouds. CoRR, abs/1707.02392, 2017. (有提到用隐空间数据训练GAN会更稳定)。
相关GitHub
链接:
- https://github.com/lijx10/SO-Net
- https://github.com/heykeetae/Self-Attention-GAN
- https://github.com/sfujim/TD3
【RL-GAN-Net】强化学习控制GAN网络,用于实时点云形状的补全。相关推荐
- RL-GAN Net -- 首个将强化学习与GAN结合的网络
RL-GAN Net 引言 背景知识 强化学习 生成对抗网络 核心思想 基本框架 损失函数 网络结构 实验结果对比 总结 引言 作者首次将强化学习和生成对抗网络结合起来,用于点云数据生成.通过控制GA ...
- 什么生成对抗网络GAN、强化学习
一.什么是强化学习 强化学习(Reinforcement Learning, RL),指智能体(agent)在与环境的交互过程中通过学习策略达成回报的最大化或解决特定目标. 强化学习的常见模型是标准的 ...
- 读书笔记 - 多智能体强化学习在城市交通网络信号的综述2018
多智能体强化学习在城市交通网络信号 控制方法中的应用综述 交通信号控制系统在物理位置和控制逻辑上分散于动态变化的网络交通环境, 将每个路口的交通信号控制器看做一个异质的智能体, 非常适合采用无模型.自 ...
- 【ICLR 2018录用结果出炉】23篇oral干货,强化学习、对抗网络、可解释性最受关注...
Oral Papers:23篇 1.AmbientGAN: Generative models from lossy measurements (AmbientGAN:来自有损测量的生成模型) 作者: ...
- 深度强化学习控制六足机器人移动个人学习笔记(一)
深度强化学习控制六足机器人移动个人学习笔记(一) 注意事项 ubuntu18对应的ros版本不是Kinect gym算法执行中部分包要求Python不低于3.6 conda虚拟环境安装gym-gaze ...
- 第七章 深度强化学习-深度Q网络系列1(Deep Q-Networks,DQN)
获取更多资讯,赶快关注上面的公众号吧! 文章目录 第七章 深度强化学习-深度Q网络 7.1 学习目标 7.2 深度学习和强化学习的区别 7.3 DQN原理 7.4 DQN算法 7.4.1 预处理 7. ...
- 深度强化学习控制移动机器人
联系方式:860122112@qq.com 一.实验目的 使用深度强化学习控制移动机器人在复杂环境中避障.收集物品到指定点.所用到的算法包括DQN.Deuling-DDQN.A3C.DDPG.NAF. ...
- 强化学习、GAN与多巴胺对撞:阿里AI 智能体认知研讨会干货
2017年4月,阿里巴巴首次向外公布在人工智能"认知"层面上的研究成果:阿里巴巴认知计算实验室与伦敦大学学院计算机系合作,以游戏"星际争霸1"中的微观战斗场景为 ...
- 乔治亚理工提出基于GAN的强化学习算法用于推荐系统
Generative Adversarial User Model for Reinforcement Learning Based Recommendation System Xinshi Chen ...
- Transformer + RL:是强化学习魔高一尺,还是 Transformer 道高一丈? (1)
引言:为什么 Transformer 在 RL 上不 work Transformer 最早发源于自然语言处理领域(NLP),以一个非常惊人的标题 "Attention is All You ...
最新文章
- Ruby开发环境配置
- Android Color 判断色值小结
- 网站优化与网站权重息息相关
- Matlab语音信号频谱分析代码实现
- mysql复制架构迁移到pxc_2020-03-18 Mysql常见的HA中间层架构mmm,pxc,mha
- Arduino系列硬件资源介绍
- 从门户网站看内容传播的开放式革命
- 三大运营商5G预约用户数近9百万 5G商用进入倒计时
- python中特殊变量-python list每三个分成一组python中星号变量的几种特殊用法
- 敏捷外包工程系列之四:合理选择质量管理的等级(一)
- 微信公众号支付安卓和WP支付成功,苹果不能支付!
- RDS SQL Server - 专题分享 - 巧用执行计划缓存之Table Scan
- MFC截图工具(不断更新)
- LAMP平台部署及应用(二) 安装Discuz!论坛系统
- 安恒赛php_安恒四月赛部分Writeup
- Excel 设置数字以万为单位显示以更准确地表达数目
- 记一次git pull 错误
- RIoTBoard开发板系列笔记(四)—— 使用VPU硬件解码
- 测试必会Linux命令
- 3.1_28_4 JDK8新特性【Date】之ZoneId 时区信息
热门文章
- 表达式二叉树(蛋疼ing)
- java线程中yield(),sleep(),wait()区别详解
- 2012春季ACM内部测试赛3
- NSF和NSR技术原理
- SpringCloud-Zuul(二):自定义Filter及内部路由源码解析
- Debian — command not found
- 全栈JavaScript之路(十三)了解 ElementTraversal 规范
- 开发环境配置(netbeans+ant迁移到eclipse+maven)
- Linux使用命令 笔记
- ASUS F9系列XP硬件驱动