【RL-GAN-Net】强化学习控制GAN网络,用于实时点云形状的补全。
文章目录
- 所解决的问题
- 所采用的方法?
- 自编码器
- lll-GAN
- 强化学习
- 取得的效果?
- 参考资料
- 论文题目:RL-GAN-Net: A Reinforcement Learning Agent Controlled GAN Network for Real-Time Point Cloud Shape Completion
所解决的问题
用强化学习控制GAN
网络,以使得GAN
更快,更鲁棒。将其用于点云数据生成。全网第一次用RL
控制GAN
。通过数据驱动的方法填补三维数据中的数据缺失。
所采用的方法?
预训练阶段,训练一个自编码器,用于生成隐空间的表示,之后用这个去训练GAN
网络。强化学习智能体用于选择合适的zzz向量,去合成隐空间的表示。与之前的反向传播发现zzz向量不同,本文采用RL
的方法进行选择。
主要由三个模块组成:1. 自编码器;2. lll-GAN;3. 强化学习智能体(RL
)。
自编码器
自编码器用的损失函数如下:
dCH(P1,P2)=∑a∈P1minb∈P2∥a−b∥22+∑b∈P2mina∈P1∥a−b∥22d_{C H}\left(P_{1}, P_{2}\right)=\sum_{a \in P_{1}} \min _{b \in P_{2}}\|a-b\|_{2}^{2}+\sum_{b \in P_{2}} \min _{a \in P_{1}}\|a-b\|_{2}^{2}dCH(P1,P2)=a∈P1∑b∈P2min∥a−b∥22+b∈P2∑a∈P1min∥a−b∥22
其中P1P_{1}P1和P2P_{2}P2代表点云的输入和输出。
lll-GAN
结合GFV
来训练GAN
。
- Chamfer loss:
输入点云数据PinP_{in}Pin和生成器和解码器输出数据E−1(G(z))E^{-1}(G(z))E−1(G(z))做loss
:
LCH=dCH(Pin,E−1(G(z)))L_{C H}=d_{C H}\left(P_{i n}, E^{-1}(G(z))\right)LCH=dCH(Pin,E−1(G(z)))
- GFV loss:生成
CFV
G(z)G(z)G(z)和输入点云E(Pin)E(P_{in})E(Pin)
LGFV=∥G(z)−E(Pin)∥22L_{G F V}=\left\|G(z)-E\left(P_{i n}\right)\right\|_{2}^{2}LGFV=∥G(z)−E(Pin)∥22
- Discriminator loss 判别器损失函数:
LD=−D(G(z))L_{D}=-D(G(z))LD=−D(G(z))
强化学习
强化学习用于快速选择GAN
生成器的输入zzz:
奖励函数定义为:
r=wCH⋅rCH+wGFV⋅rGFV+wD⋅rDr=w_{C H} \cdot r_{C H}+w_{G F V} \cdot r_{G F V}+w_{D} \cdot r_{D}r=wCH⋅rCH+wGFV⋅rGFV+wD⋅rD
其中 rCH=−LCHr_{CH}=-L_{CH}rCH=−LCH,rGFV=−lGFVr_{GFV}=-l_{GFV}rGFV=−lGFV,rD=−LDr_{D}=-L_{D}rD=−LD。智能体用DDPG
算法。
取得的效果?
参考资料
相似文献:
- Panos Achlioptas, Olga Diamanti, Ioannis Mitliagkas, and Leonidas J. Guibas. Representation learning and adversarial generation of 3d point clouds. CoRR, abs/1707.02392, 2017. (有提到用隐空间数据训练GAN会更稳定)。
相关GitHub
链接:
- https://github.com/lijx10/SO-Net
- https://github.com/heykeetae/Self-Attention-GAN
- https://github.com/sfujim/TD3
【RL-GAN-Net】强化学习控制GAN网络,用于实时点云形状的补全。相关推荐
- RL-GAN Net -- 首个将强化学习与GAN结合的网络
RL-GAN Net 引言 背景知识 强化学习 生成对抗网络 核心思想 基本框架 损失函数 网络结构 实验结果对比 总结 引言 作者首次将强化学习和生成对抗网络结合起来,用于点云数据生成.通过控制GA ...
- 什么生成对抗网络GAN、强化学习
一.什么是强化学习 强化学习(Reinforcement Learning, RL),指智能体(agent)在与环境的交互过程中通过学习策略达成回报的最大化或解决特定目标. 强化学习的常见模型是标准的 ...
- 读书笔记 - 多智能体强化学习在城市交通网络信号的综述2018
多智能体强化学习在城市交通网络信号 控制方法中的应用综述 交通信号控制系统在物理位置和控制逻辑上分散于动态变化的网络交通环境, 将每个路口的交通信号控制器看做一个异质的智能体, 非常适合采用无模型.自 ...
- 【ICLR 2018录用结果出炉】23篇oral干货,强化学习、对抗网络、可解释性最受关注...
Oral Papers:23篇 1.AmbientGAN: Generative models from lossy measurements (AmbientGAN:来自有损测量的生成模型) 作者: ...
- 深度强化学习控制六足机器人移动个人学习笔记(一)
深度强化学习控制六足机器人移动个人学习笔记(一) 注意事项 ubuntu18对应的ros版本不是Kinect gym算法执行中部分包要求Python不低于3.6 conda虚拟环境安装gym-gaze ...
- 第七章 深度强化学习-深度Q网络系列1(Deep Q-Networks,DQN)
获取更多资讯,赶快关注上面的公众号吧! 文章目录 第七章 深度强化学习-深度Q网络 7.1 学习目标 7.2 深度学习和强化学习的区别 7.3 DQN原理 7.4 DQN算法 7.4.1 预处理 7. ...
- 深度强化学习控制移动机器人
联系方式:860122112@qq.com 一.实验目的 使用深度强化学习控制移动机器人在复杂环境中避障.收集物品到指定点.所用到的算法包括DQN.Deuling-DDQN.A3C.DDPG.NAF. ...
- 强化学习、GAN与多巴胺对撞:阿里AI 智能体认知研讨会干货
2017年4月,阿里巴巴首次向外公布在人工智能"认知"层面上的研究成果:阿里巴巴认知计算实验室与伦敦大学学院计算机系合作,以游戏"星际争霸1"中的微观战斗场景为 ...
- 乔治亚理工提出基于GAN的强化学习算法用于推荐系统
Generative Adversarial User Model for Reinforcement Learning Based Recommendation System Xinshi Chen ...
- Transformer + RL:是强化学习魔高一尺,还是 Transformer 道高一丈? (1)
引言:为什么 Transformer 在 RL 上不 work Transformer 最早发源于自然语言处理领域(NLP),以一个非常惊人的标题 "Attention is All You ...
最新文章
- 转:strcat与strcpy与strcmp与strlen
- java成员变量和局部变量的初始化和内存中的运行机制
- RAID重组和数据库数据的修复与验证
- java正则过滤特殊字符
- DC/DC变换器的典型拓扑
- FTServer 0.9 发布,全文搜索服务器
- 2011.11.2 try
- HTML入门学习 -- HTML5 视频与音频
- 曲线组合图 类型详情
- mysql游标嵌套怎么写,mysql游标和嵌套游标
- lcd12864历程C语言程序,基于51单片机的LCD12864程序设计
- 加密狗破解加密狗复制
- Vue实例对象中的属性与方法---kalrry
- 颜色的英语单词,最好是中文和英文的
- 【Python技巧】字典
- A-star 算法原理分析
- 理想电压源VS实际电压源、理想电流源VS实际电流源
- ddk for win7
- [HOW TO]-android手机安装google play
- Hawk-and-Chicken