Pytorch之gather的用法(易懂的方式解释)
百度了一圈gather的用法,看的一知半解,结合了几篇博客的讲解,终于理解了这个的用法,记录下来,用于以后忘记的时候自己可以快速复习,同时不懂得小伙伴也可以参考下我这得理解,或许能帮助到你!!!
首先了解下函数中的参数:
torch.gather(input, dim, index, out=None) → Tensor
Parameters:
input (Tensor) – The source tensordim (int) – The axis along which to indexindex (LongTensor) – The indices of elements to gatherout (Tensor, optional) – Destination tensor
input :需要索引的 tensor
dim : 指索引的维度 (0代表横向 1代表纵向 以此类推)
index: 索引的下标
接下来直接上例子解释
import torchb = torch.Tensor([[1,2,3],[4,5,6]])
index_1 = torch.LongTensor([[0,1],[2,0]])
index_2 = torch.LongTensor([[0,1,1],[0,0,0]])
print (torch.gather(b, dim=1, index=index_1))
print (torch.gather(b, dim=0, index=index_2))
输出:
tensor([[1., 2.],[6., 4.]])
tensor([[1., 5., 6.],[1., 2., 3.]])
第一个式子 dim=1:torch.gather(b, dim=1, index=index_1)
input : b =
1,2,3
4,5,6
dim = 1 :代表的是维度1也就是列
index =
0,1
2,0
了解了输入后我们分步进行解析
- index 的指就是代表对应维度,这里dim=1 ,0就代表第0列,1就代表第一列,2就代表第二列,我们先把每一个输出的值在input中的坐标的列写出来,注意一点,输出的shape也就是index的shape
(,0),(,1)
(,2),(,0)
这样我们就完成了每个输出所在input中的坐标的列的定位
- 接下来每个输出的定位横坐标。每个输出的横坐标,也就是所在输出的横坐标
(0,0),(0,1)
(1,2),(1,0)
- 最后用我们上面得到的坐标去获取input中对应的值
1,2
6,4
第二个式子 dim=0 :torch.gather(b, dim=0, index=index_2)
input : b =
1,2,3
4,5,6
dim = 0 :代表的是维度0也就是行
index =
0,1,1
0,0,0
- 有了上个式子的经验,第一步当然是写出对应dim的坐标啦,这个式子dim=0,也就可以先写出横坐标,这里的横坐标,就是index对应的值
(0,),(1,),(1,)
(0,),(0,),(0,)
- 接下来写出纵坐标,纵坐标也就是输出所对应的纵坐标
(0,0),(1,1),(1,2)
(0,0),(0,1),(0,2)
- 最后写出对应input的值
1,5,6
1,2,3
有了上面两个式子的解释,现在可以总结出gather 的用法了
gather的用法就是index所提供要索引的dim维的位置,其余维度的位置也就是index对应的位置 ,也就是输出的坐标,把dim维的替换成index中对应的数字 。
还不理解的话,再举个官方的例子:
>>> t = torch.Tensor([[1,2],[3,4]])
>>> torch.gather(t, 1, torch.LongTensor([[0,0],[1,0]]))1 14 3[torch.FloatTensor of size 2x2]
index 的中每个元素的坐标为:
(0,0),(0,1)
(1,0),(1,1)
dim= 1 ,也就是把第二个维度的坐标替换成index中的值
(0,0),(0,0)
(1,1),(1,0)
最后写出对应input中的值
1,1
4,3
如果还不懂的话,推荐一个博客,看看别人的讲解吧:https://blog.csdn.net/edogawachia/article/details/80515038
Pytorch之gather的用法(易懂的方式解释)相关推荐
- pytorch中gather用法
pytorch中gather的用法 2维度tensor进行映射: 3维度tensor进行映射: gather其实是对input进行一种映射,index必须是 LongTensor格式. 2维度tens ...
- Pytorch中gather函数的个人理解方法
之前一直理解不了Pytorch中gather的用法,看了官方的文档也是一头雾水.然后自己琢磨,找规律,用以下方法进行理解. 一.官方文档 torch.gather(input, dim, index, ...
- Pytorch 中retain_graph的用法
Pytorch 中retain_graph的用法 用法分析 在查看SRGAN源码时有如下损失函数,其中设置了retain_graph=True,其作用是什么? #################### ...
- pytorch单机多卡的正确打开方式 以及可能会遇到的问题和相应的解决方法
pytorch 单机多卡的正确打开方式 pytorch 使用单机多卡,大体上有两种方式 简单方便的 torch.nn.DataParallel(很 low,但是真的很简单很友好) 使用 torch.d ...
- ES6 模块 export 用法(三种方式)
前言 使用 ES6 Module 新特性,提供模块格式.前端项目中,常用于封装 API .所以这里做个汇总及差异对比说明. 方式一:export 定义 /** common.js */// 设置名称 ...
- 极智AI | pytorch 与 darknet 计算卷积输出 shape 方式对比
欢迎关注我的公众号 [极智视界],回复001获取Google编程规范 O_o >_< o_O O_o ~_~ o_O 本文记录了 pytorch 与 dar ...
- pytorch框架自动调整学习率的几种方式
目录 一.前言 二.Pytorch中自动调整学习率的几种方式 2.1 ExponentialLR-指数衰减方式 2.2 ExponentialLR方式对网络训练的影响 2.3 MultiStep ...
- PyTorch中gather()函数的用法
torch.gather(input, dim, index, out=None) → Tensor 沿给定轴,按照索引张量将原张量的指定位置的元素重新聚合成一个新的张量 参数含义: input (T ...
- 使用pytorch构建LSTM_AE模型的两种方式
目录 1.LSTM-Encoder-Decoder模型结构及简要解析 2.general LSTM Unit--使用pytorch nn.LSTM组件构建LSTM_AE 1.定义Encoder: 2. ...
最新文章
- 电脑服务器信息,电脑服务器怎么看模块信息
- JavaScript有关的10个怪癖和秘密
- 2021 三月1日雅思口语考试反思
- java datasource 配置_Spring boot 基于注解方式配置datasource
- Linux的syscall源码,Linux内核跟踪之syscall tracer
- 4.json字符串转换集json对象、json对象转换json字符串
- linux显示器复制模式,屏幕扩展模式、复制模式与合并模式
- PPAPI插件与浏览器的通信
- 数据中心服务器巡检方案,数据中心巡检机器人方案.pdf
- echarts全国省市县下钻
- bat一键清理系统垃圾/系统日志
- opencv第九天pro
- 氨基-八聚乙二醇Amino-PEG8-alcohol,352439-37-3
- 绝了!你裁我剪,斯尼帕!文末源码
- ZStack——存储模型:主存储和备份存储
- 围棋计算机运算,围棋冠军:用计算力赢计算机
- 电脑锁屏重新开启后无网络网络适配器属性没有电源管理选项
- 计算机视觉—基于BOW的图像检索
- html简单的简历制作
- 话说会火到2019年的句子
热门文章
- 计算机辅助科学cAl,计算机辅助学习(CAL)系统综述
- 《原生javascript制作各种酷炫组件》专栏介绍
- 【XRT Vitis-Tutorials】图像并行计算
- “欧内的手,好汉?”,降噪、反相人声、制作消音伴奏,看懂这篇就够了
- mysql_general.log清理,清理Mysql general_log的方法总结
- 【分治法】解决中位数问题、格雷码问题以及分治法直接折半存在的问题讨论————武汉理工大学算法分析实验1
- 心之所向,你和远方。
- Leetcode1 daxia_xu
- DevExpress论坛
- Javac.cn 技术站论坛已经发布,正在进行人员招募中...