说明:

1. 在model.train()模式下Dropout层是有效的,在model.eval()模式下,Dropout层是无效的。

2. torch.nn.Dropout是采用的inverted 版本,为了“保持期望不变”而进行了rescale(缩放),缩放比例是1/(1-p),p是的丢弃比率。

Furthermore, the outputs are scaled by a factor of :math:`\frac{1}{1-p}` during
training. This means that during evaluation the module simply computes an
identity function.
#-*- coding:utf-8 -*-
#Author LJB Create on 2021/8/25
import torch.nn as nn
import torch
class Test(nn.Module):def __init__(self):super(Test,self).__init__()self.droprate=0.8self.dropout = nn.Dropout(self.droprate)def forward(self,x):o = self.dropout(x)print('++before dropout:',x/(1-self.droprate))print('---after dropout:',o)T = Test()data = torch.Tensor([1,2,3,4,5,6,7,8,9,10])
T.train()
for i in range(5):T(data)print('#'*40)
T.eval()
for i in range(5):T(data)

运行结果:

torch.nn.Dropout()细节记录相关推荐

  1. 【Pytorch】torch.nn.Dropout()

    目录 简介 torch.nn.Dropout() 语法 作用 举例 参考 结语 简介 Hello! 非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出-   ଘ(੭ˊᵕˋ)੭ 昵称:海轰 标签 ...

  2. PyTorch 笔记(20)— torchvision 的 datasets、transforms 数据预览和加载、模型搭建(torch.nn.Conv2d/MaxPool2d/Dropout)

    计算机视觉是深度学习中最重要的一类应用,为了方便研究者使用,PyTorch 团队专门开发了一个视觉工具包torchvision,这个包独立于 PyTorch,需通过 pip instal torchv ...

  3. torch.nn、(二)

    参考 torch.nn.(二) - 云+社区 - 腾讯云 目录 Recurrent layers RNN LSTM GRU RNNCell LSTMCell GRUCell Transformer l ...

  4. nn.Dropout

    Dropout torch.nn.Dropout(p=0.5, inplace=False) p – probability of an element to be zeroed. Default: ...

  5. [Pytorch系列-28]:神经网络基础 - torch.nn模块功能列表

    作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客 本文网址:https://blog.csdn.net/HiWangWenBing/article/detai ...

  6. PyTorch踩坑记录——torch.functional 与 torch.nn.functional的区别

    问题描述: 提示:刚入门深度学习,记录一些犯下的小错误: 由于本周开始试图复现华为的CTR库以增加记忆,熟悉代码细节,没想到第一天看基础模块的时候就遇到了麻烦,在torch.utils类中,有如下获取 ...

  7. torch.nn.Module()

    torch.nn.Module() 如果自己想研究,官方文档 它是所有的神经网络的根父类! 你的神经网络必然要继承! 模块也可以包含其他模块,允许将它们嵌套在树结构中.所以呢,你可以将子模块指定为常规 ...

  8. PyTorch中的torch.nn.Parameter() 详解

    PyTorch中的torch.nn.Parameter() 详解 今天来聊一下PyTorch中的torch.nn.Parameter()这个函数,笔者第一次见的时候也是大概能理解函数的用途,但是具体实 ...

  9. pytorch分布式训练(二):torch.nn.parallel.DistributedDataParallel

      之前介绍了Pytorch的DataParallel方法来构建分布式训练模型,这种方法最简单但是并行加速效果很有限,并且只适用于单节点多gpu的硬件拓扑结构.除此之外Pytorch还提供了Distr ...

最新文章

  1. 钉钉 6.0 盯上应用开发
  2. Java 8特性有望进入.Net/Mono
  3. 值得研究的 开源数据库
  4. C# textBox1.Append/Text实现换行
  5. CRM_UI start port determination how is port number 44356 determined
  6. SAP OData:MPC class get last modified - how to implement
  7. 130242014045 林承晖 第2次实验
  8. CentOS 5 yum Mono 2.4 (实战成功)
  9. 7-189 帅到没朋友 (20 分)
  10. 睡觉前后爆笑的情侣小两口~媳妇不要闹了~
  11. Java编程书籍收集(高级)
  12. 手机游戏开发如何正确选择设计分辨率
  13. 个性化推荐算法(推荐系统)概要
  14. 确定有限自动机DFA和非确定有限自动机NFA
  15. ctfshow 菜狗杯 一言既出 wp
  16. 轩辕实验室丨基于信息熵的车载网络流量异常检测防御方法
  17. 以新年之名,赠予新年好礼!
  18. 求助-强化学习基础-K-摇臂老虎机Python
  19. mac可以用计算机考试系统吗,苹果测试在iPhone上装macOS电脑系统?这太牛了吧
  20. 2020暨南大学计算机学硕上岸经验分享ʕ •ᴥ•ʔ

热门文章

  1. JAVA毕业设计Vue.js音乐播放器设计与实现计算机源码+lw文档+系统+调试部署+数据库
  2. CDN原理以及实验部署操作步骤
  3. Quant Macro:CTA与宏观经济指标的结合
  4. SEO优化新手必须掌握的10个技巧和工具
  5. 一、Camunda工作流的学习路线(开局一把刀,学完后青铜变王者)
  6. 6-5 atof函数的实现 (10分)
  7. imageNet 的 top1-error和 top5-accuracy
  8. 凯撒加密 Python实现
  9. 计算机图形学直线段的生成算法
  10. Node V12.13.1安装教程