常见的激活函数(Sigmoid,tanh双曲正切,ReLU修正线性单元,Leaky ReLU函数)
激活函数在神经元之间作为信息传递的隐射函数,是为了将我们神经元这样的线性模型进行非线性转换的重要存在,使得我们最终的神经网络模型才能够表达出强大的非线性数据拟合能力。
这里简单几种常见的激活函数。
一、Sigmoid函数
表达式为:
导函数为:
sigmoid是神经网络中很入门的一种激活函数,在以前得到了广泛使用,但是随着后来的学习发展,发现sigmoid的收敛速度很慢,而且因为本身的表达式不能很好的将神经元之间的信息进行非线性隐射,所以在深层神经网络的隐层的各层神经元之间逐渐被ReLU取代,但是即便到现在Sigmoid在输出层依然被广泛使用,因为人们总希望神经网络的输出是一个在0-1之间的数值,这样可以很好的表示每种类别存在的概率。
二、tanh双曲正切函数
表达式为:
导函数为:
双曲正切函数可以说是对sigmoid针对某些任务下的改进,将原来sigmoid隐射范围的[0,1]改成了[-1,1],根据实验者的表述,在大部分情况下,神经网络隐层中采用tanh函数效果比sigmoid函数效果教好。
但是同样tanh和sigmoid函数一样都存在的问题是收敛太慢,模型训练时间太久,并且非线性映射能力不是足够的强。
三、ReLU函数
表达式为:
导函数为:
ReLU函数可谓是可爱可亲,因为即便神经网络发展了这么久,很多强大的框架模型也被提出,可你始终能随时在这些模型的隐层中看见ReLU的身影,ReLU又叫修正线性单元,是一种非常好的能够将神经元之间传递的信息进行非线性隐射的激活函数,其次因为函数简单,收敛非常快,模型训练效果相比使用sigmoid会快很多,而且训练后的模型表达的效果也很好,所以是目前最常被使用的激活函数。
四、Leaky ReLU函数
表达式为:
导函数为:
Leaky ReLU函数又可以理解为对ReLU的一种改进,据说效果是比ReLU要稍微好一些,但没有具体进行实验操作,目前看到使用的相对还是ReLU多一些,感兴趣的同学可以使用实验一下。
常见的激活函数(Sigmoid,tanh双曲正切,ReLU修正线性单元,Leaky ReLU函数)相关推荐
- 激活函数--Sigmoid,tanh,RELU,RELU6,Mish,Leaky ReLU等
激活函数 目前自己使用比较多的激活函数RELU, RELU6; LeakyReLU; SELU; Mish :激活函数看:计算量:准确率: 大多数激活函数pytorch里有已经包装好了: Non-li ...
- 深度学习常用的激活函数以及python实现(Sigmoid、Tanh、ReLU、Softmax、Leaky ReLU、ELU、PReLU、Swish、Squareplus)
2022.05.26更新 增加SMU激活函数 前言 激活函数是一种添加到人工神经网络中的函数,类似于人类大脑中基于神经元的模型,激活函数最终决定了要发射给下一个神经元的内容. 此图来自百度百科,其中s ...
- 三种激活函数——Sigmoid,Tanh, ReLU以及卷积感受野的计算
1. 三种激活函数--Sigmoid, Tanh, ReLU 1.1 Sigmoid 1.1.1 公式 S ( x ) = 1 1 + e − x S(x) = \frac{1}{1 + e^{-x} ...
- 修正线性单元(Rectified linear unit,ReLU)
修正线性单元(Rectified linear unit,ReLU) Rectified linear unit 在神经网络中,常用到的激活函数有sigmoid函数f(x)=11+exp(−x).双曲 ...
- 【Pytorch神经网络理论篇】 07 激活函数+Sigmoid+tanh+ReLU+Swish+Mish+GELU
①激活函数:主要通过加入非线性因素,你不线性模型表达能力不足的缺陷,因为神经网络中的数学基础是处处可微分的函数,故要求激活函数也应该保证数据的输入与输出是可微分. ②激活函数可以分为饱和激活函数与不饱 ...
- 最全面:python绘制Sigmoid、Tanh、Swish、ELU、SELU、ReLU、ReLU6、Leaky ReLU、Mish、hard-Sigmoid、hard-Swish等激活函数(有源码)
python绘制激活函数 代码 示例 代码 我构建了一个关于激活函数的类,大家可以随意使用,包括其输出值和梯度值. 关于这些激活函数详解可以参考我这篇博客:深度学习-激活函数详解(Sigmoid.ta ...
- SMU激活函数 | 超越ReLU、GELU、Leaky ReLU让ShuffleNetv2提升6.22%
点击上方"计算机视觉工坊",选择"星标" 干货第一时间送达 作者丨ChaucerG 来源丨集智书童 选择一个好的激活函数可以对提高网络性能产生重要的影响.Han ...
- 激活函数-Sigmoid, Tanh及ReLU
什么是激活函数 在神经网络中,我们会对所有的输入进行加权求和,之后我们会在对结果施加一个函数,这个函数就是我们所说的激活函数.如下图所示. 为什么使用激活函数 我们使用激活函数并不是真的激活什么,这只 ...
- 激活函数详解(ReLU/Leaky ReLU/ELU/SELU/Swish/Maxout/Sigmoid/tanh)
神经网络中使用激活函数来加入非线性因素,提高模型的表达能力. ReLU(Rectified Linear Unit,修正线性单元) 形式如下: ReLU公式近似推导:: 下面解释上述公式中的softp ...
最新文章
- dos 下启动mysql时,报服务器找不到错误
- mysql 乐观锁 命令_MySQL-乐观锁
- mysql怎样删除上一行_mysql如何删除第一行数据
- div 居中,浏览器兼容性
- mybatis中常见的坑
- 用神经网络的衰变假设理解神经网络的翻译行为
- GDB怎么调试使用.sh(shell脚本)启动的程序?(未完成,待测试)
- Fiddler使用方法简介
- WPF中的一些常用类型转换
- 使用SharePoint 2010新增的文档集内容类型来管理文档
- 理发店管理系统java_美容美发店管理系统的设计与实现(JSP,SQLServer)(含录像)
- notes java api_如何使用Java来调用Notes API发送邮件(包括附件)
- 刚刚人均国民收入突破1万美元,作为打工人的你有感知吗?
- 用R语言实现深度学习情感分析
- 关于8266WiFi模块(AT)问题分析与解答(单片机和wifi模块连接)
- hdu 6592 Beauty Of Unimodal Sequence
- 全球及中国石头纸行业发展动态与投资现状分析报告2022版
- win10共享打印机搜索不到计算机,Win10专业版在局域网中搜索不到打印机
- Docker学习总结(46)——生产环境中遇到的Docker常见异常错误总结
- 把css样式表与html网页关联的方法,Dreamweaver 教程-CSS样式表的3种关联方法
热门文章
- 基于systemgenerator的根号计算
- 渗透测试信息收集之域名信息、子域名信息、IP信息、端口信息
- 锂亚硫酰氯电池包放电测试
- 【阿里云技术】PostgreSQL的20+种玩法
- 分布式锁的介绍与实现
- matlab中的三维可视化实现
- mllib逻辑回归 spark_Spark mllib 逻辑回归
- 《遇见尊上》4.1上线链游玩家|不甘天命、恋爱修仙
- python自动聊天机器人设置回复延迟_用Python 写一个聊天机器人陪你聊天(文尾有彩蛋)...
- echarts饼状图设置label的交互效果,饼状图鼠标浮上图形才显示label和视觉引导线