TF2.0—tf.keras.losses.BinaryCrossentropy
文章目录
- BinaryCrossentropy
- 实例
BinaryCrossentropy
tf.keras.losses.BinaryCrossentropy(from_logits=False, label_smoothing=0, reduction=losses_utils.ReductionV2.AUTO,name='binary_crossentropy'
)
描述
计算真实标签和预测标签之间的交叉熵损失
当只有两个标签类(假设为0和1)时,使用这个交叉熵损失。对于每个示例,每个预测都应该有一个浮点值
参数
from_logits
是否将y_pred解释为logit值的张量。
默认情况下,我们假设y_pred包含概率(即[0,1]中的值)
label_smoothing
浮点数在[0,1]中。
如果为0,则不会进行平滑处理。
当> 0时,我们将计算预测标签与真实标签的平滑版本之间的损失,其中平滑会将标签向0.5压缩。
label_smoothing的较大值对应于较重的平滑度
reduction
(可选)tf.keras.losses.reduction的类型,适用于损失。默认值为自动。
AUTO表示减少选项将由使用情况决定。
name
(可选)op的名称。默认为’ binary_crossenropy ’
调用的实例对象的参数
y_true : 真实值
y_pred : 预测值
sample_weight
可选的sample_weight用作损失的系数。
如果提供了标量,则损耗将简单地按给定值缩放。
如果sample_weight是大小[batch_size]的张量,则该批次的每个样本的总损失将由sample_weight向量中的相应元素重新缩放。
如果sample_weight的形状为[batch_size,d0,… dN-1](或可以广播为该形状),则y_pred的每个损失元素将通过sample_weight的相应值进行缩放。
实例
独立使用
y_true = [[0., 1.], [0., 0.]]
y_pred = [[0.6, 0.4], [0.4, 0.6]]
# Using 'auto'/'sum_over_batch_size' reduction type.
bce = tf.keras.losses.BinaryCrossentropy()
bce(y_true, y_pred).numpy()
0.815# Calling with 'sample_weight'.
bce(y_true, y_pred, sample_weight=[1, 0]).numpy()
0.458
# Using 'sum' reduction type.bce = tf.keras.losses.BinaryCrossentropy(reduction=tf.keras.losses.Reduction.SUM)bce(y_true, y_pred).numpy()1.630
# Using 'none' reduction type.
bce = tf.keras.losses.BinaryCrossentropy(reduction=tf.keras.losses.Reduction.NONE)
bce(y_true, y_pred).numpy()
如果对您有帮助,麻烦点赞关注,这真的对我很重要!!!如果需要互关,请评论留言!
TF2.0—tf.keras.losses.BinaryCrossentropy相关推荐
- tf.keras.losses.BinaryCrossentropy 损失函数 示例
import tensorflow as tf 计算真实标签和预测标签之间的交叉熵损失. 将此交叉熵损失用于二进制(0 或 1)分类应用程序.即2分类问题 参数 y_true (真实标签):此值为 0 ...
- TensorFlow tf.keras.losses.BinaryCrossentropy
cross-entropy loss L=−[ylogy^+(1−y)log(1−y^)]L=-[ylog\ \hat y+(1-y)log\ (1-\hat y)]L=−[ylog y^+(1−y ...
- tf.keras.losses.CategoricalCrossentropy 多分类 交叉熵 损失函数示例
文章目录 计算公式 计算过程 tf.keras.losses.CategoricalCrossentropy 实现 numpy 实现 import numpy as np import tensorf ...
- tensorflow tf.keras.losses.MeanSquaredError 均方差损失函数 示例
import tensorflow as tf import numpy as np 公式 error=1m∑i=1m(xi−yi)2error = \frac{1}{m}\sum_{i=1}^{m} ...
- tf.keras.losses.categorical_hinge 分类铰链 损失函数 示例
分类铰链 预测值应为 {-1, +1} or {0, 1} neg=max((1−正确值)×预测值)neg=max((1-正确值)\times 预测值)neg=max((1−正确值)×预测值) pos ...
- tf.keras.losses.KLDivergence KL散度 损失函数 示例
KL 散度 loss=正确值×log(正确值/预测值)loss = 正确值 \times log(正确值/预测值)loss=正确值×log(正确值/预测值) import tensorflow as ...
- tf.keras.losses.SquaredHinge 损失函数 示例
平方铰链 loss=(Max(1−正确值×预测值,0))2loss=(Max(1-正确值\times 预测值,0))^{2}loss=(Max(1−正确值×预测值,0))2 正确值应为 -1 或 1. ...
- tf.keras.losses.Poisson 损失函数 示例
泊松损失函数 预测值为为 PPP ,真实值 TTT . poisson(P,T)=1n∑i=1n(Pi−Tilog(Pi))poisson(P,T)=\frac{1}{n}\sum_{i=1}^{n} ...
- tf.keras.losses.MeanSquaredLogarithmicError 损失函数 的用法
均方对数误差 error=1n∑i=1n(log(pi+1)−log(ai+1))2error = \frac{1}{n}\sum_{i=1}^{n}(log(p_{i}+1)-log(a_{i}+1 ...
- tf.keras.losses.MeanAbsolutePercentageError 损失函数 示例
平均绝对百分比误差 MAPE MAPE 是 MAD 的变形,它是一个百分比值,因此比其他统计量更容易理解.例如,如果 MAPE 为 5,则表示预测结果较真实结果平均偏离 5 %.MAPE 的计算公式如 ...
最新文章
- Go基础系列:双层channel用法示例
- s7edge出现android停止,三星S7 Edge升级安卓7.0出现了这个问题!
- 编程练习:Matlab,图片保存
- linux高编IO-------opendir、closedir、readdir
- 无法访问虚拟机tomcat网页
- 11. Java基础之继承
- ipvs,ipvsadm的安装及使用
- rstudio python_Rstudio支持可视化的Markdown编辑了?
- 史上最全数据库中间件详解
- 华米科技将推出首款真无线耳机 支持降噪还能检测心率?
- matlab chirp函数模糊函数,8个OFDM-Chirp波形的时频域图及自(互)模糊函数图
- android thread线程通讯
- 关于Jedis和lettuce以及springDataRedis的一些区别
- oseasy还原卡_学校机房管理批量更新软件的问题还原卡、网刻、噢易OSS对比区别...
- 20年中国人均GDP排名变化
- 聚合广告SDK开发(一)——基础知识
- wincap问题之一(丢包)
- LaTex - 插入公式 (从MathType公式编辑器导入到LaTex中)
- 电脑桌面提醒事项软件哪些可以定时弹出窗口提醒
- 伸展树(二) - C++实现