文章目录

  • BinaryCrossentropy
  • 实例

BinaryCrossentropy

tf.keras.losses.BinaryCrossentropy(from_logits=False, label_smoothing=0, reduction=losses_utils.ReductionV2.AUTO,name='binary_crossentropy'
)

描述

计算真实标签和预测标签之间的交叉熵损失
当只有两个标签类(假设为0和1)时,使用这个交叉熵损失。对于每个示例,每个预测都应该有一个浮点值

参数

from_logits
是否将y_pred解释为logit值的张量。
默认情况下,我们假设y_pred包含概率(即[0,1]中的值)

label_smoothing
浮点数在[0,1]中。
如果为0,则不会进行平滑处理。
当> 0时,我们将计算预测标签与真实标签的平滑版本之间的损失,其中平滑会将标签向0.5压缩。
label_smoothing的较大值对应于较重的平滑度

reduction
(可选)tf.keras.losses.reduction的类型,适用于损失。默认值为自动。
AUTO表示减少选项将由使用情况决定。

name
(可选)op的名称。默认为’ binary_crossenropy ’

调用的实例对象的参数

y_true : 真实值

y_pred : 预测值

sample_weight
可选的sample_weight用作损失的系数。
如果提供了标量,则损耗将简单地按给定值缩放。
如果sample_weight是大小[batch_size]的张量,则该批次的每个样本的总损失将由sample_weight向量中的相应元素重新缩放。
如果sample_weight的形状为[batch_size,d0,… dN-1](或可以广播为该形状),则y_pred的每个损失元素将通过sample_weight的相应值进行缩放。

实例

独立使用

y_true = [[0., 1.], [0., 0.]]
y_pred = [[0.6, 0.4], [0.4, 0.6]]
# Using 'auto'/'sum_over_batch_size' reduction type.
bce = tf.keras.losses.BinaryCrossentropy()
bce(y_true, y_pred).numpy()
0.815# Calling with 'sample_weight'.
bce(y_true, y_pred, sample_weight=[1, 0]).numpy()
0.458
 # Using 'sum' reduction type.bce = tf.keras.losses.BinaryCrossentropy(reduction=tf.keras.losses.Reduction.SUM)bce(y_true, y_pred).numpy()1.630
# Using 'none' reduction type.
bce = tf.keras.losses.BinaryCrossentropy(reduction=tf.keras.losses.Reduction.NONE)
bce(y_true, y_pred).numpy()

如果对您有帮助,麻烦点赞关注,这真的对我很重要!!!如果需要互关,请评论留言!


TF2.0—tf.keras.losses.BinaryCrossentropy相关推荐

  1. tf.keras.losses.BinaryCrossentropy 损失函数 示例

    import tensorflow as tf 计算真实标签和预测标签之间的交叉熵损失. 将此交叉熵损失用于二进制(0 或 1)分类应用程序.即2分类问题 参数 y_true (真实标签):此值为 0 ...

  2. TensorFlow tf.keras.losses.BinaryCrossentropy

    cross-entropy loss L=−[ylogy^+(1−y)log(1−y^)]L=-[ylog\ \hat y+(1-y)log\ (1-\hat y)]L=−[ylog y^​+(1−y ...

  3. tf.keras.losses.CategoricalCrossentropy 多分类 交叉熵 损失函数示例

    文章目录 计算公式 计算过程 tf.keras.losses.CategoricalCrossentropy 实现 numpy 实现 import numpy as np import tensorf ...

  4. tensorflow tf.keras.losses.MeanSquaredError 均方差损失函数 示例

    import tensorflow as tf import numpy as np 公式 error=1m∑i=1m(xi−yi)2error = \frac{1}{m}\sum_{i=1}^{m} ...

  5. tf.keras.losses.categorical_hinge 分类铰链 损失函数 示例

    分类铰链 预测值应为 {-1, +1} or {0, 1} neg=max((1−正确值)×预测值)neg=max((1-正确值)\times 预测值)neg=max((1−正确值)×预测值) pos ...

  6. tf.keras.losses.KLDivergence KL散度 损失函数 示例

    KL 散度 loss=正确值×log(正确值/预测值)loss = 正确值 \times log(正确值/预测值)loss=正确值×log(正确值/预测值) import tensorflow as ...

  7. tf.keras.losses.SquaredHinge 损失函数 示例

    平方铰链 loss=(Max(1−正确值×预测值,0))2loss=(Max(1-正确值\times 预测值,0))^{2}loss=(Max(1−正确值×预测值,0))2 正确值应为 -1 或 1. ...

  8. tf.keras.losses.Poisson 损失函数 示例

    泊松损失函数 预测值为为 PPP ,真实值 TTT . poisson(P,T)=1n∑i=1n(Pi−Tilog(Pi))poisson(P,T)=\frac{1}{n}\sum_{i=1}^{n} ...

  9. tf.keras.losses.MeanSquaredLogarithmicError 损失函数 的用法

    均方对数误差 error=1n∑i=1n(log(pi+1)−log(ai+1))2error = \frac{1}{n}\sum_{i=1}^{n}(log(p_{i}+1)-log(a_{i}+1 ...

  10. tf.keras.losses.MeanAbsolutePercentageError 损失函数 示例

    平均绝对百分比误差 MAPE MAPE 是 MAD 的变形,它是一个百分比值,因此比其他统计量更容易理解.例如,如果 MAPE 为 5,则表示预测结果较真实结果平均偏离 5 %.MAPE 的计算公式如 ...

最新文章

  1. Go基础系列:双层channel用法示例
  2. s7edge出现android停止,三星S7 Edge升级安卓7.0出现了这个问题!
  3. 编程练习:Matlab,图片保存
  4. linux高编IO-------opendir、closedir、readdir
  5. 无法访问虚拟机tomcat网页
  6. 11. Java基础之继承
  7. ipvs,ipvsadm的安装及使用
  8. rstudio python_Rstudio支持可视化的Markdown编辑了?
  9. 史上最全数据库中间件详解
  10. 华米科技将推出首款真无线耳机 支持降噪还能检测心率?
  11. matlab chirp函数模糊函数,8个OFDM-Chirp波形的时频域图及自(互)模糊函数图
  12. android thread线程通讯
  13. 关于Jedis和lettuce以及springDataRedis的一些区别
  14. oseasy还原卡_学校机房管理批量更新软件的问题还原卡、网刻、噢易OSS对比区别...
  15. 20年中国人均GDP排名变化
  16. 聚合广告SDK开发(一)——基础知识
  17. wincap问题之一(丢包)
  18. LaTex - 插入公式 (从MathType公式编辑器导入到LaTex中)
  19. 电脑桌面提醒事项软件哪些可以定时弹出窗口提醒
  20. 伸展树(二) - C++实现

热门文章

  1. linux用命令行来执行php程序
  2. BUAA软工第0次作业
  3. 第一章:Chrome 43 配置 java + selenium 环境
  4. 2-PowerShell 对象,查询操作和格式化
  5. 2.1Android底层开发需要哪些工具
  6. 开源 -- 机器学习相关报道
  7. 浅析Thinkphp框架中运用phprpc扩展模式
  8. cocos2d-x学习记录3——CCTouch触摸响应
  9. HDOJ 1257 (最长字序列问题)
  10. 091118 T 数组的继承