f1 score 代码_f1 score loss 实现问题「建议收藏」

f1 score 代码_f1 score loss 实现问题「建议收藏」在paddle上实现了一个f1loss函数:def_compute_loss(self,dec_output):tp=fluid.layers.sum(fluid.layers.cast(self.label*dec_output,dtype=”float32″))tn=fluid.layers.sum(fluid.layers.cast((1-self.label)*…

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全系列IDE稳定放心使用

在paddle上实现了一个f1 loss函数:

def _compute_loss(self, dec_output): tp = fluid.layers.sum(fluid.layers.cast(self.label * dec_output, dtype=”float32″)) tn = fluid.layers.sum(fluid.layers.cast((1 -self.label) * (1 – dec_output), dtype=”float32″)) fp = fluid.layers.sum(fluid.layers.cast((1 -self.label) * dec_output, dtype=”float32″)) fn = fluid.layers.sum(fluid.layers.cast(self.label * (1 – dec_output), dtype=”float32″)) print (“shape:loss”, tp.shape, tn.shape, fp.shape, fn.shape) p = tp / (tp + fp + 1e-07) r = tp / (tp + fn + 1e-07) f1 = 2 * p * r / (p + r + 1e-07) print (“f1_shape “, f1.shape) print (“mean_shape “, fluid.layers.mean(f1)) print (“loss_shape”, 1 – fluid.layers.mean(f1)) return 1 – fluid.layers.mean(f1), dec_output, self.label

输出的shape如下:

shape:loss (-1L, -1L, 3L) (-1L, -1L, 3L) (-1L, -1L, 3L) (-1L, -1L, 3L)

f1_shape (-1L, -1L, 3L)

mean_shape name: “mean_0.tmp_0”

type {

type: LOD_TENSOR

lod_tensor {

tensor {

data_type: FP32

dims: 1

}

}

}

persistable: false

loss_shape name: “tmp_25”

type {

type: LOD_TENSOR

lod_tensor {

tensor {

data_type: FP32

dims: 1

}

lod_level: 0

}

}

实际以此loss做训练,结果很怪异,能帮忙看下原因吗,在keras实现此loss函数无问题

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/182128.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)


相关推荐

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号