大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。
Jetbrains全系列IDE稳定放心使用
在paddle上实现了一个f1 loss函数:
def _compute_loss(self, dec_output): tp = fluid.layers.sum(fluid.layers.cast(self.label * dec_output, dtype=”float32″)) tn = fluid.layers.sum(fluid.layers.cast((1 -self.label) * (1 – dec_output), dtype=”float32″)) fp = fluid.layers.sum(fluid.layers.cast((1 -self.label) * dec_output, dtype=”float32″)) fn = fluid.layers.sum(fluid.layers.cast(self.label * (1 – dec_output), dtype=”float32″)) print (“shape:loss”, tp.shape, tn.shape, fp.shape, fn.shape) p = tp / (tp + fp + 1e-07) r = tp / (tp + fn + 1e-07) f1 = 2 * p * r / (p + r + 1e-07) print (“f1_shape “, f1.shape) print (“mean_shape “, fluid.layers.mean(f1)) print (“loss_shape”, 1 – fluid.layers.mean(f1)) return 1 – fluid.layers.mean(f1), dec_output, self.label
输出的shape如下:
shape:loss (-1L, -1L, 3L) (-1L, -1L, 3L) (-1L, -1L, 3L) (-1L, -1L, 3L)
f1_shape (-1L, -1L, 3L)
mean_shape name: “mean_0.tmp_0”
type {
type: LOD_TENSOR
lod_tensor {
tensor {
data_type: FP32
dims: 1
}
}
}
persistable: false
loss_shape name: “tmp_25”
type {
type: LOD_TENSOR
lod_tensor {
tensor {
data_type: FP32
dims: 1
}
lod_level: 0
}
}
实际以此loss做训练,结果很怪异,能帮忙看下原因吗,在keras实现此loss函数无问题
发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/182128.html原文链接:https://javaforall.cn
【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛
【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...