大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。
Jetbrains全系列IDE使用 1年只要46元 售后保障 童叟无欺
1) 两个分布很接近,但是与0和1不接近,loss仍然很大,只适合分类
2)mse只计算两个差异,做回归用的,数据相同,bceloss比mseloss大。
3)SmoothL1Loss比mseloss小
4) bceloss收敛比较快
5)bceloss input必须是0-1之间,targets可以不是
6)target 是0.5 input 是0.4与0.6,loss无正负之分,只有大小之分。
import torch
conf_mask = torch.FloatTensor([0.0, 1.0, 0.0, 1.0, 1.0])
conf_data = torch.FloatTensor([0.1, 0.9, 0.0, 0.2, 0.2])
loss_fn = torch.nn.MSELoss() # reduce=False, size_average=False)
x= loss_fn(conf_data, conf_data).item()
print('self',x)
x= loss_fn(conf_data, conf_mask).item()
print('mse',x)
loss_fn = torch.nn.BCELoss() # reduce=False, size_average=False)
x = loss_fn(conf_data, conf_data).item()
print('self',x)
x = loss_fn(conf_data, conf_mask).item()
print('bce',x)
mseloss 个值比较
发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/192157.html原文链接:https://javaforall.cn
【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛
【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...