pytorch中的loss函数_pytorch loss不下降

pytorch中的loss函数_pytorch loss不下降1)两个分布很接近,但是与0和1不接近,loss仍然很大,只适合分类2)mse只计算两个差异,做回归用的,数据相同,bceloss比mseloss大。3)SmoothL1Loss比mseloss小4)bceloss收敛比较快5)bcelossinput必须是0-1之间,targets可以不是6)target是0.5input是0.4与0.6,loss无正…

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全系列IDE使用 1年只要46元 售后保障 童叟无欺

 

 

1) 两个分布很接近,但是与0和1不接近,loss仍然很大,只适合分类

2)mse只计算两个差异,做回归用的,数据相同,bceloss比mseloss大。

3)SmoothL1Loss比mseloss小

4) bceloss收敛比较快

5)bceloss input必须是0-1之间,targets可以不是

6)target 是0.5 input 是0.4与0.6,loss无正负之分,只有大小之分。

 

 

import torch

conf_mask = torch.FloatTensor([0.0, 1.0, 0.0, 1.0, 1.0])
conf_data = torch.FloatTensor([0.1, 0.9, 0.0, 0.2, 0.2])

loss_fn = torch.nn.MSELoss() # reduce=False, size_average=False)

x= loss_fn(conf_data, conf_data).item()
print('self',x)

x= loss_fn(conf_data, conf_mask).item()
print('mse',x)

loss_fn = torch.nn.BCELoss()  # reduce=False, size_average=False)

x = loss_fn(conf_data, conf_data).item()
print('self',x)
x = loss_fn(conf_data, conf_mask).item()
print('bce',x)

mseloss 个值比较࿱

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/192157.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)


相关推荐

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号