pytorch loss反向传播出错

pytorch loss反向传播出错在使用pytorch进行训练代码时,在运行loss.backward()误差反向传播时出错:RuntimeError:gradcanbeimplicitlycreatedonlyforscalaroutputsFile”train.py”,line143,intrainloss.backward()File”/usr/local/lib/python3.6/dist-packages/torch/tensor.py”,line198…

大家好,又见面了,我是你们的朋友全栈君。

 

今天在使用pytorch进行训练,在运行 loss.backward() 误差反向传播时出错 :

RuntimeError: grad can be implicitly created only for scalar outputs

  File “train.py”, line 143, in train
    loss.backward()
  File “/usr/local/lib/python3.6/dist-packages/torch/tensor.py”, line 198, in backward
    torch.autograd.backward(self, gradient, retain_graph, create_graph)
  File “/usr/local/lib/python3.6/dist-packages/torch/autograd/__init__.py”, line 94, in backward
    grad_tensors = _make_grads(tensors, grad_tensors)
  File “/usr/local/lib/python3.6/dist-packages/torch/autograd/__init__.py”, line 35, in _make_grads
    raise RuntimeError(“grad can be implicitly created only for scalar outputs”)
RuntimeError: grad can be implicitly created only for scalar outputs

 

问题分析:

因为我们在执行 loss.backward() 时没带参数,这与 loss.backward(torch.Tensor(1.0)) 是相同的,参数默认就是一个标量。

但是由于自己的loss不是一个标量,而是二维的张量,所以就会报错。

 

解决办法:

1. 给 loss.backward() 指定传递给后向的参数维度:

loss = criterion(pred, targets)
loss.backward()
# 改为:
loss = criterion(pred, targets)
loss.backward(loss.clone().detach())

2. 修改loss函数的输出维度,把张量的输出修改为标量,比如说多多个维度的loss求和或求均值等。此方法对于某些任务不一定适用,可以尝试自己修改。

criterion = nn.L1Loss(reduction='none')
# 把参数去掉,改为:
criterion = nn.L1Loss()

 

这里顺便介绍一下pytorch loss函数里面 的reduction 参数:

在新的pytorch版本里,使用reduction 参数取代了旧版本的size_average和reduce参数。

reduction 参数有三种选择:

‘elementwise_mean’:为默认情况,表明对N个样本的loss进行求平均之后返回(相当于reduce=True,size_average=True);

‘sum’:指对n个样本的loss求和(相当于reduce=True,size_average=False);

‘none’:表示直接返回n分样本的loss(相当于reduce=False)

 


参考:

http://www.cocoachina.com/articles/90127

https://blog.csdn.net/goodxin_ie/article/details/89645358

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/144114.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)


相关推荐

  • arcgis最佳路径分析步骤_基于arcgis的住房选址分析

    arcgis最佳路径分析步骤_基于arcgis的住房选址分析使用ArcGISNetworkAnalyst模块进行最佳路径分析,可以根据不同的需求,进行相关设置,得到不同意义的最佳路径。例如,省汽油;省驾驶时间;省等待时间;交叉路口最少;自驾旅游可以规划沿途风景最好的路径等等。

  • python基础语法个人笔记_python基础题库

    python基础语法个人笔记_python基础题库python语法规范python的语法规范非常重要,简洁明了是python的特性,以下是python语法的一些说明python3的编码格式是unicode(utf-8)标识符的规则:由字母、数字

  • Cocos2d-x项目总结中的一些遇到的问题

    Cocos2d-x项目总结中的一些遇到的问题

  • 单片机spi通信_stm32单片机常用的片内外设

    单片机spi通信_stm32单片机常用的片内外设提示:若转载,请备注来源,谢谢!文章目录前言一、SPI协议是什么?1.优点2.缺点3.结构二、SPI协议1.模式概念理解2.通信过程分析3.SPI个人协议理解总结前言题目上写的是单片机,其实不管你的板子上不上系统(FreeRtos、Linux),协议都是不变的。题外话:工作过程中,一直在移植别人写好的SPI协议,然后和外设的芯片(例如:Flash芯片、NFC芯片等)进行通信,但是都没有往底层深入的看,下午看了照着代码看了三个多小时,写这篇博客作为总结。一、SPI协议是什么?S

  • HTML5 CSS3 精美案例 : 达到VCD盒个性幻灯片

    HTML5 CSS3 精美案例 : 达到VCD盒个性幻灯片

  • 遗传算法的优化算法_粒子群算法和遗传算法的区别

    遗传算法的优化算法_粒子群算法和遗传算法的区别与遗传算法的第一次接触遗传算法的基本概念基本定义遗传算法的基本流程遗传算法过程中的具体操作参数的编码二进制编码Gray编码实数编码有序编码初始群体的设定适应度函数的计算遗传操作设计选择selection交叉crossover变异mutation控制参数的设定求解优化问题的实例问题描述问题分析算法设计个体编码适应值函数选择策略杂交算子变异算子参数设置

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号