当我们使用pytroch的进行混合精度时,会使用scaler,来进行梯度的缩放。在这种情况下会被取代。
已知,如果梯度存在无穷值的时候,会跳过这一轮次的参数更新。
又知,在参数没有更新时执行,会有标题出现的warning。
所以如果我们有如下代码:
那么就会遇到警告,虽然不一定影响性能。
在下面这三个链接里里,都有人提出了解决方案
感兴趣的同学可以去读一下。我下面提供两个解决方案。
因为我们创建scheduler的时候,指定了总共的更新轮次。这个更新轮次和optimizer有没有真正执行了那么多次更新没有关系,所以直接无视这个warning就好了。
刚才提到,如果参数没有更新,这时候调用会有警告。很简单的思路就是,进行判断,如果参数更新了,就调用,没更新,就不调用。
这里呢,有两个判断的方式,大家各选其一就行。
有点累了,直接贴:
有点长,先不写了,上面一个就够用啦。