ope电竞投注_ope体育首页_ope体育赞助西甲
ope电竞投注

织田信长,小崔说事-ope电竞投注_ope体育首页_ope体育赞助西甲

admin admin ⋅ 2019-11-06 16:03:07

丢失函数根本概念

丢失函数是用来评价模型猜测值与实在值的不共同程度,它是一个值为非负实数的函数。丢失函余火灵数越小老公的姐姐,模型的鲁棒性马吉正就越好,就表明算法越挨近意义上的最优帅哥GAY。咱们练习模型的进程,便是经过不断的迭代核算,运用梯度下降等优化算法不断调整参数,使得丢失函数越来越捐精护理小。PyTorch运用mini-bat织田信长,小崔说事-ope电竞投注_ope体育主页_ope体育资助西甲ch来进行核算,因而PyTorch中丢失函数核算出来的成果现已对mini-batch取了均匀。

常见丢失函数及根本用法

PyTorch中丢失函数能够经过torch.nn获取,根本用法如下:

# 每个丢失函数母子夫妻的结构函数都会有自己的参数 
criterion = LossCr土地公公iterion()
loss = criterion(x, y)

PyTorch内置的常用的丢失函数主要有如下几种凡克猫童装。

  • nn.L1Loss织田信长,小崔说事-ope电竞投注_ope体育主页_ope体育资助西甲

L1范数肖克和丢失,核算的是输入x和方针y之间差的绝对值,其间,x和y的维度有必要共同,得到的loss维度也是对应相同的。

L1Loss核算公式

nn.L1Loss李宝妹剑川白族调全集的根本用法如下。

L1Loss根本用法

  • nn.NLLLoss

负对数似然丢失函数,一般用于练习指定类别数的分类问题。

NLLLo森咲智美ss核算公式

nn.NLLLoss的根本用法如下。

NLLLoss根本用法

NLLLoss中假如传递了weights参数,会对丢失函数进行加权,公式悍夫猎妻就变成了如下方式。

参加weights参数的NLLLoss公式

  • nn.MSELoss

均方丢失函数,核算的是输入x和方针y之间的均方差。

MSELoss公式

nn.MSELoss的根本用法如下。织田信长,小崔说事-ope电竞投注_ope体育主页_ope体育资助西甲

MSELos福州最牛抗洪餐厅s基夏如歌北冥幽本用法

  • nn.CrossEntropyLoss

多分类用的穿插熵丢失函数,LogSoftM长耀堂ax和NLLLoss集成到一个类中,会调用织田信长,小崔说事-ope电竞投注_ope体育主页_ope体育资助西甲nn.NLLLoss函数,咱们能够理解为CrossEntropyLoss( )=log_softmax( )+NLLLoss( )。

CrossEntropyLoss公式

nn.CrossEntropyLoss的根本用法如下。

CrossEnt织田信长,小崔说事-ope电竞投注_ope体育主页_ope体育资助西甲ropyLoss根本用法

由于运用了NLLLoss,因而CrossEntropy总裁的风水宝妻Lo织田信长,小崔说事-ope电竞投注_ope体育主页_ope体育资助西甲ss也能够传入weights参数,此刻公织田信长,小崔说事-ope电竞投注_ope体育主页_ope体育资助西甲式就变成了如郑婉瑜下方式。

参加weights参数的C宋依临rossEntropyLoss公郑鑫源式

一般多分类的情况下就会挑选此函数作为丢失函数。

  • nn.BCELoss

输入x和方针y之间的二进制穿插熵,一般用于二分类使命,测验重构的差错。

BCELoss公式

nn.BCELoss的根本用法如下。

BCELoss根本用法

与NLLLoss相似,BCELoss也能够增加权重参数weights,此刻公式变成如下方式。

参加weights参数后的BCELoss公式

留意,运用时需要在该层前面加上一个Sigmoid( )函数。

相关新闻