目录

1. L1 Loss

2. NLL Loss (Negative Log Likelihood Loss)

3. NLLLoss2d

4. Gaussian NLL Loss

5. MSE Loss (Mean Squared Error Loss)

6. BCE Loss (Binary Cross-Entropy Loss)

7. Smooth L1 Loss

8. Cross Entropy Loss


1. L1 Loss

  • 作用:计算预测值与真实值之间的绝对差。
  • 用法:常用于回归问题,适合处理异常值。
  • 公式

 

2. NLL Loss (Negative Log Likelihood Loss)

  • 作用:用于分类任务,特别是在使用Softmax的多类分类中。
  • 用法:通常与Softmax输出结合使用。
  • 公式

 

3. NLLLoss2d

  • 作用:与NLL Loss类似,但用于2D图像数据(如语义分割)。
  • 用法:适用于多类图像分割任务。
  • 公式:类似于NLL Loss,但在空间维度上扩展。

 

4. Gaussian NLL Loss

  • 作用:用于处理带有高斯噪声的回归任务。
  • 用法:输出为高斯分布的模型。
  • 公式

 

5. MSE Loss (Mean Squared Error Loss)

  • 作用:计算预测值与真实值之间的均方误差。
  • 用法:广泛用于回归问题。
  • 公式

 

6. BCE Loss (Binary Cross-Entropy Loss)

  • 作用:用于二分类问题,计算每个样本的交叉熵。
  • 用法:适合处理二元标签任务。
  • 公式

 

7. Smooth L1 Loss

  • 作用:结合了L1 Loss和MSE Loss,平滑处理。
  • 用法:常用于目标检测任务。
  • 公式:当差值小于1时,使用MSE,否则使用L1。

 

8. Cross Entropy Loss

  • 作用:用于多类分类问题,计算预测分布与真实分布的差异。
  • 用法:常与Softmax一起使用。
  • 公式

Logo

技术共进,成长同行——讯飞AI开发者社区

更多推荐