机器学习-一篇入门

【概念】一篇入门之-交叉熵损失函数

作者 : 老饼 发表日期 : 2023-12-27 19:43:03 更新日期 : 2024-10-05 10:44:48
本站原创文章,转载请说明来自《老饼讲解-机器学习》www.bbbdata.com



交叉熵损失函数是机器学习分类模型中常用的一种交叉熵损失函数

本文讲解交叉熵损失函数的公式和推导,以及交叉熵损失函数在模型为二分类时的形式

通过本文可以快速了解什么是交叉熵损失函数,它是如何来的,它的公式以及意义是什么




    01. 什么是交叉熵损失函数    




本节讲解分类模型中的交叉熵损失函数的定义及计算公式




      什么是交叉熵损失函数     


交叉熵损失函数
交叉熵损失函数(CrossEntropy Loss)是机器学习中常用于评估分类模型的一种损失函数
它代表基于模型预测的概率下,在知道样本真实类别时所获得的信息量期望,即交叉熵
 交叉熵损失函数公式如下:
   
  其中, :样本个数                   
                           
:模型判断第i个样本属于类别k(样本真实标签)的概率
✍️公式解读:由于模型预测第个样本属于类别k的概率为
在知道第i个样本真实标签时获得的信息量为,再对整体样本求均值就是期望
交叉熵损失函数-计算形式
在计算交叉熵损失函数时,往往先算出每个类别的信息量期望,再对各类别进行求和
 因此,交叉熵损失函数在实际计算时往往使用的是如下形式:
 交叉熵损失函数计算公式-计算形式:
   
 其中, :类别个数                    
                                
 :第i个样本的真实类别标签                              
           
:模型判断第i样本属于第k类的概率  




      如何形象理解交叉熵损失函数      


由于一件事信息量越大越让我们惊讶,所以把信息量理解为"惊讶程度"会更具体
则交叉熵损失函数代表我们"拿着"着模型时,在知道样本真实标签时的惊讶程度
 
 如果模型预测准确,在知道真实标签时我们当然不会惊讶,此时交叉熵损失函数就小 
如果惊讶程度很大,则说明真实标签大大地出乎模型意料之外,这代表模型预测不好

我们希望交叉熵损失函数越小越好,这样说明在模型的预测下,我们不会因为真实标签而感到惊讶







    02. 二分类模型的交叉熵损失函数    




本节讲解交叉熵损失函数在二分类时的形式,以及推导过程





      交叉熵损失函数-二分类模型     


在二分类模型中,一般将类别标签记为0/1两类,此时,交叉熵损失函数形式如下
二分类模型的交叉熵损失函数:

 
  其中,:样本个数                                                   
 :第i个本样的真实类别标签               
 :模型判断第个i样本属于第1类的概率
二分类交叉熵损失函数的意义解读如下:
  
交叉熵损失函数就是希望在模型的预测下,在知道样本真实标签时信息量越小越好






       交叉熵损失函数-推导过程(二分类)       


在二分类模型中,一般将类别标签记为0/1两类,模型则输出样本属于1类的概率
 因此,模型对0,1类样本正确预测的概率为:
1. 模型评估0类的样本属于0类的概率为:  
    2. 模型评估1类的样本属于1类的概率为:            
 则基于模型的预测,在知道样本真实标签时,所获得的信息量的期望(交叉熵)为:
    
 上述结果就是二分类时的交叉熵损失函数表达式,在逻辑回归模型中使用的就是该函数





好了,交叉熵损失函数的公及及推导就讲到这里了~







 End 









联系老饼