机器学习-专题详述

【模型】多类别逻辑回归(softmax回归)模型介绍

作者 : 老饼 发表日期 : 2023-05-31 22:33:45 更新日期 : 2024-09-30 19:33:47
本站原创文章,转载请说明来自《老饼讲解-机器学习》www.bbbdata.com




逻辑回归的多分类模型实际是在二分类的基础上进行拓展得到,

因于它利用到softmax函数,因此也称为softmax回归

本文介绍多类别逻辑回归(softmax回归)的模型表达式及其损失函数




    01.多类别逻辑回归-模型介绍    




本节介绍多类别逻辑回归(softmax回归)的模型表达式




    多类别逻辑回归的模型表达式    


多类别逻辑回归是二分类逻辑回归的扩展
它的模型表达式如下
  
其中,    
补充:它在二分类时,与sigmoid形式的表达式是一致的
详见《辨识:为什么说softmax是sigmoid的扩展》





    02.多类别逻辑回归-损失函数介绍    



本节介绍多类别逻辑回归(softmax回归)的损失函数

包括它的原始定义形式和常见形式



    多类别逻辑回归模型损失函数的定义形式    


与二分类逻辑回归的损失函数意义保持一致,
即“在模型预测的概率下,在知道所有样本的真实标签所获得的信息量”应该越小越好
即最小化以下函数:
  
K     :类别的个数                       
 :模型对第i个样本预测为k类的概率
✍️补充:多类别逻辑回归损失函数的解读

  就是先把真实标签为类别k的样本提取出来,
然后求得模型对这些样本判为k类的概率
再计算“知道这些样本的真实标签为k”时所获得的信息量 
综上,整体的意思为:
“基于模型的预测概率下,知道第k类样本的真实标签”时所获得的信息量
最后通过外层的求得所有类别所获得的信息量




    多类别逻辑回归模型的常用损失函数形式    


模型预测结果与样本标签的数据表示形式
假设共有N个样本,K个类别,
模型更常见的,是以如下形式表示样本的真实标签和模型的预测概率
 
Y和P都是N行K列的矩阵
 
Y的第n行k列的元素代表第n个样本“是否是类别k”
P的第n行k列的元素代表模型预测第n个样本“是类别k”的概率
  
 softmax回归的损失函数
在以上数据形式的基础上,
softmax回归的损失函数可以写成以下形式:
  
✍️补充:多类别逻辑回归损失函数的解读
由于不属于第k类的样本都为0,属于第k类的样本为1
所以,就相当于原始定义中的  
也就是“基于模型的预测概率下,知道第k类样本的真实标签”时所获得的信息量
最后通过外层的求得所有类别所获得的信息量






     相关参考文献    


1.《Pattern recognition and machine learning》  4.3.4节 -多类别逻辑回归










 End 




联系老饼