机器学习-专题详述

【辨识】为什么说softmax是sigmoid的扩展

作者 : 老饼 发表日期 : 2023-05-31 23:09:33 更新日期 : 2024-06-30 01:14:13
本站原创文章,转载请说明来自《老饼讲解-机器学习》www.bbbdata.com




sigmoid和softmax是机器学习中常用的函数,它们都可以把一个数值转换为概率

而sigmoid只用于做二分类,softmax则可以用于多分类,

两者之间有什么联系呢?本文讲解为什么说softmax是sigmoid的扩展





    01. sigmoid与softmax函数意义回顾    




本节回顾sigmoid函数与softmax函数意义,为下文的分析作铺垫




    sigmoid函数与softmax函数意义    


先看两个函数的表达式
  
 
      
首先,我们要明白两个函数及它们的自变量的背景意义

 sigmoid的背景意义回顾
sigmoid函数用于二分类,其中,z是一个数值,
z代表“属于类别1“和”属于类别0“的信息量之差 
在这背景意义下,可以用代表属于类别1的概率

softmax的背景意义回顾
softmax函数用于多分类,其中,是一个向量,
 里的每个元素代表“属于各个类别”的信息量
 
在这背景意义下,可以用softmax函数表示属于各个类别的概率
    





    02. 为什么说softmax是sigmoid的扩展    



本节通过验证softmax在二分类时与sigmoid是一致的,

以此说明softmax是sigmoid的扩展



    sigmoid和softmax在二分类时的一致性    


为什么说softmax是Sigmoid的扩展,
这主要因为sigmoid和softmax在二分类时是一致的

统一自变量的意义
首先,需要把它们表达式的自变量统一到同一意义上,即如下:
 


验证二分类时的一致性
在二类别判断时,设属于类别0和属于类别1的信息量分别是,
用Sigmoid函数判别属于类别1的概率,则为:


用softmax函数类别属于类别1的概率,则为 
  
 
进一步化简,就可以得到
 
   
可以看到,用softmax和Sigmoid得到的结果是一致的











 End 





联系老饼