摘要:假设概率分布为期望输出,概率分布为为实际输出,为交叉熵。函数性质交叉熵损失函数经常用于分类问题中,特别是神经网络分类问题,由于交叉熵涉及到计算每个类别的概率,所以在神经网络中,交叉熵与函数紧密相关。
标签: 深度学习
SOFTMAX 长什么样子?如下图所示
从图的样子上看,和普通的全连接方式并无差异,但激励函数的形式却大不一样。
首先后面一层作为预测分类的输出节点,每一个节点就代表一个分类,如图所示,那么这7个节点就代表着7个分类的模型,任何一个节点的激励函数都是:
$$ {sigma _i}(z) = frac{{{e^{{z_i}}}}}{{sumlimits_{j = 1}^m {{e^{{z_i}}}} }} $$
其中$i$就是节点的下标次序,而$z_i=w_i+b_i$,也就说这是一个线性分类器的输出作为自然常数$e$的指数。最有趣的是最后一层有这样的特性:
$$sumlimits_{i = 1}^J {{sigma _i}(z)} = 1$$
也就是说最后一层的每个节点的输出值的加和是1。这种激励函数从物理意义上可以解释为一个样本通过网络进行分类的时候在每个节点上输出的值都是小于等于1的,是它从属于这个分类的概率。
训练数据由训练样本和分类标签组成。如下图所,j假设有7张图,分别为飞机、汽车、轮船、猫、狗、鸟、太阳,则图像的分类标签如下表示:
$$left[ egin{array}{l}1 end{array}
ight]left[ egin{array}{l}0 1 end{array}
ight]left[ egin{array}{l}0 1 end{array}
ight]left[ egin{array}{l}0 1 end{array}
ight]left[ egin{array}{l}0 1 end{array}
ight]left[ egin{array}{l}0 1 end{array}
ight]left[ egin{array}{l}0 1 end{array}
ight]$$
这种激励函数通常用在神经网络的最后一层作为分类器的输出,有7个节点就可以做7个不同类别的判别,有1000个节点就可以做1000个不同样本类别的判断。
熵与交叉熵熵的本质是香农信息量($log( frac{{1}}{{p}})$,$-log(p)$)的期望。
熵在信息论中代表随机变量不确定度的度量。一个离散型随机变量 X 的熵 H(X) 定义为:
$$ H(X) = - sumlimits_{i = 1}^K {p({x_i})log (p({x_i}))} $$
交叉熵刻画的是实际输出概率和期望输出概率的距离,交叉熵的值越小,则两个概率分布越接近,即实际与期望差距越小。交叉熵中的交叉就体现在$p$(期望概率分布),$q$(实际概率分布)。假设概率分布$p$为期望输出,概率分布为$q$为实际输出,$H(X)$为交叉熵。则:
$$H(X) = - sumlimits_{i = 1}^K {p({x_i})log (q({x_i}))}$$
假如,n=3,期望输出$p=(1,0,0)$,模型1的实际输出为$q_1=(0.5,0.2,0.3)$,模型2的实际输出为$q_2=(0.8,0.1,0.1)$,那么交叉熵为:
$$H(p,q_1)=-(1 imes {ln ^{0.5}}0 +0 imes ln^{0.2} + 0 imes ln^{0.3})= 0.69$$
$$H(p,q_2)=-(1 imes {ln ^{0.8}}0 + 0 imes ln^{0.1} + 0 imes ln^{0.1})= 0.22$$
pytorch中的实现:
import torch import numpy as np input1 = torch.from_numpy(np.array([[0.8,0.1,0.1]])) input1.requires_grad=True target1= torch.from_numpy(np.array([0])).long() output1 = loss(input1, target1) print(nll_loss(torch.log(input1),target1))
输出 tensor(0.2231, dtype=torch.float64, grad_fn=
很显然,$q_2$和$p$分布更接近。
假如,以“中国乒乓球队和巴西乒乓球对比赛结果”为例:
假设中国乒乓球队和巴西乒乓球队历史交手64次,其中中国队获胜63次,63/64是赛前大家普遍认可的中国队获胜概率,这个是先验概率。
那么这次中国队获胜的平均信息量有多大呢?
$$H(X_i=中国队获胜) = frac{{63}}{{64}}{log _2}frac{{63}}{{64}} $$
同理:
$$H(X_i=巴西队获胜) = frac{{1}}{{64}}{log _2}frac{{1}}{{64}} $$
所以,“中国乒乓球队和巴西乒乓球对比赛结果”,这一信息的信息熵为:
$$H(X) =- sumlimits_{i = 1}^n {p({x_i})log (p({x_i}))} =H(X_i=中国队获胜)+H(X_i=巴西队获胜) =frac{{63}}{{64}}{log _2}frac{{63}}{{64}} + frac{{1}}{{64}}{log _2}frac{{1}}{{64}} = 0.1164 $$
为什么Cross Entropy损失函数常用于分类问题中呢?我们从一个简单的例子来分析。
问题引入:
假设我们有一个三分类问题,分别用模型1和模型2来进行预测。
结果如下:
模型1
样本id | 预测值 | 实际值 | 是否预测正确 |
---|---|---|---|
1 | [0.3,0.3,0.4] | [0,0,1] | √ |
2 | [0.3,0.4,0.3] | [0,1,0] | √ |
3 | [0.1,0.2,0.7] | [1,0,0] | × |
模型2
样本id | 预测值 | 实际值 | 是否预测正确 |
---|---|---|---|
1 | [0.1,0.2,0.7] | [0,0,1] | √ |
2 | [0.1,0.7,0.2] | [0,1,0] | √ |
3 | [0.3,0.4,0.3] | [1,0,0] | × |
对样本1和样本2,模型1以0.4>0.3的微弱优势正确预测样本1的标签为类别3,而模型2以0.7>0.2>0.1的巨大优势毫无悬念的正确预测出样本标签。
对于样本3,模型1和模型2均预测错误,但模型1以0.7>0.2>0.1的概率,错误的预测样本标签为标签3,但实际标签为标签1,错的离谱!!!但模型2虽然也预测错了,但0.4>0.3>0.2还不算太离谱。
现在我们用损失函数来定义模型的表现。
Classification Error(分类错误率)$$ClassificationError=frac{count of error items}{count of all items} $$
-模型1:$$ClassificationError=frac{1}{3}$$
-模型2:$$ClassificationError=frac{1}{3}$$
模型1和模型2虽然都预测错了1个,但相对来说模型2表现更好,按理说模型越好,损失函数值越小,但分类错误率并没表现出来。
Mean Squared Error(均方误差)均方误差损失也是一种比较常见的损失函数,其定义为:
$$MSE=frac{1}{n}sumlimits_i^n {{{(widehat {{y_i}} - {y_i})}^2}} $$
模型1:$$MSE=frac{(0.3^2+0.3^2+0.6^2)+(0.3^2+0.6^2+0.3^2)+(0.9^2+0.2^2+0.7^2)}{3}
=0.81$$
-模型2:$$MSE=frac{(0.1^2+0.1^2+0.3^2)+(0.1^2+0.3^2+0.2^2)+(0.7^2+0.4^2+0.3^2)}{3}
=0.34$$
我们发现MSE能判断出模型2优于模型1,但采用梯度下降法来求解的时候,MSE的一个缺点就是其偏导值在输出概率值接近0或者接近1的时候非常小,这可能会造成模型刚开始训练时,梯度几乎消失。
对于分类问题的损失函数来说,分类错误率(分类精确率)和平方和损失都不是很好的损失函数,下面我们来看一下交叉熵损失函数的表现情况。
在二分类的情况下,模型最终预测的结果只有2类,对于每个类别我们预测的概率为$1-p$和$p$。
此时Binary Cross Entropy:
$J=-[y·log(p)+(1-y)·log(1-p)]$
其中:
y : 样本标签,正样本标签为1,负样本标签为0
p : 预测为正样本的概率
多分类多分类实际是二分类的扩展。
$$ J= - sumlimits_{i = 1}^K {{y_i}log ({p_i})} $$
其中:
K : 类别的数量
y : 是否是类别$c$,$y in (0,1)$
p : 样本属于类别$c$的概率
现在我们用交叉熵损失函数来计算损失函数值。
模型1:
$$CEE=-[0 imes log0.3 + 0 imes log0.3 + 1 imes log0.4] -[0 imes log0.3 + 1 imes log0.4 + 0 imes log0.3] -[1 imes log0.1 + 0 imes log0.2 + 0 imes log0.7]= 0.397+0.397 +1 =1.8 $$
模型2:
$$CEE=-[0 imes log0.1 + 0 imes log0.2 + 1 imes log0.7]-[0 imes log0.1 + 1 imes log0.7 + 0 imes log0.2]-[1 imes log0.1 + 0 imes log0.2 + 0 imes log0.3]= 0.15+0.15+0.397=0.697 $$
可以发现,交叉熵损失函数可以捕捉到模型1和模型2的差异。
函数性质交叉熵损失函数经常用于分类问题中,特别是神经网络分类问题,由于交叉熵涉及到计算每个类别的概率,所以在神经网络中,交叉熵与softmax函数紧密相关。
我们用神经网络的最后一层输出情况来看。
下面我们来推下整个求导公式,求导如图所示,分为三个过程:
$$frac{{partial J}}{{partial {w_n}}} = frac{{partial J}}{{partial {p_j}}} cdot frac{{partial {p_j}}}{{partial {y_i}}} cdot frac{{partial {y_i}}}{{partial {w_n}}}$$
先看$frac{{partial J}}{{partial {p_j}}}$:
$$ frac{{partial J}}{{partial {p_j}}} = frac{{partial ( - sumlimits_{j = 1}^K {{y_i}log ({p_j})} )}}{{partial {p_j}}} = - sumlimits_{j = 1}^K {frac{{{y_i}}}{{{p_j}}}} $$
结合上图,再看$ frac{{partial {p_j}}}{{partial {y_i}}}$:
$${p_j} = frac{{{e^{{y_i}}}}}{{sumlimits_{j = 1}^K {{e^{{y_j}}}} }}$$
当j=i时候:
$$ {p_i} = frac{{{e^{{y_i}}}}}{{sumlimits_{j = 1}^K {{e^{{y_j}}}} }}$$
$$ frac{{partial {p_j}}}{{partial {y_i}}} = frac{{partial (frac{{{e^{{y_i}}}}}{{sumlimits_{j = 1}^K {{e^{{y_j}}}} }})}}{{partial {y_i}}} = frac{{({e^{{y_i}}})"sumlimits_{j = 1}^K {{e^{{y_j}}}} - {e^{{y_i}}}(sumlimits_{j = 1}^K {{e^{{y_k}}}} )"}}{{{{(sumlimits_{j = 1}^K {{e^{{y_j}}}} )}^2}}} = frac{{{e^{{y_i}}}sumlimits_{j = 1}^K {{e^{{y_i}}}} - {{({e^{{y_i}}})}^2}}}{{{{(sumlimits_{j = 1}^K {{e^{{y_i}}}} )}^2}}} = frac{{{e^{{y_i}}}}}{{sumlimits_{j = 1}^K {{e^{{y_j}}}} }} - frac{{{{({e^{{y_i}}})}^2}}}{{{{(sumlimits_{j = 1}^K {{e^{{y_j}}}} )}^2}}} = frac{{{e^{{y_i}}}}}{{sumlimits_{j = 1}^K {{e^{{y_j}}}} }}(1 - frac{{{e^{{y_i}}}}}{{sumlimits_{j = 1}^K {{e^{{y_j}}}} }})= S({y_i})(1 - S({y_i})=p(i)(1-p(i)) $$
当j≠i时候:
$${p_j} = frac{{{e^{{y_j}}}}}{{sumlimits_{j = 1}^K {{e^{{y_j}}}} }}$$
$$ frac{{partial {p_j}}}{{partial {y_i}}} = frac{{partial (frac{{{e^{{y_j}}}}}{{sumlimits_{j = 1}^K {{e^{{y_j}}}} }})}}{{partial {y_i}}}= frac{{({e^{{y_j}}})"sumlimits_{j = 1}^K {{e^{{y_j}}}} - {e^{{y_j}}}(sumlimits_{j = 1}^K {{e^{{y_j}}}} )"}}{{{{(sumlimits_{j = 1}^K {{e^{{y_j}}}} )}^2}}} = frac{{0sumlimits_{j = 1}^K {{e^{{y_j}}}} - {e^{{y_j}}}{e^{{y_i}}}}}{{{{(sumlimits_{k = 1}^K {{e^{{y_k}}}} )}^2}}}= frac{{ - {e^{{y_j}}}{e^{{y_j}}}}}{{{{(sumlimits_{j = 1}^K {{e^{{y_j}}}} )}^2}}}= - S({y_j})S({y_i})-p(j)p(i)$$
再看$frac{{partial {y_i}}}{{partial {w_n}}}$
$$frac{{partial {y_i}}}{{partial {w_n}}}=x_n$$
接下来我们只需要把上面的组合起来:
$$frac{{partial J}}{{partial {p_j}}} cdot frac{{partial {p_j}}}{{partial {y_i}}} egin{array}{l} = - p(i)(1 - p(i))sumlimits_{i = 1,i = j}^K {frac{{{y_i}}}{{{p_i}}}} - p(i)p(j)sumlimits_{i = 1,i
e j}^K {frac{{{y_i}}}{{{p_j}}}}= - (1 - p(i))sumlimits_{i = 1,i = j}^K {{y_i}} - p(i)sumlimits_{i = 1,i
e j}^K {{y_i}}= - sumlimits_{i = 1,i = j}^K {{y_i}} + p(i)sumlimits_{i = 1}^K {{y_i}}end{array}$$
最后针对分类问题,给定的$y_i$中只会有一个类别是1,其他类别都是0,所以
$$frac{{partial J}}{{partial {p_j}}} cdot frac{{partial {p_j}}}{{partial {y_i}}} cdot frac{{partial J}}{{partial {w_n}}} = frac{{partial {y_i}}}{{partial {w_n}}}=(p(i)-1)w_n$$
注意看,$p(i)-1$是啥?是不是SoftMax层的输出的概率-1,梯度就是这么容易计算!!!太神奇了?!
就是为什么神经网络分类器要用交叉熵损失函数的原因!
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/42785.html
摘要:对于多分类问题,我们可以使用多项回归,该方法也被称之为函数。函数的交叉熵损失函数的推导损失函数对于的导数求解如下上式已经求解了当和的两种情况。最终的结果为,这个求导结果和函数的交叉熵损失函数求导是一样的,再次证明函数是函数的一个扩展板。 作者:chen_h微信号 & QQ:862251340微信公众号:coderpai简书地址:https://www.jianshu.com/p/8eb...
摘要:也就是说,损失函数是受到如下约束程序细节所以,我们的架构看起来是如下图这也是我想要实现的架构图表示卷积层,表示池化层,表示全连接层,层和层是我们重点要实现的层。 作者:chen_h微信号 & QQ:862251340微信公众号:coderpai简书地址:https://www.jianshu.com/p/d6a... 当我们要使用神经网络来构建一个多分类模型时,我们一般都会采用 so...
摘要:函数将任意维的实值向量转换为取值范围在之间的维实值向量,并且总和为。将原始输入映射到区间,并且总和为,常用于表征概率。这个性质用于保证数值的稳定性。当输入一个较大的数值时,函数将会超出限制,导致出错。 Softmax softmax函数将任意n维的实值向量转换为取值范围在(0,1)之间的n维实值向量,并且总和为1。例如:向量softmax([1.0, 2.0, 3.0]) ------...
摘要:首先需要添加一个新的占位符用于输入正确值计算交叉熵的表达式可以实现为现在我们知道我们需要我们的模型做什么啦,用来训练它是非常容易的。 学习softmax回归模型 一. 下载mnist数据集 新建一个download.py 代码如下: Functions for downloading and reading MNIST data. from __future__ import abso...
阅读 791·2021-11-19 11:29
阅读 3310·2021-09-26 10:15
阅读 2817·2021-09-22 10:02
阅读 2400·2021-09-02 15:15
阅读 1941·2019-08-30 15:56
阅读 2274·2019-08-30 15:54
阅读 2865·2019-08-29 16:59
阅读 595·2019-08-29 16:20