首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    深度学习-softmax损失函数「建议收藏」

    softmax函数定义 softmax用于多分类过程中,它将多个神经元的输出,映射到(0,1)区间内,可以看成概率来理解,从而进行多分类! softmax计算公式,假设我们有一个数组,V,Vi表示V中的第i个元素,那么这个元素的softmax值为: Si=ei∑jej S_i = \frac{e^i}{\sum_j e^j} 对于softmax定义比较简单,当我们在应用多分类的时候一般来说找概率最大的那一个值即可。 softmax的相关求导 当我们对分类的loss进行改进的时候,我们要通过梯度下降,要对Loss对每个权重进行求偏导。 损失函数为交叉熵损失函数: Loss=−∑yilnai Loss = -\sum y_ilna_i 其中y代表我们的真实值,a代表softmax求出的值。i代表节点号。

    05
    领券