深度学习入门-常用函数
以下是一些经常在深度学习中用到的函数。
logistic sigmoid 函数
logistic sigmoi函数的数学表达式为:$\phi(x)=\frac{1}{1+exp(-x)}$
函数的图像为:
可以看出$\phi(x)$的值必然落在(0,1)之间,这就可以很好的用来生成伯努利分布的$\phi$。当x的绝对值非常大时,函数的变化变得不敏感,这称为饱和现象。
softplus 函数
softplus函数的数学表达式为:$\zeta(x)=log(1+exp(x))$
softplus函数的图像为:
softplus函数常用来生成正态分布的方差的倒数$\beta=\frac{1}{\sigma^2}$。因为softplus函数的值正好位于(0,$\infty$)。
softmax 函数
在数学,尤其是概率论和相关领域中,Softmax函数,或称归一化指数函数,是逻辑函数的一种推广。它能将一个含任意实数的K维向量$\textrm{z}$“压缩”到另一个K维实向量$\sigma(\textrm{z})$中,使得每一个元素的范围都在${0,1}$之间,并且所有元素的和为1。该函数的形式通常按下面的式子给出:
$softmax(\textrm{x})i=\frac{exp(x_i)}{\sum\limits{j=1}^{n}exp(x_j)}$
也就是说,是该元素的指数与所有元素指数和的比值。
这个函数通常的意义:对向量进行归一化,凸显其中最大的值并抑制远低于最大值的其他分量。
END
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 LeFer!
评论