人工智能及大数据学习激活函数relu swish maxout.pdf

想预览更多内容,点击预览全文

申明敬告:

本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己完全接受本站规则且自行承担所有风险,本站不退款、不进行额外附加服务;如果您已付费下载过本站文档,您可以点击这里二次下载

文档介绍

激活函数(ReLU,Swish,Maxout)神经网络中使用激活函数来加入非线性因素,提高模型的表达能力。ReLU(RectifiedLinearUnit,线性单元)形式如下:f(x)=⎧⎩⎨0,x,x≤0x>0(1)(1)f(x)={0,x≤0x,x>0ReLU公式近似推导f(x)其中σ(z)=∑i=1infσ(x−i+0.5)≈log(1+ex)≈max(0,x+N(0,1))=11+e−z(steppedsigmoid)(softplusfunction)(ReLfunction)(sigmoid)(2)(3)(4)(5)(6)(7)(8)(2)f(x)=∑i=1infσ(x−i+0.5)(steppedsigmoid)(3)(4)≈log(1+ex)(softplusfunction)(5)(6)≈max(0,x+N(0,1))(ReLfunction)(7)(8)其中σ(z)=11+e−z(sigmoid)下面解释上述公式中的softplus,NoisyReLU.softplus函数与ReLU函数接近,但比较平滑,同ReLU一样是单边抑制,有宽广的接受域(0,+inf),但是由于指数运算,对数运算计算量大的原因,而不太被人使用.并且从一些人的使用经验来看(Glorotetal.(2011a)),效果也并不比ReLU好.softplus的导数恰好是sigmoid函数.softplus函数图像:softplus1NoisyReLUReLU可以被扩展以噪声(Gaussiannoise):f(x)=max(0,x+Y),Y∼N(0,σ(x))f(x)=max(0,x+Y),Y∼N(0,σ(x))NoisyReLU在受限玻尔兹曼机解决计算机视觉任务中得到应用.ReLU上界设置:ReLU相比sigmoid和tanh的一个缺点是没有对上界设限.在实际使用中,可以设置

最近下载