2026a
# leakyrelu
应用泄漏整流线性单元激活
函数库: TyDeepLearning
# 语法
Y = leakyrelu(X, scaleFactor=0.2)
# 说明
Y = leakyrelu(X, scaleFactor=0.2) 通过应用阈值运算来计算输入 X 的Leaky ReLU 激活。X 中小于零的所有值均乘以默认比例因子 0.02。示例
该激活函数定义如下:
其中,alpha参数。
# 示例
执行 leakyrelu 函数操作
执行 leakyrelu 函数操作,将其应用到数组,输出操作后的数组。
using TyDeepLearning
set_backend(:mindspore)
X = Array{Float32}[[-1.0, 4.0, -8.0], [2.0, -5.0, 9.0]]
Y = leakyrelu(X)
print(Y)
Float32[-0.2 4.0 -1.6; 2.0 -1.0 9.0]
# 输入参数
X-输入数据数组
输入数据,指定为数组。
数据类型: Float16 | Float32 | Float64 | Int64
scaleFactor-斜率标量
x < 0 时激活函数的斜率,默认值:0.2
数据类型: Float16 | Float32 | Float64 | Int64
# 输出参数
Y-LeakyReLU 激活数组
输入经过 LeakyReLU 激活以数组的形式输出。
# 另请参阅
relu | sigmoid | softmax | Rectifier Nonlinearities Improve Neural Network Acoustic Models (opens new window)