2026a

# leakyrelu


应用泄漏整流线性单元激活

函数库: TyDeepLearning

# 语法

Y = leakyrelu(X, scaleFactor=0.2)

# 说明

Y = leakyrelu(X, scaleFactor=0.2) 通过应用阈值运算来计算输入 X 的Leaky ReLU 激活。X 中小于零的所有值均乘以默认比例因子 0.02。示例
该激活函数定义如下:

其中,表示alpha参数。

# 示例

执行 leakyrelu 函数操作

执行 leakyrelu 函数操作,将其应用到数组,输出操作后的数组。

using TyDeepLearning
set_backend(:mindspore)
X = Array{Float32}[[-1.0, 4.0, -8.0], [2.0, -5.0, 9.0]]
Y = leakyrelu(X)
print(Y)
Float32[-0.2 4.0 -1.6; 2.0 -1.0 9.0]

# 输入参数

X-输入数据
数组

输入数据,指定为数组。

数据类型: Float16 | Float32 | Float64 | Int64

scaleFactor-斜率
标量

x < 0 时激活函数的斜率,默认值:0.2

数据类型: Float16 | Float32 | Float64 | Int64

# 输出参数

Y-LeakyReLU 激活
数组

输入经过 LeakyReLU 激活以数组的形式输出。

# 另请参阅

relu | sigmoid | softmax | Rectifier Nonlinearities Improve Neural Network Acoustic Models (opens new window)