# leakyReluLayer


泄漏整流线性单元(ReLU)层

函数库: TyDeepLearning

# 语法

layer = leakyReluLayer(alpha=0.2)

# 说明

layer = leakyReluLayer(alpha=0.2) 创建一个Leaky ReLU激活函数层。示例

该激活函数定义如下:

其中,表示alpha参数。

# 示例

创建泄漏整流线性单元(ReLU)层

创建一个泄漏整流线性单元(ReLU)层,其斜率为 0.1。 创建一个数组,使用该层处理数组并输出结果。

using TyDeepLearning
set_backend(:mindspore)
layer = leakyReluLayer(0.1)
array = Array{Float32}[[-1.0, 4.0, -8.0], [2.0, -5.0, 9.0]]
print(TyDeepLearning.predict(layer, array))
Float32[-0.1 4.0 -0.8; 2.0 -0.5 9.0]

随机生成一个维度为(1,1,28,28)的数组。

input = rand(Float32, (1, 1, 28, 28))

创建一个包含 Leaky ReLU激活函数层的神经网络。使用该神经网络处理数组并输出结果维度。

layers = SequentialCell([
    convolution2dLayer(1, 16, 3),
    batchNormalization2dLayer(16),
    leakyReluLayer(0.1),
    maxPooling2dLayer(2; Stride=2),
    convolution2dLayer(16, 32, 3),
    batchNormalization2dLayer(32),
    leakyReluLayer(0.1),
    flattenLayer(),
    fullyConnectedLayer(32 * 14 * 14, 10),
    softmaxLayer()
])
print(size(TyDeepLearning.predict(layers, input)))
(1, 10)

# 输入参数

alpha-斜率
标量

x<0 时激活函数的斜率,默认值:0.2。

数据类型: Float16 | Float32 | Float64

# 输出参数

layer-泄漏整流线性单元(ReLU)层
网络对象

输出为一个泄漏整流线性单元(ReLU)层

# 另请参阅

SequentialCell | convolution2dLayer | batchNormalization2dLayer | maxPooling2dLayer | flattenLayer | fullyConnectedLayer | softmaxLayer | predict | Rectifier Nonlinearities Improve Neural Network Acoustic Models (opens new window)