# leakyReluLayer
泄漏整流线性单元(ReLU)层
函数库: TyDeepLearning
# 语法
layer = leakyReluLayer(alpha=0.2)
# 说明
layer = leakyReluLayer(alpha=0.2) 创建一个Leaky ReLU激活函数层。示例
该激活函数定义如下:
其中,alpha参数。
# 示例
创建泄漏整流线性单元(ReLU)层
创建一个泄漏整流线性单元(ReLU)层,其斜率为 0.1。 创建一个数组,使用该层处理数组并输出结果。
using TyDeepLearning
set_backend(:mindspore)
layer = leakyReluLayer(0.1)
array = Array{Float32}[[-1.0, 4.0, -8.0], [2.0, -5.0, 9.0]]
print(TyDeepLearning.predict(layer, array))
Float32[-0.1 4.0 -0.8; 2.0 -0.5 9.0]
随机生成一个维度为(1,1,28,28)的数组。
input = rand(Float32, (1, 1, 28, 28))
创建一个包含 Leaky ReLU激活函数层的神经网络。使用该神经网络处理数组并输出结果维度。
layers = SequentialCell([
convolution2dLayer(1, 16, 3),
batchNormalization2dLayer(16),
leakyReluLayer(0.1),
maxPooling2dLayer(2; Stride=2),
convolution2dLayer(16, 32, 3),
batchNormalization2dLayer(32),
leakyReluLayer(0.1),
flattenLayer(),
fullyConnectedLayer(32 * 14 * 14, 10),
softmaxLayer()
])
print(size(TyDeepLearning.predict(layers, input)))
(1, 10)
# 输入参数
alpha-斜率标量
x<0 时激活函数的斜率,默认值:0.2。
数据类型: Float16 | Float32 | Float64
# 输出参数
layer-泄漏整流线性单元(ReLU)层网络对象
输出为一个泄漏整流线性单元(ReLU)层
# 另请参阅
SequentialCell | convolution2dLayer | batchNormalization2dLayer | maxPooling2dLayer | flattenLayer | fullyConnectedLayer | softmaxLayer | predict | Rectifier Nonlinearities Improve Neural Network Acoustic Models (opens new window) 。