2026a

# relu


应用整流线性单元激活

函数库: TyDeepLearning

# 语法

Y = relu(X)

# 说明

Y = relu(X) 修正线性单元激活函数。示例

逐元素求。特别说明,负数输出值会被修改为 0,正数输出不受影响。

# 示例

执行relu函数操作

执行 relu 函数操作,将其应用到随机产生的数组,输出操作后的数组维度。

using TyDeepLearning
set_backend(:mindspore)
batch = 128
input_size = [28, 28]
channels = 3
X = rand(Float32, (batch, channels, input_size[1], input_size[2]))
Y = relu(X)
print(size(Y))
(128, 3, 28, 28)

# 输入参数

X-输入数据
数组

输入数据,指定为数组。

数据类型: Float16 | Float32 | Float64 | Int64

# 输出参数

Y-ReLU激活
数组

ReLU 激活,以数组的形式返回。

# 另请参阅

leakyrelu | sigmoid | softmax