relu

paddle.fluid.layers. relu ( x, name=None ) [源代码]

ReLU(Rectified Linear Unit)激活函数

\[Out=max(0,x)\]

参数

  • x (Variable) - 输入的多维 Tensor,数据类型为:float32、float64。

  • name (str,可选) - 具体用法请参见 Name,一般无需设置,默认值为 None。

返回

x 维度相同、数据类型相同的 Tensor

返回类型

Variable

代码示例

import paddle.fluid as fluid
import numpy as np
in1 = np.array([[-1,0],[1,2.6]])
with fluid.dygraph.guard():
    x1 = fluid.dygraph.to_variable(in1)
    out1 = fluid.layers.relu(x1)
    print(out1.numpy())
    # [[0.  0. ]
    #  [1.  2.6]]