BatchNorm3D

paddle.nn.BatchNorm3D(num_features, momentum=0.9, epsilon=1e-05, weight_attr=None, bias_attr=None, data_format='NCDHW', name=None):

构建 BatchNorm3D 类的一个可调用对象,具体用法参照 代码示例。可以处理 4D 的 Tensor,实现了批归一化层(Batch Normalization Layer)的功能,可用作卷积和全连接操作的批归一化函数,根据当前批次数据按通道计算的均值和方差进行归一化。更多详情请参考:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

当训练时 \(\mu_{\beta}\)\(\sigma_{\beta}^{2}\) 是 minibatch 的统计数据。计算公式如下:

\[\begin{split}\mu_{\beta} &\gets \frac{1}{m} \sum_{i=1}^{m} x_i \quad &// mini-batch-mean \\ \sigma_{\beta}^{2} &\gets \frac{1}{m} \sum_{i=1}^{m}(x_i - \mu_{\beta})^2 \quad &// mini-batch-variance \\\end{split}\]
  • \(x\):批输入数据

  • \(m\):当前批次数据的大小

当预测时,track_running_stats = True \(\mu_{\beta}\)\(\sigma_{\beta}^{2}\) 是全局(或运行)统计数据(moving_mean 和 moving_variance),通常来自预先训练好的模型。计算公式如下:

\[\begin{split}moving\_mean = moving\_mean * momentum + \mu_{\beta} * (1. - momentum) \quad &// global mean \\ moving\_variance = moving\_variance * momentum + \sigma_{\beta}^{2} * (1. - momentum) \quad &// global variance \\\end{split}\]

归一化函数公式如下:

\[\begin{split}\hat{x_i} &\gets \frac{x_i - \mu_\beta} {\sqrt{\sigma_{\beta}^{2} + \epsilon}} \quad &// normalize \\ y_i &\gets \gamma \hat{x_i} + \beta \quad &// scale-and-shift \\\end{split}\]
  • \(\epsilon\):添加较小的值到方差中以防止除零

  • \(\gamma\):可训练的比例参数

  • \(\beta\):可训练的偏差参数

参数

  • num_features (int) - 指明输入 Tensor 的通道数量。

  • epsilon (float,可选) - 为了数值稳定加在分母上的值。默认值:1e-05。

  • momentum (float,可选) - 此值用于计算 moving_meanmoving_var。默认值:0.9。更新公式如上所示。

  • weight_attr (ParamAttr|bool,可选) - 指定权重参数属性的对象。如果为 False,则表示每个通道的伸缩固定为 1,不可改变。默认值为 None,表示使用默认的权重参数属性。具体用法请参见 cn_api_ParamAttr

  • bias_attr (ParamAttr,可选) - 指定偏置参数属性的对象。如果为 False,则表示每一个通道的偏移固定为 0,不可改变。默认值为 None,表示使用默认的偏置参数属性。具体用法请参见 cn_api_ParamAttr

  • data_format (string,可选) - 指定输入数据格式,数据格式可以为“NCDHW"。默认值:“NCDHW”。

  • name (str,可选) - 具体用法请参见 Name,一般无需设置,默认值为 None。

返回

形状

  • input:形状为(批大小,通道数,维度,高度,宽度)的 5-D Tensor。

  • output:和输入形状一样。

目前训练时设置 track_running_stats 为 False 是无效的,实际还是会按照 True 的方案保存全局均值和方差。之后的版本会修复此问题。

代码示例

import paddle

x = paddle.rand((2, 1, 2, 2, 3))
batch_norm = paddle.nn.BatchNorm3D(1)
batch_norm_out = batch_norm(x)

print(batch_norm_out)