如何写新的C++ OP
概念简介
简单介绍需要用到基类,详细介绍请参考设计文档。
• framework::OperatorBase: Operator(简写,Op)基类。
• framework::OpKernel: Op计算函数的基类,称作Kernel。
• framework::OperatorWithKernel:继承自OperatorBase,Op有计算函数,称作有Kernel。
• framework::OpProtoAndCheckerMaker:描述该Op的输入、输出、属性、注释,主要用于Python API接口生成。
根据是否包含Kernel,可以将Op分为两种:包含Kernel的Op和不包含kernel的Op:
• 包含Kernel的Op继承自OperatorWithKernel,这类Op的功能实现与输入的数据类型、数据布局、数据所在的设备以及Op实现所调用第三方库等有关。比如ConvOp,如果使用CPU计算,一般通过调用mkl库中的矩阵乘操作实现,如果使用GPU计算,一般通过调用cublas库中的矩阵乘操作实现,或者直接调用cudnn库中的卷积操作。
• 不包含Kernel的Op继承自OperatorBase,因为这类Op的功能实现与设备以及输入的数据不相关。比如WhileOp、IfElseOp等。
本文主要介绍带Kernel的Op如何写,简单总结Op需要包含的内容如下:

实现新的op都添加至目录paddle/fluid/operators下,文件命名以*_op.h(如有)、_op.cc 、_op.cu(如有)结尾。系统会根据文件名自动构建op和其对应的Python扩展。
下面以矩阵乘操作,即MulOp为例来介绍如何写带Kernel的Operator。
实现C++类
定义ProtoMaker类
矩阵乘法的公式:Out=X∗YOut=X∗Y, 可见该计算由两个输入,一个输出组成。
首先定义ProtoMaker来描述该Op的输入、输出,并添加注释:
class MulOpMaker : public framework::OpProtoAndCheckerMaker {
public:
void Make() override {
AddInput(“X”, “(Tensor), The first input tensor of mul op.”);
AddInput(“Y”, “(Tensor), The second input tensor of mul op.”);
AddOutput(“Out”, “(Tensor), The output tensor of mul op.”);
AddAttr(“use_mkldnn”,
“(bool, default false) Only used in mkldnn kernel”)
.SetDefault(false);
AddAttr(
“x_num_col_dims”,
R"DOC((int, default 1), The mul_op can take tensors with more than two
dimensions as its inputs. If the input XXX is a tensor with more
than two dimensions, XXX will be flattened into a two-dimensional
matrix first. The flattening rule is: the first num_col_dims
will be flattened to form the first dimension of the final matrix
(the height of the matrix), and the rest rank(X) - num_col_dims
dimensions are flattened to form the second dimension of the final
matrix (the width of the matrix). As a result, height of the
flattened matrix is equal to the product of XXX‘s first
x_num_col_dims dimensions’ sizes, and width of the flattened
matrix is equal to the product of XXX‘s last rank(x) - num_col_dims
dimensions’ size. For example, suppose XXX is a 6-dimensional
tensor with the shape [2, 3, 4, 5, 6], and x_num_col_dims = 3.
Thus, the flattened matrix will have a shape [2 x 3 x 4, 5 x 6] =
[24, 30].
)DOC")
.SetDefault(1)
.EqualGreaterThan(1);
AddAttr(
“y_num_col_dims”,
R"DOC((int, default 1), The mul_op can take tensors with more than two,
dimensions as its inputs. If the input YYY is a tensor with more
than two dimensions, YYY will be flattened into a two-dimensional
matrix first. The attribute y_num_col_dims determines how YYY is
flattened. See comments of x_num_col_dims for more details.
)DOC")
.SetDefault(1)
.EqualGreaterThan(1);
AddAttr(
“scale_x”,
“scale_x to be used for int8 mul input data x. scale_x has the”
“same purpose as scale_in in OPs that support quantization.”
“Only to be used with MKL-DNN INT8”)
.SetDefault(1.0f);
AddAttr<std::vector>(
“scale_y”,
“scale_y to be used for int8 mul input data y. scale_y has the”
“same purpose as scale_weights in OPs that support quantization.”
“Only to be used with MKL-DNN INT8”)
.SetDefault({1.0f});
AddAttr(“scale_out”,
“scale_out to be used for int8 output data.”
“Only used with MKL-DNN INT8”)
.SetDefault(1.0f);
AddAttr(
“force_fp32_output”,
“(bool, default false) Force quantize kernel output FP32, only "
“used in quantized MKL-DNN.”)
.SetDefault(false);
AddComment(R"DOC(
Mul Operator.
This operator is used to perform matrix multiplication for input XXX and YYY.
The equation is:
Out=X∗YOut = X * YOut=X∗Y
Both the input XXX and YYY can carry the LoD (Level of Details) information,
or not. But the output only shares the LoD information with input XXX.
)DOC”);
}
};
MulOpMaker继承自framework::OpProtoAndCheckerMaker。
开发者通过覆盖framework::OpProtoAndCheckerMaker中的Make函数来定义Op所对应的Proto,通过AddInput添加输入参数,通过AddOutput添加输出参数,通过AddAttr添加属性参数,通过AddComment添加Op的注释。这些函数会将对应内容添加到OpProto中。
上面的代码在MulOp中添加两个输入X和Y,添加了一个输出Out,以及use_mkldnn等属性,并解释了各自含义,命名请遵守命名规范。
定义GradOpMaker类
通常情况下,大部分Op只有一个对应的反向Op,每个Op的会有一个对应的GradOpMaker。为方便代码编写,paddle为只有一个反向的Op提供了一个模板类SingleGradOpMaker。MulOp的GradOpMaker需要继承这个模板类,并在Apply()方法中设置反向Op的输入、输出和属性。此外,paddle还提供了一个默认的GradOpMaker, DefaultGradOpMaker,该模板类会使用前向Op的全部输入(Input)输出(Output)以及输出变量所对应的梯度(Output@Grad)作为反向Op的输入,将前向Op的输入变量所对应的的梯度(Input@Grad)作为输出。
注意: 不要将反向Op不会用到的变量放到反向Op的输入列表中,这样会导致这些不会被反向Op用到的变量的空间不能够及时回收,进而有可能导致用到该Op的模型可以设置的batch_size较低。 比如relu操作的前向操作为:out.device(d) = x.cwiseMax(static_cast(0));反向操作为:dx.device(d) = dout * (out > static_cast(0)).template cast();。显然,反向操作中只是用到了out、dout、dx,没有用到x。因此,通常不建议使用默认的DefaultGradOpMaker。
下面示例定义了MulOp的GradOpMaker。
template
class MulOpGradMaker : public framework::SingleGradOpMaker {
public:
using framework::SingleGradOpMaker::SingleGradOpMaker;

protected:
void Apply(GradOpPtr retv) const override {
retv->SetType(“mul_grad”);
retv->SetInput(“X”, this->Input(“X”));
retv->SetInput(“Y”, this->Input(“Y”));
retv->SetInput(framework::GradVarName(“Out”), this->OutputGrad(“Out”));
retv->SetOutput(framework::GradVarName(“X”), this->InputGrad(“X”));
retv->SetOutput(framework::GradVarName(“Y”), this->InputGrad(“Y”));
retv->SetAttrMap(this->Attrs());
}
};
注意:
• 有些Op的前向逻辑和反向逻辑是一样的,比如ScaleOp.这种情况下,前向Op和反向Op的Kernel可以为同一个。
• 有些前向Op所对应的反向Op可能有多个,比如SumOp,这种情况下,GradMaker需要继承framework::GradOpDescMakerBase。
• 有些Op的反向对应另一个Op的前向,比如SplitOp,这种情况下,SplitGradMaker中定义的SplitOp反向Op的Type就是concat,
• 为高效地同时支持命令式编程模式(动态图)和声明式编程模式(静态图),SingleGradOpMaker是一个模板类,在注册Operator时需要同时注册MulOpGradMaker(声明式编程模式使用)和MulOpGradMaker(命令式编程模式使用)。
定义Operator类
下面实现了MulOp的定义:
class MulOp : public framework::OperatorWithKernel {
public:
using framework::OperatorWithKernel::OperatorWithKernel;

void InferShape(framework::InferShapeContext* ctx) const override {
PADDLE_ENFORCE_EQ(
ctx->HasInput(“X”), true,
platform::errors::NotFound(“Input(X) of MulOp should not be null.”));
PADDLE_ENFORCE_EQ(
ctx->HasInput(“Y”), true,
platform::errors::NotFound(“Input(Y) of MulOp should not be null.”));
PADDLE_ENFORCE_EQ(
ctx->HasOutput(“Out”), true,
platform::errors::NotFound(“Output(Out) of MulOp should not be null.”));

auto x_dims = ctx->GetInputDim("X");
auto y_dims = ctx->GetInputDim("Y");int x_num_col_dims = ctx->Attrs().Get<int>("x_num_col_dims");
int y_num_col_dims = ctx->Attrs().Get<int>("y_num_col_dims");VLOG(3) << "mul operator x.shape=" << x_dims << " y.shape=" << y_dims<< " x_num_col_dims=" << x_num_col_dims<< " y_num_col_dims=" << y_num_col_dims;PADDLE_ENFORCE_NE(framework::product(y_dims), 0,platform::errors::PreconditionNotMet("The Input variable Y(%s) has not ""been initialized. You may need to confirm ""if you put exe.run(startup_program) ""after optimizer.minimize function.",ctx->Inputs("Y").front()));
PADDLE_ENFORCE_GT(x_dims.size(), x_num_col_dims,platform::errors::InvalidArgument("The input tensor X's dimensions of MulOp ""should be larger than x_num_col_dims. But received X's ""dimensions = %d, X's shape = [%s], x_num_col_dims = %d.",x_dims.size(), x_dims, x_num_col_dims));
PADDLE_ENFORCE_GT(y_dims.size(), y_num_col_dims,platform::errors::InvalidArgument("The input tensor Y's dimensions of MulOp ""should be larger than y_num_col_dims. But received Y's ""dimensions = %d, Y's shape = [%s], y_num_col_dims = %d.",y_dims.size(), y_dims, y_num_col_dims));auto x_mat_dims = framework::flatten_to_2d(x_dims, x_num_col_dims);
auto y_mat_dims = framework::flatten_to_2d(y_dims, y_num_col_dims);PADDLE_ENFORCE_EQ(x_mat_dims[1], y_mat_dims[0],platform::errors::InvalidArgument("After flatten the input tensor X and Y to 2-D dimensions ""matrix X1 and Y1, the matrix X1's width must be equal with matrix ""Y1's height. But received X's shape = [%s], X1's shape = [%s], ""X1's ""width = %s; Y's shape = [%s], Y1's shape = [%s], Y1's height = ""%s.",x_dims, x_mat_dims, x_mat_dims[1], y_dims, y_mat_dims,y_mat_dims[0]));
std::vector<int64_t> output_dims;
output_dims.reserve(static_cast<size_t>(x_num_col_dims + y_dims.size() - y_num_col_dims));for (int i = 0; i < x_num_col_dims; ++i) {output_dims.push_back(x_dims[i]);
}for (int i = y_num_col_dims; i < y_dims.size(); ++i) {output_dims.push_back(y_dims[i]);
}ctx->SetOutputDim("Out", framework::make_ddim(output_dims));
ctx->ShareLoD("X", /*->*/ "Out");

}

framework::OpKernelType GetExpectedKernelType(
const framework::ExecutionContext& ctx) const {
framework::LibraryType library = framework::LibraryType::kPlain;
framework::DataLayout layout = framework::DataLayout::kAnyLayout;
int customized_type_value =
framework::OpKernelType::kDefaultCustomizedTypeValue;
auto input_data_type = OperatorWithKernel::IndicateVarDataType(ctx, “X”);
#ifdef PADDLE_WITH_MKLDNN
if (library == framework::LibraryType::kPlain &&
platform::CanMKLDNNBeUsed(ctx)) {
library = framework::LibraryType::kMKLDNN;
layout = framework::DataLayout::kMKLDNN;

  if (input_data_type == framework::DataTypeTrait<int8_t>::DataType() ||input_data_type == framework::DataTypeTrait<uint8_t>::DataType()) {customized_type_value = kMULMKLDNNINT8;}
}

#endif

return framework::OpKernelType(input_data_type, ctx.GetPlace(), layout,library, customized_type_value);

}
};
MulOp继承自OperatorWithKernel。public成员:
using framework::OperatorWithKernel::OperatorWithKernel;
这句表示使用基类OperatorWithKernel的构造函数,也可写成:
MulOp(const std::string &type, const framework::VariableNameMap &inputs,
const framework::VariableNameMap &outputs,
const framework::AttributeMap &attrs)
: OperatorWithKernel(type, inputs, outputs, attrs) {}
此外,Operator类通常需要重写InferShape接口,并在有必要时重写GetExpectedKernelType接口。InferShape为const函数,不能修改Op的成员变量,参数为framework::InferShapeContext* ctx,通过该参数可获取到输入输出以及属性。它的功能是:
• 做检查, 尽早报错:检查输入数据维度、类型等是否合法。
• 设置输出Tensor的形状以及LoD信息。
GetExpectedKernelType接口OperatorWithKernel类中用于获取指定设备(例如CPU,GPU)上指定数据类型(例如double,float)的OpKernel的方法。该方法的重写可见请参考写C++ OP相关注意事项。
通常OpProtoMaker和Op类的定义写在.cc文件中,和下面将要介绍的注册函数一起放在.cc中
InferShape区分 compile time 和 run time
在我们的声明式编程模式网络中,InferShape操作在编译时(compile time)和运行时(run time)都会被调用,在compile time时,由于真实的维度未知,框架内部用-1来表示,在run time时,用实际的维度表示,因此维度的值在compile time和 run time时可能不一致,如果存在维度的判断和运算操作,InferShape就需要区分compile time 和 run time。
以下两种情况需要区分compile time和 run time。
1.检查
如以下代码:
auto x_dim = ctx->GetInputDim(“X”);
int i = xxx;
PADDLE_ENFORCE_GT( x_dim[i] , 10)
在compile time的时候,x_dim[i]可能等于-1,导致这个PADDLE_ENFORCE_GT报错退出。
如果用了以下paddle中定义的宏进行判断:
PADDLE_ENFORCE_EQ ( x_dim[i] , 10)
PADDLE_ENFORCE_NE ( x_dim[i] , 10)
PADDLE_ENFORCE_GT ( x_dim[i] , 10)
PADDLE_ENFORCE_GE ( x_dim[i] , 10)
PADDLE_ENFORCE_LT ( x_dim[i] , 10)
PADDLE_ENFORCE_LE ( x_dim[i] , 10)
都需要区分compile time和run time
2. 运算
如以下代码:
auto x_dim = ctx->GetInputDim(“X”);
int i = xxx;
y_dim[0] = x_dim[i] + 10
在compile time的时候,x_dim[i]可能等于-1,得到的 y_dim[0] 等于 9,是不符合逻辑的
如果用到了类似以下的运算操作
y_dim[i] = x_dim[i] + 10
y_dim[i] = x_dim[i] - 10
y_dim[i] = x_dim[i] * 10
y_dim[i] = x_dim[i] / 10
y_dim[i] = x_dim[i] + z_dim[i]
都需要区分compile time和run time
处理的标准:
• 检查: compile time的时候不判断维度等于-1的情况,但在runtime的时候检查
• 运算: -1和其他数做任何运算都要等于-1
参考代码

  1. 判断的实现方法可以参考cross_entropy_op,cross_entropy_op 要求X和labels的两个输入,除了最后一维以外,其他的维度完全一致
    bool contain_unknown_dim = framework::contain_unknown_dim(x_dims) ||
    framework::contain_unknown_dim(label_dims);
    bool check = ctx->IsRuntime() || !contain_unknown_dim;
    if (check) {
    PADDLE_ENFORCE_EQ(framework::slice_ddim(x_dims, 0, rank - 1),
    framework::slice_ddim(label_dims, 0, rank - 1),
    "Input(X) and Input(Label) shall have the same shape "
    “except the last dimension.”);
    }

  2. 运算的实现可以参考concat_op,concat在InferShape判断时,调用ComputeAndCheckShape,除了进行concat轴之外,其他的维度完全一致;在生成output的维度时,把concat轴的维度求和,其他的维度和输入保持一致。
    const size_t n = inputs_dims.size();
    auto out_dims = inputs_dims[0];
    size_t in_zero_dims_size = out_dims.size();
    for (size_t i = 1; i < n; i++) {
    for (size_t j = 0; j < in_zero_dims_size; j++) {
    if (j == axis) {
    if (is_runtime) {
    out_dims[axis] += inputs_dims[i][j];
    } else {
    if (inputs_dims[i][j] == -1) {
    out_dims[axis] = -1;
    } else {
    out_dims[axis] += inputs_dims[i][j];
    }
    }
    } else {
    bool check_shape =
    is_runtime || (out_dims[j] > 0 && inputs_dims[i][j] > 0);
    if (check_shape) {
    // check all shape in run time
    PADDLE_ENFORCE_EQ(
    inputs_dims[0][j], inputs_dims[i][j],
    "ShapeError: Dimension %d in inputs’ shapes must be equal. "
    "But recevied input[0]'s shape = "
    “[%s], input[%d]'s shape = [%s].”,
    j, inputs_dims[0], i, inputs_dims[i]);
    }
    }
    }
    }
    定义OpKernel类
    MulKernel继承自framework::OpKernel,带有下面两个模板参数:
    • typename DeviceContext: 表示设备类型。不同设备(CPU、CUDA)共享同一个Kernel时,需加该模板参数;不共享则不加,一个不共享的例子是SGDOpKernel。
    • typename T : 表示数据类型,如float, double, int16等。
    需要为MulKernel类重写Compute接口。
    • Compute接受一个输入参数:const framework::ExecutionContext& context。
    • 与InferShapeContext相比,ExecutionContext增加了设备类型,同样可获取到输入输出和属性参数。
    • Compute函数里实现OpKernel的具体计算逻辑。
    Op的输入和输出可分别通过ExecutionContext::Input()和ExecutionContext::Output()获得。
    注意: 若op的输入/输出的变量类型是LoDTensor(paddle默认所有的Tensor默认都是LoDTensor类型),请写成ExecutionContext::Input()和ExecutionContext::Output(),不要写ExecutionContext::Input()和ExecutionContext::Output()。因为若实际的变量类型为SelectedRows,Input()和Output()方法会将SelectedRows类型特化为Tensor,导致潜在的错误。
    下面是 MulKernel Compute的实现:
    template <typename DeviceContext, typename T>
    class MulKernel : public framework::OpKernel {
    public:
    void Compute(const framework::ExecutionContext& context) const override {
    const Tensor* x = context.Input(“X”);
    const Tensor* y = context.Input(“Y”);
    Tensor* z = context.Output(“Out”);
    const Tensor x_matrix =
    x->dims().size() > 2
    ? framework::ReshapeToMatrix(
    *x, context.template Attr(“x_num_col_dims”))
    : *x;
    const Tensor y_matrix =
    y->dims().size() > 2
    ? framework::ReshapeToMatrix(
    *y, context.template Attr(“y_num_col_dims”))
    : *y;

    z->mutable_data(context.GetPlace());
    auto z_dim = z->dims();
    if (z_dim.size() != 2) {
    z->Resize({x_matrix.dims()[0], y_matrix.dims()[1]});
    }

    auto blas = math::GetBlas<DeviceContext, T>(context);

    blas.MatMul(x_matrix, y_matrix, z);
    if (z_dim.size() != 2) {
    z->Resize(z_dim);
    }
    }
    };
    需要注意:不同设备(CPU、CUDA)共享一个Op定义,是否则共享同一个OpKernel,取决于Compute调用的函数是否支持不同设备。
    MulOp的CPU、CUDA实现共享同一个Kernel。OpKernel不共享的例子可以参考:SGDOpKernel。
    为了使OpKernel的计算过程书写更加简单,并且CPU、CUDA的代码可以复用,我们通常借助 Eigen unsupported Tensor模块来实现Compute接口。关于在PaddlePaddle中如何使用Eigen库,请参考使用文档。
    到此,前向Op实现完成。接下来,需要在.cc文件中注册该op和kernel。 反向Op类的定义,反向OpKernel的定义与前向Op类似,这里不再赘述。
    注册Operator
    • 在.cc文件中注册前向、反向Op类,注册CPU Kernel。
    • namespace ops = paddle::operators;
    • REGISTER_OPERATOR(mul, ops::MulOp, ops::MulOpMaker, ops::MulOpInferVarType,
    • ops::MulOpGradMakerpaddle::framework::OpDesc,
    • ops::MulOpGradMakerpaddle::imperative::OpBase);

    • REGISTER_OPERATOR(mul_grad, ops::MulGradOp);

    • REGISTER_OP_CPU_KERNEL(mul,
    • ops::MulKernel<paddle::platform::CPUDeviceContext, float>,
    • ops::MulKernel<paddle::platform::CPUDeviceContext, double>);
    • REGISTER_OP_CPU_KERNEL(mul_grad,
    • ops::MulGradKernel<paddle::platform::CPUDeviceContext, float>,
    • ops::MulGradKernel<paddle::platform::CPUDeviceContext, double>);
    在上面的代码中,使用REGISTER_OPERATOR注册了ops::MulOp类,类型名为mul,该类的ProtoMaker为ops::MulOpMaker,其GradOpMaker分别是ops::MulOpGradMakerpaddle::framework::OpDesc(声明式编程模式使用)和ops::MulOpGradMakerpaddle::imperative::OpBase(命令式编程模式使用),并使用REGISTER_OPERATOR注册ops::MulGradOp,类型名为mul_grad。然后,使用REGISTER_OP_CPU_KERNEL注册了ops::MulKernel类,并特化模板参数为设备为paddle::platform::CPUPlace、数据类型为float类型和double类型;同理,注册ops::MulGradKernel类。
    • 在 .cu文件中注册CUDA Kernel。
    o 请注意,如果CUDA Kernel的实现基于Eigen unsupported模块,那么在 .cu的开始请加上宏定义 #define EIGEN_USE_GPU,代码示例如下:
    • // if use Eigen unsupported module before include head files
    • #define EIGEN_USE_GPU

    • namespace ops = paddle::operators;
    • REGISTER_OP_CUDA_KERNEL(mul,
    • ops::MulKernel<paddle::platform::CUDADeviceContext, float>,
    • ops::MulKernel<paddle::platform::CUDADeviceContext, double>);
    • REGISTER_OP_CUDA_KERNEL(mul_grad,
    • ops::MulGradKernel<paddle::platform::CUDADeviceContext, float>,
    • ops::MulGradKernel<paddle::platform::CUDADeviceContext, double>);
    注意:
    在运行Op时,框架系统会根据输入数据所在的设备、输入数据的类型等信息自动的选择合适的OpKernel,比如输入的数据是在GPU上,并且为float类型,框架系统会选择由REGISTER_OP_CUDA_KERNEL注册的ops::MulKernel<paddle::platform::CUDADeviceContext, float>。如果用户希望指定运行时可被调用的OpKernel,用户需要覆盖framework::OperatorWithKernel中的GetExpectedKernelType函数,比如MulOp会根据属性use_mkldnn为false还是为true决定是否调用mkldnn库来完成计算。
    编译
    详细的编译环境准备和执行流程可参考从源码编译,下面简单介绍几个主要步骤。 在Paddle代码目录下创建并切换到build目录:
    mkdir build && cd build
    执行cmake命令,具体选项可参考从源码编译中的介绍,下面的命令为编译Python3.5,GPU版本,带测试,Release版本的Paddle。
    cmake … -DPY_VERSION=3.5 -DWITH_GPU=ON -DWITH_TESTING=ON -DCMAKE_BUILD_TYPE=Release
    在build目录下,运行下面命令可以进行编译整个paddle:
    make -j$(nproc)
    注意: 新增op后请重新执行cmake命令,然后再执行make命令编译paddle。
    绑定Python
    系统会对新增的op自动绑定Python,并链接到生成的lib库中。
    使用mul操作在Python端构建Layer
    在Python端,mul操作用于构建FC层,即:
    Out=Act(X∗W+b)Out=Act(X∗W+b)
    具体实现方式可参考FC层的实现代码。
    实现单元测试
    单测包括对比前向Op不同设备(CPU、CUDA)的实现、对比反向OP不同设备(CPU、CUDA)的实现、反向Op的梯度测试。下面介绍介绍MulOp的单元测试。
    注意:
    单测中的测试用例需要尽可能的覆盖Op中的所有分支。
    前向Operator单测
    Op单元测试继承自OpTest。各项具体的单元测试在TestMulOp里完成。测试Operator,需要:

  3. 在setUp函数定义输入、输出,以及相关的属性参数。
    注意:输入输出请以ndarray的类型配置输入/输出,如果需要配置一个带LOD的输入/输出,请以tuple的形式传入,tuple中应该有两个类型为ndarray的元素,第一个是实际的数据,第二个是LOD

  4. 生成随机的输入数据。

  5. 在Python脚本中实现与前向operator相同的计算逻辑,得到输出值,与operator前向计算的输出进行对比。

  6. 反向计算已经自动集成进测试框架,直接调用相应接口即可。

  7. import unittest

  8. import numpy as np

  9. from op_test import OpTest

  10. class TestMulOp(OpTest):

  11. def setUp(self):
    
  12.     self.op_type = "mul"
    
  13.     self.inputs = {
    
  14.         'X': np.random.random((32, 84)).astype("float32"),
    
  15.         'Y': np.random.random((84, 100)).astype("float32")
    
  16.     }
    
  17.     self.outputs = {'Out': np.dot(self.inputs['X'], self.inputs['Y'])}
    
  18. def test_check_output(self):
    
  19.     self.check_output()
    
  20. def test_check_grad_normal(self):
    
  21.     self.check_grad(['X', 'Y'], 'Out', max_relative_error=0.5)
    
  22. def test_check_grad_ingore_x(self):
    
  23.     self.check_grad(
    
  24.         ['Y'], 'Out', max_relative_error=0.5, no_grad_set=set("X"))
    
  25. def test_check_grad_ingore_y(self):
    
  26.     self.check_grad(
    
  27.         ['X'], 'Out', max_relative_error=0.5, no_grad_set=set('Y'))
    

上面的代码首先导入依赖的包,下面是对setUp函数中操作的重要变量的详细解释:
o self.op_type = “mul” : 定义类型,与operator注册时注册的类型一致。
o self.inputs : 定义输入,类型为numpy.array,并初始化。
o self.outputs : 定义输出,并在Python脚本中完成与operator同样的计算逻辑,返回Python端的计算结果。
反向operator单测
而反向测试中:
• test_check_grad_normal中调用check_grad使用数值法检测梯度正确性和稳定性。
o 第一个参数[“X”, “Y”] : 指定对输入变量X、Y做梯度检测。
o 第二个参数"Out" : 指定前向网络最终的输出目标变量Out。
o 第三个参数max_relative_error:指定检测梯度时能容忍的最大错误值。
• test_check_grad_ingore_x和test_check_grad_ingore_y分支用来测试只需要计算一个输入梯度的情况。
编译和执行
python/paddle/fluid/tests/unittests/ 目录下新增的 test_.py 单元测试会被自动加入工程进行编译。
请注意,运行单元测试测时需要编译整个工程,并且编译时需要打开WITH_TESTING。
参考上述编译过程,编译成功后,在build目录下执行下面的命令来运行单元测试:
make test ARGS="-R test_mul_op -V"
或者执行:
ctest -R test_mul_op
注意事项
• 注册Op时的类型名,需要和该Op的名字一样。即不允许在A_op.cc里面,注册REGISTER_OPERATOR(B, …)等,这将会导致单元测试出错。
• 如果Op没有实现CUDA Kernel,请不要创建空的
_op.cu,这将会导致单元测试出错。
• 如果多个Op依赖一些共用的函数,可以创建非*_op.*格式的文件来存放,如gather.h文件。
PADDLE_ENFORCE使用注意
实现Op时检查数据的合法性需要使用PADDLE_ENFORCE以及PADDLE_ENFORCE_EQ等宏定义,基本格式如下:
PADDLE_ENFORCE(表达式, 错误提示信息)
PADDLE_ENFORCE_EQ(比较对象A, 比较对象B, 错误提示信息)
如果表达式为真,或者比较对象A=B,则检查通过,否则会终止程序运行,向用户反馈相应的错误提示信息。 为了确保提示友好易懂,开发者需要注意其使用方法。
总体原则
任何使用了PADDLE_ENFORCE与PADDLE_ENFORCE_XX检查的地方,必须有详略得当的备注解释!错误提示信息不能为空!
提示信息书写标准

  1. [required] 哪里错了?为什么错了?
    o 例如:ValueError: Mismatched label shape
  2. [optional] 期望的输入是什么样的?实际的输入是怎样的?
    o 例如:Expected labels dimension=1. Received 4.
  3. [optional] 能否给出修改意见?
    o 例如:Suggested Fix:If your classifier expects one-hot encoding label,check your n_classes argument to the estimatorand/or the shape of your label.Otherwise, check the shape of your label.
    如果并非必要或者简洁的描述即可表达清楚以上要点,根据情况书写亦可。
    FAQ 典型问题
  4. 无报错信息或报错信息过于简单,不能给用户提供有效的提示!
    问题示例1 :未写提示信息
    PADDLE_ENFORCE(ctx->HasInput(“X”), “”);
    问题示例2 :提示信息过于简单
    PADDLE_ENFORCE(i != nullptr, “i must be set”); // i是什么?
  5. 在报错信息中使用开发人员定义的变量缩写,不易理解!
    问题示例:
    PADDLE_ENFORCE(forward_pd != nullptr,
    “Fail to find eltwise_fwd_pd in device context”); //eltwise_fwd_pd用户可能看不懂
  6. OP内部调用非法接口:Op内部如果出现Output = ShareDataWith(Input) 问题示例:
  7. auto *out = ctx.Outputframework::LoDTensor(“Out”);
  8. auto *in = ctx.Inputframework::LoDTensor(“X”);
  9. out->ShareDataWith(*in);
    Op内部如果出现Output = ShareDataWith(Input),相当于operator图的中有一条隐藏边,连接了Input和Output,这条边无法在图分析中表达,引发基于图优化的错误。
  10. OP实现的性能实践 调用了eigen的broadcast, chop等操作,性能会比手写cuda kernel差几倍以上。此时cpu的实现可以复用eigen,gpu实现可以实现cuda kernel.
    OP InferShape检查提示信息特别说明
    • 检查输入输出变量,统一遵循以下格式 Input(变量名) of OP名 operator should not be null.
    正确示例:
    PADDLE_ENFORCE(ctx->HasInput(“Input”),
    “Input(Input) of LSTMP operator should not be null.”);
    • 反向Op的输入输出检查,要写明反向Op的名字
    正确示例:
    PADDLE_ENFORCE(ctx->HasInput(“X”),
    “Input(X) of LoDResetGrad opreator should not be null.”);

如何写新的C++ OP相关推荐

  1. 如何写新的Python OP

    如何写新的Python OP Paddle 通过 py_func 接口支持在Python端自定义OP. py_func的设计原理在于Paddle中的Tensor可以与numpy数组可以方便的互相转换, ...

  2. 新代系统9服务器警报,新代系统OP、MOT警报一览表

    新代系统 OP 警报一览表 警报编码 警报内容 说明 OP-001 轴板设定错误,I/O功能无 法正常启动 OP-002 系统参数档存取失败,系统 无法运作 OP-003 加工资料档存取失败,系统 无 ...

  3. 在写新邮件时,在地址栏中敲入前几个字母,对于已熟悉的收件人,outlook会弹出列表...

    在写新邮件时,在地址栏中敲入前几个字母,对于已熟悉的收件人,outlook会弹出列表 这些outlook已经熟悉的收件人列表,储存在哪里? 详见下图 问题一已解决,相关内容存储在如下文件中 \Docu ...

  4. 如何在CSDN-markdown编辑器写新文章上传图片的时候去掉水印

    在CSDN-markdown编辑器写新文章上传图片的时候可以使用快捷键 Crtl + G(在苹果机子上为:command + G). 确定上传完图片后,编辑器里是这样的,这时候细心的你会发现在图片的右 ...

  5. Dreammail 写新邮件

    写新邮件 写信入口 写新邮件 编辑工具 除了编辑框上方的工具外,在编辑框内右击,右键菜单中包含更多的工具 常用工具: 字体 字体大小 格式刷 加粗 斜体 字体颜色 插入图片 插入超链 插入横线 插入日 ...

  6. 二、先在SD卡上启动U-boot,再烧写新的U-boot进Nandflash

    1. 制作SD卡 先准备一张2G的SD卡(不能用8G的,2G的卡和8G的卡协议不一样),和烧写SD卡的工具write_sd以及需要烧写到SD卡中的u-boot-movi.bin.将SD卡格式化后连接到 ...

  7. python的for语句写新的字符串_python写for循环python字符串排序方法

    一般情况下,python中对一个字符串排序相当麻烦: 一.python中的字符串类型是不允许直接改变元素的.必须先把要排序的字符串放在容器里,如list. 二.python中的list容器的sort( ...

  8. python的for语句写新的字符串_Python:for循环遍历对象,而不是字符串

    我过去常常pd.GetDummies对我的分类变量进行热编码以用作预测变量.对于我的一些具有许多唯一值的列,我有许多新列,我正在尝试找到一种快速方法来为这些创建交互项.(我只想要我的列子集的交互,所以 ...

  9. 员工转正申请书_员工转正申请书怎么写 新员工转正申请书范文简短精选5篇

    新员工转正申请书范文1 尊敬的公司领导: 我是XX部门的XX,于XX年XX月XX日成为公司的试用员工,到今天已经有三个月,试用期已满.在这段时间里,我工作努力,表现突出,完全能够胜任工作,根据公司的规 ...

最新文章

  1. 使用Silverlight2的WebClient下载远程图片
  2. centos linux 禁止ping
  3. plex linux 数据目录,shareplex日常维护文档
  4. python selenium chrome获取每个请求内容_python+selenium调用chrome打开网址获取内容
  5. Hive SQL 分析函数
  6. AI 垃圾分类指日可待?
  7. jQuery回调、递延对象总结(中篇) —— 神奇的then方法
  8. Oracle 学习笔记(Windows 环境下安装 + PL/SQL)
  9. PythonWEB框架之Tornado
  10. 帮助开发者快速创建响应式布局的Boilerplate - Responsive Boilerp...
  11. 鼓形齿的计算机械设计标准,鼓形齿设计主要尺寸计算
  12. codeforces 题解
  13. 蓝牙MESH网关_相对于米家多模网关,其实我更爱的是光照传感器
  14. PPT技巧-宏命令:如何一键删除所有页面动画效果
  15. 基于Matlab的火灾预警系统
  16. 翁凯java程序设计总结(基于C语言基础上)
  17. 利用手机软件fing查询树莓派的ip地址
  18. 我整理了十套 SpringBoot 项目完整教程「源码+视频+讲义」
  19. html5 图形组件,数百个 HTML5 例子学习 HT 图形组件 – WebGL 3D 篇
  20. ROS之tf2坐标转换包

热门文章

  1. idea中如何打开RunDashboard窗口,微服务最实用设置
  2. docker :open /var/lib/docker/tmp/GetImageBlob318829910: no such file or directory异常解决
  3. IDEA中根据数据库自动生成实体类,并自定义所生成的实体类中的注解 @Table @Id @...
  4. 作为一个java程序员,常用的linux命令(越攒越多)
  5. Go 学习笔记(81)— Go 性能分析工具 pprof
  6. java和C#面向对象的区别
  7. jquery autocomplete demo
  8. line_profile逐行代码分析
  9. Druid数据库连接池超时问题com.alibaba.druid.pool.GetConnectionTimeoutException: wait millis 1000, active 10
  10. LeetCode简单题之按奇偶排序数组