arm_compute v18.05
[platform/upstream/armcl.git] / arm_compute / runtime / NEON / functions / NEBatchNormalizationLayer.h
1 /*
2  * Copyright (c) 2017-2018 ARM Limited.
3  *
4  * SPDX-License-Identifier: MIT
5  *
6  * Permission is hereby granted, free of charge, to any person obtaining a copy
7  * of this software and associated documentation files (the "Software"), to
8  * deal in the Software without restriction, including without limitation the
9  * rights to use, copy, modify, merge, publish, distribute, sublicense, and/or
10  * sell copies of the Software, and to permit persons to whom the Software is
11  * furnished to do so, subject to the following conditions:
12  *
13  * The above copyright notice and this permission notice shall be included in all
14  * copies or substantial portions of the Software.
15  *
16  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
17  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
18  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
19  * AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
20  * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
21  * OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
22  * SOFTWARE.
23  */
24 #ifndef __ARM_COMPUTE_NEBATCHNORMALIZATIONLAYER_H__
25 #define __ARM_COMPUTE_NEBATCHNORMALIZATIONLAYER_H__
26
27 #include "arm_compute/core/NEON/kernels/NEBatchNormalizationLayerKernel.h"
28 #include "arm_compute/core/Types.h"
29 #include "arm_compute/runtime/IFunction.h"
30 #include "arm_compute/runtime/NEON/functions/NEActivationLayer.h"
31
32 namespace arm_compute
33 {
34 class ITensor;
35
36 /** Basic function to run @ref NENormalizationLayerKernel and simulate a batch normalization layer.
37  *
38  * Batch normalization is calculated by:
39  * @f[ out_i = \gamma * (\frac{in_i - \mu_{B}}{\sqrt{\sigma^2_{B} + \epsilon}}) + \beta \equiv BN_{\gamma,\beta}(in_i) @f]
40  *
41  */
42 class NEBatchNormalizationLayer : public IFunction
43 {
44 public:
45     /** Default constructor */
46     NEBatchNormalizationLayer();
47     /** Set the input and output tensors.
48      *
49      * @note If the output tensor is a nullptr or is equal to the input, the batch normalization function will be performed in-place
50      *
51      * @param[in, out] input    Source tensor. In case of @p output tensor = nullptr, this tensor will store the result.
52      *                          3 lower dimensions represent a single input with dimensions [width, height, FM].
53      *                          The rest are optional and used for representing batches. Data types supported: QS8/QS16/F16/F32.
54      * @param[out]     output   Destination tensor. Output will have the same number of dimensions as input. Data type supported: same as @p input
55      * @param[in]      mean     Mean values tensor. 1 dimension with size equal to the feature maps [FM]. Data types supported: Same as @p input
56      * @param[in]      var      Variance values tensor. 1 dimension with size equal to the feature maps [FM]. Data types supported: Same as @p input
57      * @param[in]      beta     (Optional) Beta values tensor info. 1 dimension with size equal to the feature maps [FM]. If not provided, default value for beta is 0. Data types supported: Same as @p input
58      * @param[in]      gamma    (Optional) Gamma values tensor info. 1 dimension with size equal to the feature maps [FM]. If not provided, default value for gamma is 1. Data types supported: Same as @p input
59      * @param[in]      epsilon  (Optional) Small value to avoid division with zero. Default value is 0.001f.
60      * @param[in]      act_info (Optional) Activation layer information in case of a fused activation. Only RELU, BOUNDED_RELU and LU_BOUNDED_RELU supported.
61      */
62     void configure(ITensor *input, ITensor *output, const ITensor *mean, const ITensor *var, const ITensor *beta = nullptr, const ITensor *gamma = nullptr, float epsilon = 0.001f,
63                    ActivationLayerInfo act_info = ActivationLayerInfo());
64     /** Static function to check if given info will lead to a valid configuration of @ref NEBatchNormalizationLayer
65      *
66      * @param[in] input    Source tensor info. In case of @p output tensor = nullptr, this tensor will store the result.
67      *                     3 lower dimensions represent a single input with dimensions [width, height, FM].
68      *                     The rest are optional and used for representing batches. Data types supported: QS8/QS16/F16/F32.
69      * @param[in] output   Destination tensor info. Output will have the same number of dimensions as input. Data type supported: same as @p input
70      * @param[in] mean     Mean values tensor info. 1 dimension with size equal to the feature maps [FM]. Data types supported: Same as @p input
71      * @param[in] var      Variance values tensor info. 1 dimension with size equal to the feature maps [FM]. Data types supported: Same as @p input
72      * @param[in] beta     (Optional) Beta values tensor info. 1 dimension with size equal to the feature maps [FM]. If not provided, default value for beta is 0. Data types supported: Same as @p input
73      * @param[in] gamma    (Optional) Gamma values tensor info. 1 dimension with size equal to the feature maps [FM]. If not provided, default value for gamma is 1. Data types supported: Same as @p input
74      * @param[in] epsilon  (Optional) Small value to avoid division with zero. Default value is 0.001f.
75      * @param[in] act_info (Optional) Activation layer information in case of a fused activation. Only RELU, BOUNDED_RELU and LU_BOUNDED_RELU supported.
76      *
77      * @return a status
78      */
79     static Status validate(const ITensorInfo *input, const ITensorInfo *output,
80                            const ITensorInfo *mean, const ITensorInfo *var,
81                            const ITensorInfo *beta = nullptr, const ITensorInfo *gamma = nullptr,
82                            float epsilon = 0.001f, ActivationLayerInfo act_info = ActivationLayerInfo());
83
84     // Inherited methods overridden:
85     void run() override;
86
87 private:
88     NEBatchNormalizationLayerKernel _norm_kernel; /**< Batch normalization layer kernel */
89 };
90 }
91 #endif /* __ARM_COMPUTE_NEBATCHNORMALIZATIONLAYER_H__ */