Imported Upstream version 1.25.0
[platform/core/ml/nnfw.git] / runtime / onert / backend / cpu / ops / ConvolutionLayer.h
1 /*
2  * Copyright (c) 2018 Samsung Electronics Co., Ltd. All Rights Reserved
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *      http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #ifndef __ONERT_BACKEND_CPU_OPS_CONVOLUTIONLAYER_H__
18 #define __ONERT_BACKEND_CPU_OPS_CONVOLUTIONLAYER_H__
19
20 #include <backend/IPortableTensor.h>
21 #include "OperationUtils.h"
22
23 #include <exec/IFunction.h>
24 #include <functional>
25 #include <memory>
26
27 namespace nnfw
28 {
29 namespace cker
30 {
31 class Conv;
32 struct ConvHybridTempArena;
33 class Shape;
34 } // namespace cker
35 } // namespace nnfw
36
37 namespace onert
38 {
39 namespace backend
40 {
41 namespace cpu
42 {
43 namespace ops
44 {
45
46 class ConvolutionLayer : public ::onert::exec::IFunction
47 {
48 public:
49   ConvolutionLayer();
50   ~ConvolutionLayer();
51
52 public:
53   void configure(const IPortableTensor *input, const IPortableTensor *kernel,
54                  const IPortableTensor *bias, ir::PaddingType _paddingType,
55                  const uint32_t paddingLeft, const uint32_t paddingRight, const uint32_t paddingTop,
56                  const uint32_t paddingBottom, const uint32_t strideWidth,
57                  const uint32_t strideHeight, const uint32_t dilationWidthFactor,
58                  const uint32_t dilationHeightFactor, const ir::Activation activation,
59                  IPortableTensor *output);
60   void prepare() override;
61   void run() override;
62
63 private:
64   void convFloat32();
65   void convQ8uPerTensor();
66   void convQ8uPerChannel();
67   void convQ8i();
68   void convQ8iHybridPerChannel();
69
70 private:
71   const IPortableTensor *_input;
72   const IPortableTensor *_kernel;
73   const IPortableTensor *_bias;
74   IPortableTensor *_output;
75
76   ir::PaddingType _paddingType;
77   uint32_t _paddingLeft;
78   uint32_t _paddingTop;
79   uint32_t _paddingRight;
80   uint32_t _paddingBottom;
81
82   uint32_t _strideWidth;
83   uint32_t _strideHeight;
84   uint32_t _dilationWidthFactor;
85   uint32_t _dilationHeightFactor;
86
87   ir::Activation _activation;
88
89   std::unique_ptr<nnfw::cker::Conv> _conv_kernel;
90   std::unique_ptr<nnfw::cker::ConvHybridTempArena> _hybrid_arena;
91
92   bool _prepare;
93   bool _is_hybrid;
94 };
95
96 } // namespace ops
97 } // namespace cpu
98 } // namespace backend
99 } // namespace onert
100
101 #endif // __ONERT_BACKEND_CPU_OPS_CONVOLUTIONLAYER_H__