Imported Upstream version 1.7.0
[platform/core/ml/nnfw.git] / runtime / onert / backend / cpu / TensorBuilder.h
1 /*
2  * Copyright (c) 2018 Samsung Electronics Co., Ltd. All Rights Reserved
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *      http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #ifndef __ONERT_BACKEND_CPU_TENSOR_BUILDER_H__
18 #define __ONERT_BACKEND_CPU_TENSOR_BUILDER_H__
19
20 #include <backend/cpu_common/DynamicTensorManager.h>
21 #include <backend/cpu_common/StaticTensorManager.h>
22 #include <backend/cpu_common/TensorRegistry.h>
23 #include <backend/cpu_common/Tensor.h>
24
25 #include <backend/ITensorBuilder.h>
26 #include <ir/OperandIndexMap.h>
27
28 #include <unordered_map>
29
30 namespace onert
31 {
32 namespace backend
33 {
34 namespace cpu
35 {
36
37 class TensorBuilder : public ITensorBuilder
38 {
39 public:
40   TensorBuilder();
41
42   bool supportDynamicTensor() override { return true; }
43
44   /**
45    * @brief     Register tensor information to allocate on CPU backend
46    * @param[in] ind    Operand index
47    * @param[in] info   Operand information
48    * @param[in] layout Operand data layout
49    */
50   void registerTensorInfo(const ir::OperandIndex &ind, const ir::OperandInfo &info,
51                           ir::Layout backend_layout) override;
52
53   void notifyFirstUse(const ir::OperandIndex &) override;
54   void notifyLastUse(const ir::OperandIndex &) override;
55
56   bool isRegistered(const ir::OperandIndex &) const override;
57
58   void prepare(void) override;
59   void allocate() override;
60   void postFunctionPrepare() override { /* DO NOTHING */}
61
62   /**
63    * @brief Get tensor with a specific OperandIndex
64    *
65    * @return shared_ptr<ITensor> if a tensor with given OperandIndex exists. nullptr otherwise.
66    */
67   std::shared_ptr<ITensor> tensorAt(const ir::OperandIndex &ind) override;
68
69   void iterate(const IterateFunction &fn) override;
70
71   std::unique_ptr<ITensorManager> releaseStaticTensorManager(void) override;
72
73   IDynamicTensorManager *dynamicTensorManager(void) override { return _dynamic_tensor_mgr.get(); }
74
75   std::unique_ptr<ITensorManager> releaseDynamicTensorManager(void) override;
76
77   /**
78    * @brief Get tensor with a specific OperandIndex.
79    * @param ind OperandIndex for the tensor. There must exist a tensor with this ind.
80    *        If not, program will crash with assert or exception.
81    * @return shared_ptr<Tensor>
82    */
83   std::shared_ptr<cpu_common::Tensor> at(const ir::OperandIndex &ind);
84   std::shared_ptr<IPortableTensor> portableAt(const ir::OperandIndex &ind);
85   bool setExternalTensor(const ir::OperandIndex &ind,
86                          const std::shared_ptr<IPortableTensor> &tensor) override;
87
88   std::shared_ptr<ITensorRegistry> tensorRegistry() override { return _tensor_reg; }
89
90 private:
91   const std::shared_ptr<cpu_common::TensorRegistry> _tensor_reg;
92   std::unique_ptr<cpu_common::StaticTensorManager> _static_tensor_mgr;
93   std::unique_ptr<cpu_common::DynamicTensorManager> _dynamic_tensor_mgr;
94   ir::OperandIndexMap<ir::OperandInfo> _tensor_info_map;
95 };
96
97 } // namespace cpu
98 } // namespace backend
99 } // namespace onert
100
101 #endif // __ONERT_BACKEND_CPU_TENSOR_BUILDER_H__