Imported Upstream version 1.8.0
[platform/core/ml/nnfw.git] / runtime / onert / backend / cpu / TensorBuilder.h
1 /*
2  * Copyright (c) 2018 Samsung Electronics Co., Ltd. All Rights Reserved
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *      http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #ifndef __ONERT_BACKEND_CPU_TENSOR_BUILDER_H__
18 #define __ONERT_BACKEND_CPU_TENSOR_BUILDER_H__
19
20 #include <backend/cpu_common/DynamicTensorManager.h>
21 #include <backend/cpu_common/TensorRegistry.h>
22
23 #include <backend/ITensorBuilder.h>
24 #include <ir/OperandIndexMap.h>
25
26 #include "StaticTensorManager.h"
27 #include "Tensor.h"
28
29 #include <unordered_map>
30
31 namespace onert
32 {
33 namespace backend
34 {
35 namespace cpu
36 {
37
38 class TensorBuilder : public ITensorBuilder
39 {
40 public:
41   TensorBuilder();
42
43   bool supportDynamicTensor() override { return true; }
44
45   /**
46    * @brief     Register tensor information to allocate on CPU backend
47    * @param[in] ind    Operand index
48    * @param[in] info   Operand information
49    * @param[in] layout Operand data layout
50    */
51   void registerTensorInfo(const ir::OperandIndex &ind, const ir::OperandInfo &info,
52                           ir::Layout backend_layout) override;
53
54   void notifyFirstUse(const ir::OperandIndex &) override;
55   void notifyLastUse(const ir::OperandIndex &) override;
56
57   bool isRegistered(const ir::OperandIndex &) const override;
58
59   void prepare(void) override;
60   void allocate() override;
61   void postFunctionPrepare() override { /* DO NOTHING */}
62
63   /**
64    * @brief Get tensor with a specific OperandIndex
65    *
66    * @return shared_ptr<ITensor> if a tensor with given OperandIndex exists. nullptr otherwise.
67    */
68   std::shared_ptr<ITensor> tensorAt(const ir::OperandIndex &ind) override;
69
70   void iterate(const IterateFunction &fn) override;
71
72   std::unique_ptr<ITensorManager> releaseStaticTensorManager(void) override;
73
74   IDynamicTensorManager *dynamicTensorManager(void) override { return _dynamic_tensor_mgr.get(); }
75
76   std::unique_ptr<ITensorManager> releaseDynamicTensorManager(void) override;
77
78   /**
79    * @brief Get tensor with a specific OperandIndex.
80    * @param ind OperandIndex for the tensor. There must exist a tensor with this ind.
81    *        If not, program will crash with assert or exception.
82    * @return shared_ptr<Tensor>
83    */
84   std::shared_ptr<Tensor> at(const ir::OperandIndex &ind);
85   std::shared_ptr<IPortableTensor> portableAt(const ir::OperandIndex &ind);
86   bool setMigrantTensor(const ir::OperandIndex &ind,
87                         const std::shared_ptr<IPortableTensor> &tensor) override;
88
89   std::shared_ptr<ITensorRegistry> tensorRegistry() override { return _tensor_reg; }
90
91 private:
92   const std::shared_ptr<cpu_common::TensorRegistry> _tensor_reg;
93   std::unique_ptr<cpu_common::DynamicTensorManager> _dynamic_tensor_mgr;
94   std::unique_ptr<StaticTensorManager> _static_tensor_mgr;
95   ir::OperandIndexMap<ir::OperandInfo> _tensor_info_map;
96 };
97
98 } // namespace cpu
99 } // namespace backend
100 } // namespace onert
101
102 #endif // __ONERT_BACKEND_CPU_TENSOR_BUILDER_H__