Imported Upstream version 1.25.0
[platform/core/ml/nnfw.git] / runtime / onert / backend / trix / BackendContext.cc
1 /*
2  * Copyright (c) 2022 Samsung Electronics Co., Ltd. All Rights Reserved
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *      http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #include "BackendContext.h"
18
19 #include "TensorBuilder.h"
20 #include "KernelGenerator.h"
21 #include "util/logging.h"
22 #include "ir/Index.h"
23 #include "ir/OperandIndexMap.h"
24 #include "ir/OperandIndexSequence.h"
25 #include "backend/basic/BackendContextHelpers.h"
26
27 namespace onert
28 {
29 namespace backend
30 {
31 namespace trix
32 {
33
34 ITensorRegistry *BackendContext::genTensors() { return basic::genTensors(*this); }
35
36 FunctionMap BackendContext::genKernels()
37 {
38   FunctionMap ret;
39
40   for (auto &&op_ind : _data.op_order)
41   {
42     auto fn_seq = kernel_gen->generate(op_ind);
43     ret.emplace_back(op_ind, std::move(fn_seq));
44   }
45
46   basic::initConsts(*this);
47
48   // NOTE For memory optimization, we want to free some operand data
49   const_cast<ir::Graph &>(*_data.graph)
50     .operands()
51     .iterate([&](const ir::OperandIndex &, ir::Operand &obj) { obj.releaseData(); });
52
53   for (auto &&it : ret)
54   {
55     auto &fn_seq = it.second;
56     fn_seq->iterate([&](exec::IFunction &ifunc) { ifunc.prepare(); });
57   }
58
59   return ret;
60 }
61
62 } // namespace trix
63 } // namespace backend
64 } // namespace onert