Imported Upstream version 1.25.0
[platform/core/ml/nnfw.git] / runtime / onert / core / src / backend / builtin / BackendContext.cc
1 /*
2  * Copyright (c) 2020 Samsung Electronics Co., Ltd. All Rights Reserved
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *      http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #include "BackendContext.h"
18
19 #include "KernelGenerator.h"
20 #include "backend/basic/BackendContextHelpers.h"
21
22 namespace onert
23 {
24 namespace backend
25 {
26 namespace builtin
27 {
28
29 ITensorRegistry *BackendContext::genTensors() { return basic::genTensors(*this); }
30
31 FunctionMap BackendContext::genKernels()
32 {
33   FunctionMap ret;
34
35   for (auto &&op_ind : _data.op_order)
36   {
37     auto fn_seq = kernel_gen->generate(op_ind);
38     ret.emplace_back(op_ind, std::move(fn_seq));
39   }
40
41   basic::initConsts(*this);
42
43   // NOTE For memory optimization, we want to free some operand data
44   const_cast<ir::Graph *>(graph())->operands().iterate(
45     [&](const ir::OperandIndex &, ir::Operand &obj) { obj.releaseData(); });
46
47   for (auto &&it : ret)
48   {
49     auto &fn_seq = it.second;
50     fn_seq->iterate([&](exec::IFunction &ifunc) { ifunc.prepare(); });
51   }
52
53   return ret;
54 }
55
56 } // namespace builtin
57 } // namespace backend
58 } // namespace onert