Imported Upstream version 1.25.0
[platform/core/ml/nnfw.git] / onert-micro / luci-interpreter / src / kernels / Shape.cpp
1 /*
2  * Copyright (c) 2023 Samsung Electronics Co., Ltd. All Rights Reserved
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *    http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #include "Builders.h"
18 #include "SISOKernel.h"
19 #include "kernels/Utils.h"
20
21 namespace luci_interpreter
22 {
23 void configure_kernel_CircleShape(const circle::Operator *cur_op, BaseRuntimeGraph *runtime_graph)
24 {
25   kernels::SISOKernel kernel(cur_op, runtime_graph);
26   LUCI_INTERPRETER_CHECK(Tensor::element_type(kernel.output()) == DataType::S32);
27 }
28
29 void execute_kernel_CircleShape(const circle::Operator *cur_op, BaseRuntimeGraph *runtime_graph)
30 {
31   kernels::SISOKernel kernel(cur_op, runtime_graph);
32
33   const circle::Tensor *input = kernel.input();
34   const circle::Tensor *output = kernel.output();
35
36   assert(Tensor::element_type(output) == DataType::S32);
37   int32_t *output_data = kernels::getTensorData<int32_t>(runtime_graph->getDataByTensor(output));
38
39   const int rank = Tensor::num_dims(input);
40   for (int i = 0; i < rank; ++i)
41   {
42     output_data[i] = Tensor::dim(input, i);
43   }
44 }
45
46 } // namespace luci_interpreter