Imported Upstream version 1.25.0
[platform/core/ml/nnfw.git] / onert-micro / luci-interpreter / src / kernels / Sqrt.cpp
1 /*
2  * Copyright (c) 2020 Samsung Electronics Co., Ltd. All Rights Reserved
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *    http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #include "kernels/Sqrt.h"
18 #include "kernels/Utils.h"
19
20 #include <cmath>
21
22 namespace luci_interpreter
23 {
24
25 namespace kernels
26 {
27
28 Sqrt::Sqrt(const Tensor *input, Tensor *output) : Kernel({input}, {output}) {}
29
30 void Sqrt::configure()
31 {
32   if (input()->element_type() != output()->element_type())
33   {
34     assert(false && "Input/output tensor data type mismatch.");
35   }
36   // TODO: enable it only if kernel with dynamic shapes
37   output()->resize(input()->shape());
38 }
39
40 void Sqrt::execute() const
41 {
42   switch (input()->element_type())
43   {
44     case DataType::FLOAT32:
45       evalFloat();
46       break;
47
48     default:
49       assert(false && "Unsupported type.");
50   }
51 }
52
53 void Sqrt::evalFloat() const
54 {
55   auto in = getTensorData<float>(input());
56   auto out = getTensorData<float>(output());
57   auto size = getTensorShape(input()).FlatSize();
58   for (auto i = in; i != in + size; ++i)
59   {
60     *out = std::sqrt(*i);
61     ++out;
62   }
63 }
64
65 } // namespace kernels
66 } // namespace luci_interpreter