0bd468f9608eb8ec5fefc954ea5775049eb8c003
[platform/core/ml/nnfw.git] / runtime / onert / backend / cpu / ops / RsqrtLayer.cc
1 /*
2  * Copyright (c) 2020 Samsung Electronics Co., Ltd. All Rights Reserved
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *      http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #include "RsqrtLayer.h"
18
19 #include "OperationUtils.h"
20
21 #include <cker/operation/Elementwise.h>
22
23 namespace onert
24 {
25 namespace backend
26 {
27 namespace cpu
28 {
29 namespace ops
30 {
31 RsqrtLayer::RsqrtLayer() : _input(nullptr), _output(nullptr)
32 {
33   // DO NOTHING
34 }
35
36 void RsqrtLayer::rsqrtFloat32()
37 {
38   nnfw::cker::Rsqrt(getTensorShape(_input), reinterpret_cast<const float *>(_input->buffer()),
39                     getTensorShape(_output), reinterpret_cast<float *>(_output->buffer()));
40 }
41
42 void RsqrtLayer::rsqrtQuant8() { throw std::runtime_error{"NYI : QASYMM8 not supported"}; }
43
44 void RsqrtLayer::configure(const IPortableTensor *input, IPortableTensor *output)
45 {
46   _input = input;
47   _output = output;
48 }
49
50 void RsqrtLayer::run()
51 {
52   if (_input->data_type() == OperandType::FLOAT32)
53   {
54     rsqrtFloat32();
55   }
56   else if (_input->data_type() == OperandType::QUANT_UINT8_ASYMM)
57   {
58     rsqrtQuant8();
59   }
60   else
61   {
62     throw std::runtime_error{"Rsqrt: unsupported data type"};
63   }
64 }
65
66 } // namespace ops
67 } // namespace cpu
68 } // namespace backend
69 } // namespace onert