Imported Upstream version 1.7.0
[platform/core/ml/nnfw.git] / runtime / onert / backend / cpu / ops / ReshapeLayer.cc
1 /*
2  * Copyright (c) 2018 Samsung Electronics Co., Ltd. All Rights Reserved
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *      http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #include "ReshapeLayer.h"
18
19 namespace onert
20 {
21 namespace backend
22 {
23 namespace cpu
24 {
25 namespace ops
26 {
27
28 ReshapeLayer::ReshapeLayer() : _input(nullptr), _shape(nullptr), _output(nullptr)
29 {
30   // DO NOTHING
31 }
32
33 void ReshapeLayer::reshapeGeneric()
34 {
35   size_t count = _input->total_size();
36   memcpy(_output->buffer(), _input->buffer(), count);
37 }
38
39 void ReshapeLayer::configure(const IPortableTensor *input, const IPortableTensor *shape,
40                              IPortableTensor *output)
41 {
42   _input = input;
43   /* note : shape is optional. If not provided from model, _shape is nullptr. */
44   _shape = shape;
45   _output = output;
46 }
47
48 void ReshapeLayer::run() { reshapeGeneric(); }
49
50 } // namespace ops
51 } // namespace cpu
52 } // namespace backend
53 } // namespace onert