Imported Upstream version 1.9.0
[platform/core/ml/nnfw.git] / runtime / onert / core / src / exec / feature / nchw / Reader.h
1 /*
2  * Copyright (c) 2019 Samsung Electronics Co., Ltd. All Rights Reserved
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *      http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #ifndef __ONERT_EXEC_FEATURE_NCHW_READER_H__
18 #define __ONERT_EXEC_FEATURE_NCHW_READER_H__
19
20 #include "../Reader.h"
21
22 #include <cassert>
23
24 #include "backend/ITensor.h"
25 #include "ir/Shape.h"
26
27 namespace onert
28 {
29 namespace exec
30 {
31 namespace feature
32 {
33 namespace nchw
34 {
35
36 template <typename T> class Reader : public feature::Reader<T>
37 {
38 public:
39   // Construct for buffer of model inputs
40   Reader(const ir::FeatureShape &shape, const T *ptr, size_t len)
41       : _shape{shape}, _ptr{reinterpret_cast<const uint8_t *>(ptr)}, _len{len}
42   {
43     assert(shape.N * shape.C * shape.H * shape.W * sizeof(T) == len);
44
45     // No padding
46     _strides.W = sizeof(T);
47     _strides.H = shape.W * sizeof(T);
48     _strides.C = shape.W * shape.H * sizeof(T);
49     _strides.N = shape.W * shape.H * shape.C * sizeof(T);
50   }
51
52   // Construct for backend tensor
53   Reader(backend::ITensor *tensor)
54       : _ptr{tensor->buffer() + tensor->calcOffset({0, 0, 0, 0})}, _len{tensor->total_size()}
55   {
56     assert(tensor->layout() == ir::Layout::NCHW);
57
58     const auto start_offset = tensor->calcOffset({0, 0, 0, 0});
59     _strides.W = tensor->dimension(3) == 1 ? 0 : tensor->calcOffset({0, 0, 0, 1}) - start_offset;
60     _strides.H = tensor->dimension(2) == 1 ? 0 : tensor->calcOffset({0, 0, 1, 0}) - start_offset;
61     _strides.C = tensor->dimension(1) == 1 ? 0 : tensor->calcOffset({0, 1, 0, 0}) - start_offset;
62     _strides.N = tensor->dimension(0) == 1 ? 0 : tensor->calcOffset({1, 0, 0, 0}) - start_offset;
63
64     _shape.W = tensor->dimension(3);
65     _shape.H = tensor->dimension(2);
66     _shape.C = tensor->dimension(1);
67     _shape.N = tensor->dimension(0);
68   }
69
70 public:
71   T at(uint32_t batch, uint32_t ch, uint32_t row, uint32_t col) const final
72   {
73     return getRef(batch, ch, row, col);
74   }
75   T at(uint32_t ch, uint32_t row, uint32_t col) const final { return getRef(0, ch, row, col); }
76
77 protected:
78   const T &getRef(uint32_t batch, uint32_t ch, uint32_t row, uint32_t col) const
79   {
80     const auto offset = feature_index_to_byte_offset(batch, ch, row, col);
81
82     const T *ptr = reinterpret_cast<const T *>(_ptr + offset);
83
84     return *ptr;
85   }
86
87 private:
88   size_t feature_index_to_byte_offset(uint32_t batch, uint32_t ch, uint32_t row, uint32_t col) const
89   {
90     assert(1u * _shape.N > batch); // shape.N > batch
91     assert(1u * _shape.C > ch);    // shape.C > ch
92     assert(1u * _shape.H > row);   // shape.H > row
93     assert(1u * _shape.W > col);   // shape.W > col
94
95     uint32_t res = 0;
96     res += batch * _strides.N;
97     res += ch * _strides.C;
98     res += row * _strides.H;
99     res += col * _strides.W;
100
101     return res;
102   }
103
104 private:
105   // TODO Remove _shape
106   ir::FeatureShape _shape;
107   using Strides = ir::FeatureShape;
108   Strides _strides;
109   const uint8_t *_ptr;
110   size_t _len;
111 };
112
113 } // namespace nchw
114 } // namespace feature
115 } // namespace exec
116 } // namespace onert
117
118 #endif // __ONERT_EXEC_FEATURE_NCHW_READER_H__