Imported Upstream version 1.11.1
[platform/core/ml/nnfw.git] / tools / nnapi_quickcheck / tests / split_1.cpp
1 /*
2  * Copyright (c) 2018 Samsung Electronics Co., Ltd. All Rights Reserved
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *    http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #include "gtest/gtest.h"
18
19 #include "tflite/ext/kernels/register.h"
20 #include "tensorflow/lite/model.h"
21 #include "tensorflow/lite/builtin_op_data.h"
22
23 #include "env.h"
24 #include "memory.h"
25 #include "misc/environment.h"
26 #include "misc/feature/Shape.h"
27
28 #include "tflite/Diff.h"
29 #include "tflite/Quantization.h"
30 #include "tflite/interp/FunctionBuilder.h"
31
32 #include <chrono>
33 #include <random>
34 #include <iostream>
35 #include <cassert>
36
37 using namespace tflite;
38 using namespace nnfw::tflite;
39
40 TEST(NNAPI_Quickcheck_split_1, simple_test)
41 {
42   int verbose = 0;
43   int tolerance = 1;
44
45   nnfw::misc::env::IntAccessor("VERBOSE").access(verbose);
46   nnfw::misc::env::IntAccessor("TOLERANCE").access(tolerance);
47
48 #define INT_VALUE(NAME, VALUE) IntVar NAME##_Value(#NAME, VALUE);
49 #include "split_1.lst"
50 #undef INT_VALUE
51
52   const int32_t IFM_N = IFM_N_Value();
53   const int32_t IFM_C = IFM_C_Value();
54   const int32_t IFM_H = IFM_H_Value();
55   const int32_t IFM_W = IFM_W_Value();
56   const int32_t NUM_SPLIT = NUM_SPLIT_Value();
57   const int32_t AXIS = AXIS_Value();
58
59   // Set random seed
60   int SEED = std::chrono::system_clock::now().time_since_epoch().count();
61
62   nnfw::misc::env::IntAccessor("SEED").access(SEED);
63
64   // Initialize random number generator
65   std::minstd_rand random(SEED);
66
67   std::cout << "Configurations:" << std::endl;
68 #define PRINT_NEWLINE()     \
69   {                         \
70     std::cout << std::endl; \
71   }
72 #define PRINT_VALUE(value)                                       \
73   {                                                              \
74     std::cout << "  " << #value << ": " << (value) << std::endl; \
75   }
76   PRINT_VALUE(SEED);
77   PRINT_NEWLINE();
78
79   PRINT_VALUE(IFM_N);
80   PRINT_VALUE(IFM_C);
81   PRINT_VALUE(IFM_H);
82   PRINT_VALUE(IFM_W);
83   PRINT_VALUE(NUM_SPLIT);
84   PRINT_VALUE(AXIS);
85 #undef PRINT_VALUE
86 #undef PRINT_NEWLINE
87
88   const int32_t OFM_N = IFM_N;
89   const int32_t OFM_C = IFM_C;
90   const int32_t OFM_H = IFM_H;
91   const int32_t OFM_W = IFM_W;
92   const int32_t axis[1] = {AXIS};
93
94   auto setup = [&](Interpreter &interp) {
95     // Comment from 'context.h'
96     //
97     // Parameters for asymmetric quantization. Quantized values can be converted
98     // back to float using:
99     //    real_value = scale * (quantized_value - zero_point);
100     //
101     // Q: Is this necessary?
102     TfLiteQuantizationParams quantization = make_default_quantization();
103
104     // On AddTensors(N) call, T/F Lite interpreter creates N tensors whose index is [0 ~ N)
105     interp.AddTensors(NUM_SPLIT + 2);
106
107     // Configure Input Tensor(s)
108     interp.SetTensorParametersReadOnly(0, kTfLiteInt32 /* type */, "axis" /* name */,
109                                        {1} /* dims */, quantization,
110                                        reinterpret_cast<const char *>(axis), 1 * sizeof(int32_t));
111
112     interp.SetTensorParametersReadWrite(1, kTfLiteFloat32 /* type */, "input" /* name */,
113                                         {IFM_N, IFM_H, IFM_W, IFM_C} /* dims */, quantization);
114
115     // Configure Output Tensor
116     std::vector<int> ofm_indexes;
117
118     for (uint32_t n = 0; n < NUM_SPLIT; ++n)
119     {
120       const auto ofm_index = 2 + n;
121
122       interp.SetTensorParametersReadWrite(ofm_index, kTfLiteFloat32 /* type */, "output" /* name */,
123                                           {OFM_N, OFM_H, OFM_W, OFM_C} /* dims */, quantization);
124
125       ofm_indexes.emplace_back(ofm_index);
126     }
127
128     auto *param = reinterpret_cast<TfLiteSplitParams *>(malloc(sizeof(TfLiteSplitParams)));
129
130     param->num_splits = NUM_SPLIT;
131
132     // Add SPLIT Node
133     // Run SPLIT and store its result into Tensor #0
134     //  - Read axis and IFM from Tensor #0 and #1, respectively
135     interp.AddNodeWithParameters({0, 1}, ofm_indexes, nullptr, 0, reinterpret_cast<void *>(param),
136                                  BuiltinOpResolver().FindOp(BuiltinOperator_SPLIT, 1));
137
138     // Set Tensor #1 as Input #0, and Tensor #2 ~ #NUM_SPLIT+1 as Output #0
139     interp.SetInputs({1});
140     interp.SetOutputs(ofm_indexes);
141   };
142
143   const nnfw::tflite::FunctionBuilder builder(setup);
144
145   RandomTestParam param;
146
147   param.verbose = verbose;
148   param.tolerance = tolerance;
149
150   int res = RandomTestRunner{SEED, param}.run(builder);
151
152   EXPECT_EQ(res, 0);
153 }