Imported Upstream version 1.11.1
[platform/core/ml/nnfw.git] / tools / nnapi_quickcheck / tests / concat_quan_1.cpp
1 /*
2  * Copyright (c) 2018 Samsung Electronics Co., Ltd. All Rights Reserved
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *    http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #include "gtest/gtest.h"
18
19 #include "tflite/ext/kernels/register.h"
20 #include "tensorflow/lite/model.h"
21 #include "tensorflow/lite/builtin_op_data.h"
22
23 #include "env.h"
24 #include "memory.h"
25 #include "misc/environment.h"
26
27 #include "tflite/Diff.h"
28 #include "tflite/Quantization.h"
29 #include "tflite/interp/FunctionBuilder.h"
30
31 #include <iostream>
32 #include <cassert>
33
34 #include <chrono>
35 #include <random>
36
37 using namespace tflite;
38 using namespace nnfw::tflite;
39
40 TEST(NNAPI_Quickcheck_concat_1, simple_test)
41 {
42   int verbose = 0;
43   int tolerance = 1;
44
45   nnfw::misc::env::IntAccessor("VERBOSE").access(verbose);
46   nnfw::misc::env::IntAccessor("TOLERANCE").access(tolerance);
47
48   // Set random seed
49   int SEED = std::chrono::system_clock::now().time_since_epoch().count();
50
51   nnfw::misc::env::IntAccessor("SEED").access(SEED);
52
53 #define INT_VALUE(NAME, VALUE) IntVar NAME##_Value(#NAME, VALUE);
54 #include "concat_quan_1.lst"
55 #undef INT_VALUE
56
57   // TODO Allow users to set concat axis!
58   const int32_t CONCAT_COUNT = CONCAT_COUNT_Value();
59
60   const int32_t IFM_H = IFM_H_Value();
61   const int32_t IFM_W = IFM_W_Value();
62
63   int32_t OFM_C = 0;
64   const int32_t OFM_H = IFM_H;
65   const int32_t OFM_W = IFM_W;
66
67   std::cout << "Configurations:" << std::endl;
68 #define PRINT_NEWLINE()     \
69   {                         \
70     std::cout << std::endl; \
71   }
72 #define PRINT_VALUE(value)                                       \
73   {                                                              \
74     std::cout << "  " << #value << ": " << (value) << std::endl; \
75   }
76   PRINT_VALUE(SEED);
77   PRINT_NEWLINE();
78
79   PRINT_VALUE(CONCAT_COUNT);
80   PRINT_NEWLINE();
81
82   PRINT_VALUE(IFM_H);
83   PRINT_VALUE(IFM_W);
84 #undef PRINT_VALUE
85 #undef PRINT_NEWLINE
86
87   // Randomize IFM depth
88   std::default_random_engine generator(SEED);
89   std::uniform_int_distribution<int> distribution(1, 8);
90
91   std::vector<int32_t> depths;
92
93   for (int32_t n = 0; n < CONCAT_COUNT; ++n)
94   {
95     const auto depth = distribution(generator);
96
97     OFM_C += depth;
98     depths.emplace_back(depth);
99   }
100
101   auto setup = [&](Interpreter &interp) {
102     // Comment from 'context.h'
103     //
104     // Parameters for asymmetric quantization. Quantized values can be converted
105     // back to float using:
106     //    real_value = scale * (quantized_value - zero_point);
107     //
108     // Q: Is this necessary?
109     TfLiteQuantizationParams quantization;
110     quantization.scale = 1.0f;
111     quantization.zero_point = 0;
112
113     // On AddTensors(N) call, T/F Lite interpreter creates N tensors whose index is [0 ~ N)
114     interp.AddTensors(depths.size() + 1);
115
116     // Configure OFM
117     interp.SetTensorParametersReadWrite(0, kTfLiteUInt8 /* type */, "output" /* name */,
118                                         {1 /*N*/, OFM_H, OFM_W, OFM_C} /* dims */, quantization);
119
120     // Configure IFM(s)
121     std::vector<int> ifm_indexes;
122
123     for (uint32_t n = 0; n < depths.size(); ++n)
124     {
125       const auto ifm_index = 1 + n;
126       const auto IFM_C = depths.at(n);
127
128       interp.SetTensorParametersReadWrite(ifm_index, kTfLiteUInt8 /* type */, "input" /* name */,
129                                           {1 /*N*/, IFM_H, IFM_W, IFM_C} /* dims */, quantization);
130
131       ifm_indexes.emplace_back(ifm_index);
132     }
133
134     // Add Concat Node
135     //
136     // NOTE AddNodeWithParameters take the ownership of param, and deallocate it with free
137     //      So, param should be allocated with malloc
138     auto param = make_alloc<TfLiteConcatenationParams>();
139
140     param->activation = kTfLiteActNone;
141     param->axis = 3;
142
143     // Run Convolution and store its result into Tensor #0
144     //  - Read IFM from Tensor #1
145     interp.AddNodeWithParameters(ifm_indexes, {0}, nullptr, 0, reinterpret_cast<void *>(param),
146                                  BuiltinOpResolver().FindOp(BuiltinOperator_CONCATENATION, 1));
147
148     // Set Tensor #1 as Input #0, and Tensor #0 as Output #0
149     interp.SetInputs(ifm_indexes);
150     interp.SetOutputs({0});
151   };
152
153   const nnfw::tflite::FunctionBuilder builder(setup);
154
155   RandomTestParam param;
156
157   param.verbose = verbose;
158   param.tolerance = tolerance;
159
160   int res = RandomTestRunner{SEED, param}.run(builder);
161
162   EXPECT_EQ(res, 0);
163 }