Imported Upstream version 1.11.1
[platform/core/ml/nnfw.git] / tools / nnapi_quickcheck / tests / avg_pool_1.cpp
1 /*
2  * Copyright (c) 2018 Samsung Electronics Co., Ltd. All Rights Reserved
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *    http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #include "gtest/gtest.h"
18
19 #include "tflite/ext/kernels/register.h"
20 #include "tensorflow/lite/model.h"
21 #include "tensorflow/lite/builtin_op_data.h"
22
23 #include "env.h"
24 #include "memory.h"
25 #include "misc/environment.h"
26
27 #include "tflite/Diff.h"
28 #include "tflite/Quantization.h"
29 #include "tflite/interp/FunctionBuilder.h"
30
31 #include <chrono>
32 #include <iostream>
33
34 using namespace tflite;
35 using namespace nnfw::tflite;
36
37 TEST(NNAPI_Quickcheck_avg_pool_1, simple_test)
38 {
39   // Set random seed
40   int SEED = std::chrono::system_clock::now().time_since_epoch().count();
41
42   nnfw::misc::env::IntAccessor("SEED").access(SEED);
43
44   // Set random test parameters
45   int verbose = 0;
46   int tolerance = 1;
47
48   nnfw::misc::env::IntAccessor("VERBOSE").access(verbose);
49   nnfw::misc::env::IntAccessor("TOLERANCE").access(tolerance);
50
51 #define INT_VALUE(NAME, VALUE) IntVar NAME##_Value(#NAME, VALUE);
52 #include "avg_pool_1.lst"
53 #undef INT_VALUE
54
55   const int32_t IFM_C = IFM_C_Value();
56   const int32_t IFM_H = IFM_H_Value();
57   const int32_t IFM_W = IFM_W_Value();
58
59   const int32_t KER_H = KER_H_Value();
60   const int32_t KER_W = KER_W_Value();
61
62   const int32_t OFM_C = IFM_C;
63   const int32_t OFM_H = (IFM_H - KER_H) + 1;
64   const int32_t OFM_W = (IFM_W - KER_W) + 1;
65
66   std::cout << "Configurations:" << std::endl;
67 #define PRINT_NEWLINE()     \
68   {                         \
69     std::cout << std::endl; \
70   }
71 #define PRINT_VALUE(value)                                       \
72   {                                                              \
73     std::cout << "  " << #value << ": " << (value) << std::endl; \
74   }
75   PRINT_VALUE(SEED);
76   PRINT_NEWLINE();
77
78   PRINT_VALUE(IFM_C);
79   PRINT_VALUE(IFM_H);
80   PRINT_VALUE(IFM_W);
81   PRINT_NEWLINE();
82
83   PRINT_VALUE(KER_H);
84   PRINT_VALUE(KER_W);
85   PRINT_NEWLINE();
86
87   PRINT_VALUE(OFM_C);
88   PRINT_VALUE(OFM_H);
89   PRINT_VALUE(OFM_W);
90 #undef PRINT_VALUE
91 #undef PRINT_NEWLINE
92
93   auto setup = [&](Interpreter &interp) {
94     // Comment from 'context.h'
95     //
96     // Parameters for asymmetric quantization. Quantized values can be converted
97     // back to float using:
98     //    real_value = scale * (quantized_value - zero_point);
99     //
100     // Q: Is this necessary?
101     TfLiteQuantizationParams quantization = make_default_quantization();
102
103     quantization.scale = 1;
104     quantization.zero_point = 0;
105
106     // On AddTensors(N) call, T/F Lite interpreter creates N tensors whose index is [0 ~ N)
107     interp.AddTensors(2);
108
109     // Configure OFM
110     interp.SetTensorParametersReadWrite(0, kTfLiteFloat32 /* type */, "output" /* name */,
111                                         {1 /*N*/, OFM_H, OFM_W, OFM_C} /* dims */, quantization);
112
113     // Configure IFM
114     interp.SetTensorParametersReadWrite(1, kTfLiteFloat32 /* type */, "input" /* name */,
115                                         {1 /*N*/, IFM_H, IFM_W, IFM_C} /* dims */, quantization);
116
117     // Add Max Pooling Node
118     //
119     // NOTE AddNodeWithParameters take the ownership of param, and deallocate it with free
120     //      So, param should be allocated with malloc
121     auto param = make_alloc<TfLitePoolParams>();
122
123     param->padding = kTfLitePaddingValid;
124     param->stride_width = 1;
125     param->stride_height = 1;
126     param->filter_width = KER_W;
127     param->filter_height = KER_H;
128     param->activation = kTfLiteActNone;
129
130     // Run Convolution and store its result into Tensor #0
131     //  - Read IFM from Tensor #1
132     interp.AddNodeWithParameters({1}, {0}, nullptr, 0, reinterpret_cast<void *>(param),
133                                  BuiltinOpResolver().FindOp(BuiltinOperator_AVERAGE_POOL_2D, 1));
134
135     // Set Tensor #1 as Input #0, and Tensor #0 as Output #0
136     interp.SetInputs({1});
137     interp.SetOutputs({0});
138   };
139
140   const nnfw::tflite::FunctionBuilder builder(setup);
141
142   RandomTestParam param;
143
144   param.verbose = verbose;
145   param.tolerance = tolerance;
146
147   int res = RandomTestRunner{SEED, param}.run(builder);
148
149   EXPECT_EQ(res, 0);
150 }