Imported Upstream version 1.22.1
[platform/core/ml/nnfw.git] / onert-micro / luci-interpreter / pal / cmsisnn / PALArgMax.h
1 /*
2  * Copyright (c) 2021 Samsung Electronics Co., Ltd. All Rights Reserved
3  * Copyright 2019 The TensorFlow Authors. All Rights Reserved.
4  *
5  * Licensed under the Apache License, Version 2.0 (the "License");
6  * you may not use this file except in compliance with the License.
7  * You may obtain a copy of the License at
8  *
9  *    http://www.apache.org/licenses/LICENSE-2.0
10  *
11  * Unless required by applicable law or agreed to in writing, software
12  * distributed under the License is distributed on an "AS IS" BASIS,
13  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
14  * See the License for the specific language governing permissions and
15  * limitations under the License.
16  */
17
18 #ifndef LUCI_INTERPRETER_PAL_ARGMAX_H
19 #define LUCI_INTERPRETER_PAL_ARGMAX_H
20
21 #include <tensorflow/lite/kernels/internal/reference/arg_min_max.h>
22
23 namespace luci_interpreter_pal
24 {
25 template <typename T1, typename T2, typename T3>
26 static inline void ArgMinMax(const tflite::RuntimeShape &input1_shape, const T1 *input1_data,
27                              const T2 *axis, const tflite::RuntimeShape &output_shape,
28                              T3 *output_data, const std::greater<T1> cmp)
29 {
30   tflite::reference_ops::ArgMinMax(input1_shape, input1_data, axis, output_shape, output_data, cmp);
31 }
32 } // namespace luci_interpreter_pal
33
34 #endif // LUCI_INTERPRETER_PAL_ARGMAX_H