Imported Upstream version 1.25.0
[platform/core/ml/nnfw.git] / runtime / onert / core / src / odc / QuantizeManager.cc
1 /*
2  * Copyright (c) 2023 Samsung Electronics Co., Ltd. All Rights Reserved
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *      http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #include "QuantizerLoader.h"
18 #include "odc/QuantizeManager.h"
19
20 #include <iostream>
21 #include <mutex>
22
23 namespace onert
24 {
25 namespace odc
26 {
27
28 bool QuantizeManager::quantize()
29 {
30   // Compile function is thread-unsafe
31   static std::mutex lock;
32   std::lock_guard<std::mutex> guard(lock);
33
34   if (_export_model_path.empty())
35     throw std::runtime_error("Export model path is not set");
36
37   auto &quantize_loader = QuantizerLoader::instance();
38   if (quantize_loader.loadLibrary() != 0)
39     return false;
40
41   auto quantizer = quantize_loader.get();
42   auto result = quantizer->quantize(_model_path.c_str(), _export_model_path.c_str(), _is_q16);
43
44   // TODO Unload quantize library to reduce memory usage
45
46   return (result == 0);
47 }
48
49 } // namespace odc
50 } // namespace onert