Publishing 2019 R1 content
[platform/upstream/dldt.git] / inference-engine / thirdparty / clDNN / src / gpu / confiugration.h
1 /*
2 // Copyright (c) 2018 Intel Corporation
3 //
4 // Licensed under the Apache License, Version 2.0 (the "License");
5 // you may not use this file except in compliance with the License.
6 // You may obtain a copy of the License at
7 //
8 //      http://www.apache.org/licenses/LICENSE-2.0
9 //
10 // Unless required by applicable law or agreed to in writing, software
11 // distributed under the License is distributed on an "AS IS" BASIS,
12 // WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13 // See the License for the specific language governing permissions and
14 // limitations under the License.
15 */
16
17 ///////////////////////////////////////////////////////////////////////////////////////////////////
18 #pragma once
19 #include <string>
20 #include "api/C/cldnn.h"
21
22 namespace cl
23 {
24 class Context;
25 }
26 namespace cldnn {
27     namespace gpu {
28         struct configuration
29         {
30             enum device_types { default_device = 0, cpu, gpu, accelerator };
31
32             configuration();
33
34             bool enable_profiling;
35             bool meaningful_kernels_names;
36             bool dump_custom_program;
37             device_types device_type;
38             uint32_t device_vendor;
39             std::string compiler_options;
40             std::string single_kernel_name;
41             bool host_out_of_order;
42             std::string log;
43             std::string ocl_sources_dumps_dir;
44             cldnn_priority_mode_type priority_mode;
45             cldnn_throttle_mode_type throttle_mode;
46             cl::Context* user_context;
47             std::string tuning_cache_path;
48         };
49     }
50 }