Publishing 2019 R3.1 content
[platform/upstream/dldt.git] / inference-engine / include / cldnn / cldnn_config.hpp
index 3fac6a2..64ded2d 100644 (file)
@@ -1,5 +1,4 @@
-// Copyright (C) 2018 Intel Corporation
-//
+// Copyright (C) 2018-2019 Intel Corporation
 // SPDX-License-Identifier: Apache-2.0
 //
 
 #pragma once
 
 #include <string>
-#include "../ie_plugin_config.hpp"
+#include "ie_plugin_config.hpp"
 
 namespace InferenceEngine {
 
+/**
+ * @brief GPU plugin configuration
+ */
 namespace CLDNNConfigParams {
 
 /**
@@ -57,5 +59,10 @@ DECLARE_CLDNN_CONFIG_KEY(GRAPH_DUMPS_DIR);
 */
 DECLARE_CLDNN_CONFIG_KEY(SOURCES_DUMPS_DIR);
 
+/**
+* @brief This key turns usage of int8 optimizations and qunatized models on.
+*/
+DECLARE_CLDNN_CONFIG_KEY(INT8_ENABLED);
+
 }  // namespace CLDNNConfigParams
 }  // namespace InferenceEngine