Publishing 2019 R3.1 content
[platform/upstream/dldt.git] / inference-engine / include / cldnn / cldnn_config.hpp
index 571ff51..64ded2d 100644 (file)
@@ -15,6 +15,9 @@
 
 namespace InferenceEngine {
 
+/**
+ * @brief GPU plugin configuration
+ */
 namespace CLDNNConfigParams {
 
 /**
@@ -56,5 +59,10 @@ DECLARE_CLDNN_CONFIG_KEY(GRAPH_DUMPS_DIR);
 */
 DECLARE_CLDNN_CONFIG_KEY(SOURCES_DUMPS_DIR);
 
+/**
+* @brief This key turns usage of int8 optimizations and qunatized models on.
+*/
+DECLARE_CLDNN_CONFIG_KEY(INT8_ENABLED);
+
 }  // namespace CLDNNConfigParams
 }  // namespace InferenceEngine