Publishing 2019 R1 content
[platform/upstream/dldt.git] / inference-engine / samples / classification_sample / classification_sample.h
index 9bf4a61..7b84e6a 100644 (file)
@@ -1,4 +1,4 @@
-// Copyright (C) 2018 Intel Corporation
+// Copyright (C) 2018-2019 Intel Corporation
 // SPDX-License-Identifier: Apache-2.0
 //
 
@@ -29,25 +29,25 @@ static const char plugin_path_message[] = "Path to a plugin folder.";
 static const char model_message[] = "Required. Path to an .xml file with a trained model.";
 
 /// @brief message for assigning cnn calculation to device
-static const char target_device_message[] = "Specify the target device to infer on; CPU, GPU, FPGA or MYRIAD is acceptable. " \
+static const char target_device_message[] = "Specify the target device to infer on; CPU, GPU, FPGA, HDDL or MYRIAD is acceptable. " \
                                             "Sample will look for a suitable plugin for device specified (CPU by default)";
 
 /// @brief message for performance counters
 static const char performance_counter_message[] = "Enables per-layer performance report";
 
 /// @brief message for top results number
-static const char ntop_message[] = "Number of top results (default 10)";
+static const char ntop_message[] = "Number of top results. Default value is 10";
 
 /// @brief message for iterations count
-static const char iterations_count_message[] = "Number of iterations (default 1)";
+static const char iterations_count_message[] = "Number of iterations. Default value is 1";
 
 /// @brief message for clDNN custom kernels desc
-static const char custom_cldnn_message[] = "Required for clDNN (GPU)-targeted custom kernels."\
-                                            "Absolute path to the xml file with the kernels desc.";
+static const char custom_cldnn_message[] = "Required for GPU custom kernels. "\
+                                            "Absolute path to the .xml file with the kernels descriptions.";
 
 /// @brief message for user library argument
-static const char custom_cpu_library_message[] = "Required for MKLDNN (CPU)-targeted custom layers." \
-                                                 "Absolute path to a shared library with the kernels impl.";
+static const char custom_cpu_library_message[] = "Required for CPU custom layers. " \
+                                                 "Absolute path to a shared library with the kernels implementations.";
 
 /// @brief message for plugin messages
 static const char plugin_message[] = "Enables messages from a plugin";
@@ -70,7 +70,7 @@ DEFINE_string(pp, "", plugin_path_message);
 DEFINE_string(d, "CPU", target_device_message);
 
 /// @brief Top results number (default 10) <br>
-DEFINE_int32(nt, 10, ntop_message);
+DEFINE_uint32(nt, 10, ntop_message);
 
 /// @brief Enable per-layer performance report
 DEFINE_bool(pc, false, performance_counter_message);
@@ -84,7 +84,7 @@ DEFINE_string(c, "", custom_cldnn_message);
 DEFINE_string(l, "", custom_cpu_library_message);
 
 /// @brief Iterations count (default 1)
-DEFINE_int32(ni, 1, iterations_count_message);
+DEFINE_uint32(ni, 1, iterations_count_message);
 
 /// @brief Enable plugin messages
 DEFINE_bool(p_msg, false, plugin_message);