Publishing 2019 R1 content
[platform/upstream/dldt.git] / inference-engine / samples / lenet_network_graph_builder / README.md
index d7fdfb7..6ba3d1b 100644 (file)
@@ -1,12 +1,23 @@
-# Lenet Number Classifications Network using Graph Builder API
+# LeNet Number Classifications Network Using Graph Builder API
 
 This sample demonstrates how to execute inference using Inference Engine Graph Builder API to build a network on example of the LeNet classifications network.
-XML file is not required for network building now. Inference Engine Graph Builder API allows building of a network "on the fly" from source code. The sample uses 1-channel ubyte pictures as input.
-<br>
+
+XML file is not required for network building now. Inference Engine Graph Builder API allows building of a network "on the fly" from source code. The sample uses one-channel `ubyte` pictures as input.
+
+## How It Works
+
+Upon the start-up the sample reads command line parameters and builds a network using Graph Builder API and passed weights file.
+Then, the application loads built network and an image to the Inference Engine plugin.
+
+When inference is done, the application outputs inference results to the standard output stream.
+
+> **NOTE**: This sample is implemented to support models with FP32 weights only.
+
+> **NOTE**: By default, Inference Engine samples and demos expect input with BGR channels order. If you trained your model to work with RGB order, you need to manually rearrange the default channels order in the sample or demo application or reconvert your model using the Model Optimizer tool with `--reverse_input_channels` argument specified. For more information about the argument, refer to **When to Specify Input Shapes** section of [Converting a Model Using General Conversion Parameters](./docs/MO_DG/prepare_model/convert_model/Converting_Model_General.md).
 
 ## Running
 
-Running the application with the <code>-h</code> option yields the following usage message:
+Running the application with the `-h` option yields the following usage message:
 ```sh
 ./lenet_network_graph_builder -h
 InferenceEngine:
@@ -19,11 +30,11 @@ Options:
     -h                      Print a usage message.
     -m "<path>"             Path to a .bin file with weights for trained model
     -i "<path>"             Required. Path to image or folder with images
-    -d "<device>"           Specify the target device to infer on this. Sample will look for a suitable plugin for device specified(default value is CPU)
+    -d "<device>"           Specify the target device to infer on this. Sample will look for a suitable plugin for device specified. Default value is CPU
     -pp "<path>"            Path to a plugin folder
     -pc                     Enables per-layer performance report
-    -nt "<integer>"         Number of top results (default 10)
-    -ni "<integer>"         Number of iterations (default 1)
+    -nt "<integer>"         Number of top results. Default value is 10
+    -ni "<integer>"         Number of iterations. Default value is 1
 
 ```
 
@@ -34,21 +45,10 @@ For example, to do inference of an ubyte image on a GPU run the following comman
 ./lenet_network_graph_builder -i <path_to_image> -m <path_to_weights_file> -d GPU
 ```
 
-### Outputs
+## Sample Output
 
 By default the application outputs top-10 inference results for each infer request.
 In addition to this information it will provide throughput value measured in frames per seconds.
 
-### How it works
-
-Upon the start-up the sample application reads command line parameters and loads a network and an image to the Inference 
-Engine plugin. When inference is done, the application creates an 
-output image and outputs data to the standard output stream.
-
-Upon the start-up the sample reads command line parameters and builds a network using Graph Builder API and passed weights file.
-Then, the application loads built network and an image to the Inference Engine plugin.
-
-When inference is done, the application outputs inference results to the standard output stream.
-
 ## See Also
 * [Using Inference Engine Samples](./docs/IE_DG/Samples_Overview.md)