Publishing 2019 R1 content
[platform/upstream/dldt.git] / inference-engine / tools / calibration_tool / configs / ssd_mobilenet_v1_coco.yml
1 models:
2   - name: ssd_mobilenet_v1_coco
3
4     # list of launchers for your topology.
5     launchers:
6         # launcher framework (e.g. caffe, dlsdk)
7       - framework: dlsdk
8         # device for infer (e.g. for dlsdk cpu, gpu, hetero:cpu, gpu ...)
9         device: CPU
10         # topology IR (*.prototxt for caffe, *.xml for InferenceEngine, etc)
11         # path to topology is prefixed with directory, specified in "-m/--models" option
12         tf_model:   ssd_mobilenet_v1_coco.pb
13         # launcher returns raw result, so it should be converted
14         # to an appropriate representation with adapter
15         adapter: ssd
16         cpu_extensions: AUTO
17         mo_params:
18             data_type: FP32
19             tensorflow_use_custom_operations_config: ssd_v2_support.json
20             tensorflow_object_detection_api_pipeline_config: ssd_mobilenet_v1_coco.config
21
22     # metrics, preprocessing and postprocessing are typically dataset specific, so dataset field
23     # specifies data and all other steps required to validate topology
24     # there is typically definitions file, which contains options for common datasets and which is merged
25     # during evaluation, but since "sample_dataset" is not used anywhere else, this config contains full definition
26     datasets:
27       # uniquely distinguishable name for dataset
28       # note that all other steps are specific for this dataset only
29       # if you need to test topology on multiple datasets, you need to specify
30       # every step explicitly for each dataset
31       - name: COCO2017_90cl_bkgr
32
33         # list of metrics, calculated on dataset
34         metrics:
35           - type: map
36             integral: 11point
37             ignore_difficult: True
38             presenter: print_scalar
39
40           - type: coco_precision