Publishing 2019 R1 content
[platform/upstream/dldt.git] / inference-engine / tools / calibration_tool / configs / unet2d.yml
1 models:
2   - name: UNet_2D
3
4     # list of launchers for your topology.
5     launchers:
6         # launcher framework (e.g. caffe, dlsdk)
7       - framework: dlsdk
8         # device for infer (e.g. for dlsdk cpu, gpu, hetero:cpu, gpu ...)
9         device: CPU
10         # topology IR (*.prototxt for caffe, *.xml for InferenceEngine, etc)
11         # path to topology is prefixed with directory, specified in "-m/--models" option
12         model: model.ckpt.xml
13         # topology weights binary (*.caffemodel for caffe, *.bin for InferenceEngine)
14         weights: model.ckpt.bin
15         # launcher returns raw result, so it should be converted
16         # to an appropriate representation with adapter
17         adapter: brain_tumor_segmentation
18         cpu_extensions: AUTO
19
20     # metrics, preprocessing and postprocessing are typically dataset specific, so dataset field
21     # specifies data and all other steps required to validate topology
22     # there is typically definitions file, which contains options for common datasets and which is merged
23     # during evaluation, but since "sample_dataset" is not used anywhere else, this config contains full definition
24     datasets:
25       # uniquely distinguishable name for dataset
26       # note that all other steps are specific for this dataset only
27       # if you need to test topology on multiple datasets, you need to specify
28       # every step explicitly for each dataset
29       - name: brats
30         data_source: Task01_BrainTumour
31         # directory where input images are searched.
32         # prefixed with directory specified in "-s/--source" option
33         # name of converted annotation file (specified in -a option during annotation conversion)
34         # prefixed with directory specified in "-a/--annotations" option
35         annotation: annotations/unet/calibration/brats.pickle
36
37         reader: nifti_reader
38         preprocessing:
39           - type: crop3d
40             size: 128
41           - type: normalize3d
42
43         postprocessing:
44           - type: crop_segmentation_mask
45             apply_to: annotation
46             size: 128
47           - type: clip_segmentation_mask
48             apply_to: annotation
49             max_value: 1
50
51         # list of metrics, calculated on dataset
52         metrics:
53           - type: dice
54             presenter: return_value