Publishing R3
[platform/upstream/dldt.git] / inference-engine / src / extension / README.md
1 CPU Extensions {#CPUExtensions}
2 ===========================
3
4 ## Introducing CPU Extensions
5
6 The CPU extensions library contains code of important layers that do not come with the [CPU plugin](@ref PluginCPU).
7 You should compile this library and use the <code>AddExtension</code> method in your application to load the extensions when for models featuring layers from this library.
8 Refer to other samples for <code>AddExtension</code> code examples.
9
10 When you compile the entire list of the samples, this library (it's target name is "cpu_extension)" is compiled automatically.
11
12 For performance reasons, the library's cmake script automatically detects configuration of your machine and enables optimizations for your platform.
13 Alternatively, you can explicitly use special cmake flags: <code>-DENABLE_AVX2=ON</code>, <code>-DENABLE_AVX512F=ON</code> or <code>-DENABLE_SSE42=ON</code>
14 when cross-compiling this library for another platform.
15
16 ## List of layers that come within the library
17
18  * ArgMax
19  * CTCGreedyDecoder
20  * DetectionOutput
21  * GRN
22  * Interp
23  * MVN
24  * Normalize
25  * PowerFile
26  * PReLU
27  * PriorBox
28  * PriorBoxClustered
29  * Proposal
30  * PSROIPooling
31  * Region Yolo
32  * Reorg Yolo
33  * Resample
34  * SimplerNMS
35  * SpatialTransformer
36
37 In order to add a new layer, you can use [the extensibility mechanism](@ref InferenceEngineExtensibility).
38
39 ## See Also
40 * [CPU](@ref PluginCPU)
41 * [Supported Devices](@ref SupportedPlugins)