Publishing R3
[platform/upstream/dldt.git] / inference-engine / README.md
1 ## Build on Linux\* Systems
2
3 The software was validated on:
4 - Ubuntu\* 16.04 with default GCC\* 5.4.0
5 - CentOS\* 7.4 with default GCC\* 4.8.5 (using clDNN library built separately with GCC\* 5.2)
6 - [Intel® Graphics Compute Runtime for OpenCL™ Driver package 18.28.11080](https://github.com/intel/compute-runtime/releases/tag/18.28.11080).
7
8 ### Software Requirements
9 - [CMake\*](https://cmake.org/download/) 3.9 or higher
10 - GCC\* 4.8 or higher to build the Inference Engine
11 - GCC\* 5.2 or higher to build the Compute Library for Deep Neural Networks (clDNN library)
12 - OpenBLAS\*
13
14 ### Build Steps
15 1. Install OpenBLAS and other dependencies using the `install_dependencies.sh` script in the project root folder.
16 2. Create a build folder:
17 ```sh
18   mkdir build
19 ```
20 3. Inference Engine uses a CMake-based build system. In the created `build` directory, run `cmake` to fetch project dependencies and create Unix makefiles, then run `make` to build the project:
21 ```sh
22   cmake -DCMAKE_BUILD_TYPE=Release ..
23   make -j16
24 ```
25 You can use the following additional build options:
26 - Use `BLAS_INCLUDE_DIRS` and `BLAS_LIBRARIES` cmake options to specify path to OpenBLAS headers and library, for example use the following options on CentOS\*: `-DBLAS_INCLUDE_DIRS=/usr/include/openblas -DBLAS_LIBRARIES=/usr/lib64/libopenblas.so.0`
27 - To build clDNN from sources, please specify the `-DENABLE_CLDNN_BUILD=ON` option for `cmake`. By default pre-built version of the clDNN library is used. 
28 - To switch on/off the CPU and GPU plugins, use `cmake` options `-DENABLE_MKL_DNN=ON/OFF` and `-DENABLE_CLDNN=ON/OFF`.
29
30 ## Build on Windows\* Systems:
31
32 The software was validated on:
33 - Microsoft\* Windows\* 10 with Visual Studio 2017 and Intel® C++ Compiler 2018 Update 3
34 - [Intel® Graphics Driver for Windows* [24.20] driver package](https://downloadcenter.intel.com/download/27803/Graphics-Intel-Graphics-Driver-for-Windows-10?v=t).
35
36 ### Software Requirements
37 - [CMake\*](https://cmake.org/download/) 3.9 or higher
38 - [OpenBLAS\*](https://sourceforge.net/projects/openblas/files/v0.2.14/OpenBLAS-v0.2.14-Win64-int64.zip/download) or 
39 - [Intel® C++ Compiler](https://software.intel.com/en-us/intel-parallel-studio-xe) 18.0 to build the Inference Engine on Windows.
40
41 ### Build Steps
42 1. Download and install [Intel® C++ Compiler](https://software.intel.com/en-us/intel-parallel-studio-xe) 18.0
43 2. Install OpenBLAS:
44     1. Download [OpenBLAS\*](https://sourceforge.net/projects/openblas/files/v0.2.14/OpenBLAS-v0.2.14-Win64-int64.zip/download)
45     2. Unzip the downloaded package to a directory on your machine. In this document, this directory is referred to as `<OPENBLAS_DIR>`.
46 3. Create build directory:
47     ```sh
48     mkdir build
49     ```
50 4. In the `build` directory, run `cmake` to fetch project dependencies and generate a Visual Studio solution:
51 ```sh
52 cd build
53 cmake -G "Visual Studio 15 2017 Win64" -T "Intel C++ Compiler 18.0" -DOS_FOLDER=ON ^
54     -DBLAS_INCLUDE_DIRS=<OPENBLAS_DIR>\include ^
55     -DBLAS_LIBRARIES=<OPENBLAS_DIR>\lib\libopenblas.dll.a ^
56     -DCMAKE_BUILD_TYPE=Release ^
57     -DICCLIB="C:\Program Files (x86)\IntelSWTools\compilers_and_libraries_2018\windows\compiler\lib" ..
58 ```
59
60 5. Build generated solution in Visual Studio 2017 or run `cmake --build .` to build from the command line.
61
62 ---
63 \* Other names and brands may be claimed as the property of others.