[IE CLDNN] Cleanup cldnn source tree and README (#3043)
authorVladimir Paramuzov <vladimir.paramuzov@intel.com>
Fri, 13 Nov 2020 06:29:28 +0000 (09:29 +0300)
committerGitHub <noreply@github.com>
Fri, 13 Nov 2020 06:29:28 +0000 (09:29 +0300)
19 files changed:
inference-engine/thirdparty/clDNN/.clang-format [deleted file]
inference-engine/thirdparty/clDNN/.gitignore [deleted file]
inference-engine/thirdparty/clDNN/CMakeLists.txt
inference-engine/thirdparty/clDNN/README.md
inference-engine/thirdparty/clDNN/api/cldnn.hpp
inference-engine/thirdparty/clDNN/create_msvc_mscc.bat [deleted file]
inference-engine/thirdparty/clDNN/create_msvc_mscc_vs17.bat [deleted file]
inference-engine/thirdparty/clDNN/create_unixmake_gcc.sh [deleted file]
inference-engine/thirdparty/clDNN/kernel_selector/core/kernel_selector_params.h
inference-engine/thirdparty/clDNN/src/cldnn.cpp [deleted file]
inference-engine/thirdparty/clDNN/src/gpu/cache/cache_types.h [deleted file]
inference-engine/thirdparty/clDNN/src/gpu/cache/common_types.h [deleted file]
inference-engine/thirdparty/clDNN/src/gpu/cache/kernels/pooling_gpu_bfyx_average_opt.cl [deleted file]
inference-engine/thirdparty/clDNN/src/gpu/cache/manager_types.h [deleted file]
inference-engine/thirdparty/clDNN/src/include/kernel_selector_helper.h
inference-engine/thirdparty/clDNN/src/kernel_selector_helper.cpp
inference-engine/thirdparty/clDNN/utils/build/cmake/modules/BuildExternalProject.cmake [deleted file]
inference-engine/thirdparty/clDNN/utils/codegen/generate_api_wrappers.py [deleted file]
inference-engine/thirdparty/clDNN/version.json [deleted file]

diff --git a/inference-engine/thirdparty/clDNN/.clang-format b/inference-engine/thirdparty/clDNN/.clang-format
deleted file mode 100644 (file)
index b500123..0000000
+++ /dev/null
@@ -1,20 +0,0 @@
----
-BasedOnStyle: Google
-SortIncludes: false
-MaxEmptyLinesToKeep: 1
-IndentWidth: 4
-TabWidth: 4
-AccessModifierOffset: -4
-UseTab: 'Never'
-ColumnLimit: 120
-ConstructorInitializerAllOnOneLineOrOnePerLine: true
-AllowAllArgumentsOnNextLine: false
-AllowAllParametersOfDeclarationOnNextLine: false
-AllowAllConstructorInitializersOnNextLine: true
-CommentPragmas: '^/'
-AllowShortBlocksOnASingleLine: false
-AllowShortCaseLabelsOnASingleLine: false
-AllowShortIfStatementsOnASingleLine: false
-BinPackParameters: false
-BinPackArguments: false
-...
diff --git a/inference-engine/thirdparty/clDNN/.gitignore b/inference-engine/thirdparty/clDNN/.gitignore
deleted file mode 100644 (file)
index 8359a8c..0000000
+++ /dev/null
@@ -1,7 +0,0 @@
-build/*
-*.pyc
-*~
-UnixMk
-**/.idea/*
-src/caps/private/*.inc
-/examples/utils/venv
index 4b444ec..53f6100 100644 (file)
@@ -55,7 +55,6 @@ endif()
 # The section must be after project definition and its supported languages because otherwise
 # used variables are not available yet.
 
-#intel_custom_build_add("<custom config>" "Release") # No custom configuration at the momeent.
 # Populating global property with list of debug configurations.
 set_property(GLOBAL PROPERTY DEBUG_CONFIGURATIONS "Debug")
 # Use solution folders.
@@ -128,9 +127,6 @@ set(CLDNN__CODEGEN_DIR     "${CLDNN__CODEGEN_BASEDIR}/${CLDNN__TARGET_CFG_VAR}")
 # (to support "copy-if-different" optimization).
 set(CLDNN__CODEGEN_INCDIR  "${CLDNN__CODEGEN_DIR}/include")
 
-# Version file.
-set(CLDNN__VERSION_FILE_NAME "${CLDNN__MAIN_DIR}/version.json")
-
 # ======================================================================================================
 # ======================================================================================================
 # ======================================================================================================
@@ -575,70 +571,6 @@ unset(__CLDNN_IOclIcdVersionIdx)
 set(CLDNN_UTILS__RAPIDJSON_INCDIRS "utils/rapidjson" CACHE INTERNAL "Paths to interface headers for rapidjson.")
 # ====================================== Version Calculation ===========================================
 
-if(EXISTS "${CLDNN__VERSION_FILE_NAME}")
-  file(READ "${CLDNN__VERSION_FILE_NAME}" __CLDNN_VersionFileContent)
-
-  # Extracting JSON object with version.
-  set(__CLDNN_VersionJsonObject "")
-  if("${__CLDNN_VersionFileContent}" MATCHES "\\\"version\\\"[ \t\n\r]*:[ \t\n\r]*\\{[ \t\n\r]*(.*)[ \t\n\r]*\\}")
-    set(__CLDNN_VersionJsonObject "${CMAKE_MATCH_1}")
-  endif()
-
-  # Extracting field values.
-  set(__CLDNN_VersionJsonMajor   "0")
-  set(__CLDNN_VersionJsonMinor   "-1")
-  set(__CLDNN_VersionJsonBuild   "-1")
-  set(__CLDNN_VersionJsonRevBase "0")
-  set(__CLDNN_VersionJsonRevMin  "-1")
-  if("${__CLDNN_VersionJsonObject}" MATCHES "\\\"major\\\"[ \t\n\r]*:[ \t\n\r]*([-+]?[0-9]+)[ \t\n\r#,}]")
-    set(__CLDNN_VersionJsonMajor "${CMAKE_MATCH_1}")
-  endif()
-  if("${__CLDNN_VersionJsonObject}" MATCHES "\\\"minor\\\"[ \t\n\r]*:[ \t\n\r]*([-+]?[0-9]+)[ \t\n\r#,}]")
-    set(__CLDNN_VersionJsonMinor "${CMAKE_MATCH_1}")
-  endif()
-  if("${__CLDNN_VersionJsonObject}" MATCHES "\\\"build\\\"[ \t\n\r]*:[ \t\n\r]*([-+]?[0-9]+)[ \t\n\r#,}]")
-    set(__CLDNN_VersionJsonBuild "${CMAKE_MATCH_1}")
-  endif()
-  if("${__CLDNN_VersionJsonObject}" MATCHES "\\\"revision_base\\\"[ \t\n\r]*:[ \t\n\r]*([-+]?[0-9]+)[ \t\n\r#,}]")
-    set(__CLDNN_VersionJsonRevBase "${CMAKE_MATCH_1}")
-  endif()
-  if("${__CLDNN_VersionJsonObject}" MATCHES "\\\"revision_min\\\"[ \t\n\r]*:[ \t\n\r]*([-+]?[0-9]+)[ \t\n\r#,}]")
-    set(__CLDNN_VersionJsonRevMin "${CMAKE_MATCH_1}")
-  endif()
-
-  # Fetching revision identifier (first from env. variable, next from CMake variable).
-  if(DEFINED "ENV{CLDNN__REV_ID}")
-    set(__CLDNN_VersionRevId "$ENV{CLDNN__REV_ID}")
-  elseif(DEFINED CLDNN__REV_ID)
-    set(__CLDNN_VersionRevId "${CLDNN__REV_ID}")
-  else()
-    set(__CLDNN_VersionRevId "0")
-  endif()
-
-  # Calculating version components (WA for lack of support for unary operators in CMake math()).
-  math(EXPR CLDNN__VERSION_MAJOR    "(0${__CLDNN_VersionJsonMajor})")
-  math(EXPR CLDNN__VERSION_MINOR    "(0${__CLDNN_VersionJsonMinor})")
-  math(EXPR CLDNN__VERSION_BUILD    "(0${__CLDNN_VersionJsonBuild})")
-  math(EXPR CLDNN__VERSION_REVISION "(0${__CLDNN_VersionRevId})-(0${__CLDNN_VersionJsonRevBase})")
-  math(EXPR __CLDNN_VersionJsonRevMin "(0${__CLDNN_VersionJsonRevMin})")
-  if("${CLDNN__VERSION_REVISION}" LESS "${__CLDNN_VersionJsonRevMin}")
-    set(CLDNN__VERSION_REVISION "${__CLDNN_VersionJsonRevMin}")
-  endif()
-
-  unset(__CLDNN_VersionFileContent)
-  unset(__CLDNN_VersionJsonObject)
-  unset(__CLDNN_VersionJsonMajor)
-  unset(__CLDNN_VersionJsonMinor)
-  unset(__CLDNN_VersionJsonBuild)
-  unset(__CLDNN_VersionJsonRevBase)
-  unset(__CLDNN_VersionJsonRevMin)
-else()
-  set(CLDNN__VERSION_MAJOR    "0")
-  set(CLDNN__VERSION_MINOR    "-1")
-  set(CLDNN__VERSION_BUILD    "-1")
-  set(CLDNN__VERSION_REVISION "-1")
-endif()
-
 # ============================================= Status =================================================
 
 # Display status.
index a36f977..da3b6d0 100644 (file)
@@ -8,14 +8,7 @@ library for Deep Learning (DL) applications intended for acceleration of
 DL Inference on Intel® Processor Graphics – including HD Graphics and
 Iris® Graphics.
 *clDNN* includes highly optimized building blocks for implementation of
-convolutional neural networks (CNN) with C and C++ interfaces. We created
-this project to enable the DL community to innovate on Intel® processors.
-
-**Usages supported:** Image recognition, image detection, and image segmentation.
-
-**Validated Topologies:** AlexNet\*, VGG(16,19)\*, GoogleNet(v1,v2,v3)\*, ResNet(50,101,152)\* Faster R-CNN\*, Squeezenet\*, SSD_googlenet\*, SSD_VGG\*, PVANET\*, PVANET_REID\*, age_gender\*, FCN\* and yolo\*.
-
-As with any technical preview, APIs may change in future updates.
+convolutional neural networks (CNN) with C++ interface.
 
 ## License
 clDNN is licensed is licensed under
@@ -28,352 +21,29 @@ clDNN uses 3<sup>rd</sup>-party components licensed under following licenses:
 - *RapidJSON* under [Tencent\* License](https://github.com/Tencent/rapidjson/blob/master/license.txt)
 
 ## Documentation
-The latest clDNN documentation is at [GitHub pages](https://intel.github.io/clDNN/index.html).
-
-There is also inline documentation available that can be [generated with Doxygen](#generating-documentation).
+There is inline documentation available that can be [generated with Doxygen](#generating-documentation).
 
 Accelerate Deep Learning Inference with Intel® Processor Graphics whitepaper [link](https://software.intel.com/en-us/articles/accelerating-deep-learning-inference-with-intel-processor-graphics).
 
-## Intel® OpenVino™ Toolkit and clDNN
-
-clDNN is released also together with Intel® OpenVino™ Toolkit, which contains:
-- *Model Optimizer* a Python*-based command line tool, which imports trained models from popular deep learning frameworks such as Caffe*, TensorFlow*, and Apache MXNet*.
-- *Inference Engine* an execution engine which uses a common API to deliver inference solutions on the platform of your choice (for example GPU with clDNN library)
-
-You can find more information [here](https://software.intel.com/en-us/openvino-toolkit/deep-learning-cv).
-
-## OpenVINO specific changes
-    New features:
-    - added `not` activation type
-    - added `depth_to_space` layer
-    - new clip options in `detection_output` (cpu impl) and `proposal` layers
-    - added eltwise `xor` and `squared_diff` operations
-    - added `gather` layer
-    - added `bilinear` mode for position sensitive `roi_pooling` layer
-    - added `shuffle_channels` layer
-    - added `strided_slice` layer
-    - added IE gates ordering for lstm layer
-    - added `reverse_sequence` layer
-    - added initial binarization support: binary_convolution, quantize and binary reorder primitives
-    Bug fixes:
-    - fixed unknown bool type error in C API
-    - fixed non-relu activation fusing with conv_eltwise node
-    - fixed infinite performance regression on several topologies
-    - minor internal fixes
-    - unified the permute order with cldnn's tensor order
-    Other:
-    - removed boost
-    - supported compilation with c++11 only
-
-
-## Changelog
-
-### Drop 14.0
-    New features:
-    - 3 spatial dimensions support in convolution primitive (3D convolution)
-    - reverse primitive
-    - arg_max_min support for i8/s8/i32/i64 types
-    - concatenation support for bfzyx (5D) format
-    Bug fixes:
-    - fixes in primitive fusing pass (for i8/s8 types)
-    - fixes in graph optimizer (reshape primitive)
-    - overflow/underflow fixes for eltwise (i8/s8)
-    - fixes for convolution-eltwise primitive
-    - fixes for convolution primitive (depth-wise case)
-    - perf fixes for events pool
-    - fixes for pooling primitive (u8)
-    - fixes for deconvolution primitive
-    - fixes for fc primitive
-    - fixes for batch_norm primitive
-    UX:
-    - refactored and cleaned up JIT constants generation mechanism
-    - refactored kernel selection mechanism
-    - removed legacy device info mechanism
-    Performance:
-    - convolution primitive optimizations (for byxf, for MMAD-based, for byxf fp16, for bfyx fp16)
-    - fc primitive optimizations (for byxf)
-    - pooling primitive optimizations (for byxf, bfyx)
-    - convolution-relu primitive fusing (i8 -> s8 case)
-    - eltwise primitive optimizations (for byxf)
-    - fused convolution-eltwise primitive optimizations (IMAD-based)
-    - block-based optimizations for fp16 primitives
-
-### Drop 13.1
-    New features:
-    - added max mode for contract primitive
-    - added one_hot primitive
-    - optional explicit output data type support for all primitives
-    Bug fixes:
-    - fix for graph optimizer (crop primitive)
-    - fix for processing order (deconvolution primitive)
-    - fix for convolution-eltwise primitive
-    UX:
-    - cache.json is searched in to library directory
-    Performance:
-    - optimizations for lstm_gemm primitive
-
-### Drop 13.0
-    New features:
-    - events pool
-    - group support in convolution and deconvolution primitives
-    - broadcastable inputs support for eltwise primitive
-    - asymmetric padding for convolution primitive
-    - fused convolution-eltwise primitive (API extension)
-    - auto-calculated output shape support for reshape primitive
-    - crop support for i8/s8/i32/i64 types
-    - broadcast axis support for broadcast primitive
-    - logic and comparison operations support for eltwise primitive
-    Bug fixes:
-    - added required alignment checks for some fc implementations
-    - added lstm support for f16 (half) type
-    - reorders for fc moved to graph compiler
-    - primitive fusing and reorder fixes
-    UX:
-    - added internal core tests project
-    - refactored optimizations pass manager and passes
-    Performance:
-    - optimized concatenation during upsampling (unpool)
-    - IMAD-based optimizations for convolution, fc, eltwise and pooling primitives (i8/s8)
-    - convolution-eltwise fusing optimizations
-    - partial writes optimizations for block-based kernels
-
-### Drop 12.1
-       - gtests code refactor
-       - buildbreak fix
-
-### Drop 12.0
-    New features:
-    - pyramidRoiAlign primitive
-    - multiple axes support for reverse mode in index_select
-    - eltwise min/max/mod support for i8/i32/i64
-    - broadcast support for i32/i64
-    Bug fixes:
-    - memory leak fixes
-    - in-place reshape
-    - no padding for output primitives
-    UX:
-    - RapidJSON library for auto-tune cache
-    - less dependencies in program.cpp
-    - do not throw error, when device not validated
-    - global pooling in c API
-    - optimized padding for convolution
-
-### Drop 11.0
-    New features:
-    - throttle hints
-    - extended border and tile
-    - GPU implementation of Detection Output
-       - More cases for BatchNorm primitive
-    Bug fixes:
-    - GEMM fix (align with ONNX)
-       - memory leak fix in memory pool
-       - increase FC precision for fp16 (fp32 accu)
-    Performance:
-    - cache for new topologies and devices
-    - conv1x1 with stride >1 into eltwise optimization
-
-### Drop 10.0
-    New features:
-    - condition primitive
-    - fused convolution with bn and scale (backprop)
-    - scale/shit and mean/var as an output in batch norm
-    - add LSTM output selection
-    Bug fixes:
-    - memory pool fixes
-    UX:
-    - downgrade to cxx11
-    - add support for u8 data type in custom primitive
-    - library size optimizations
-    Performance:
-    - in place concatenation optimization
-    - conv1x1 with stride >1 into eltwise optimization
-
-### Drop 9.2
-       New features
-       - local convolution
-       - eltwise with strie
-
-### Drop 9.1
-    New features:
-    - select index primitive
-       - gemm primitive
-    Bug fixes:
-    - fix for output format in fully connected primitive
-
-### Drop 9.0
-    New features:
-    - log2 activation function
-    - support for i32 and i64 types
-    - select primitive
-       - border primitive
-       - tile primitive
-    Bug fixes:
-    - dilation > input size fix
-
-### Drop 8.0
-    New features:
-    - lstm primitive
-    - average unpooling primitive
-    - serialization - dump weights, biases and kernels
-    - scale grad for input and weights primitive
-    Bug fixes:
-    - wrong gws in concatenation
-    - int8 layers
-    - convolution depthwise bias concatenation
-    - params in engine_info
-    - mutable_data filler
-    - momentum calculation
-    UX:
-    - kernel selector renaming
-    - bfyx_yxfb batched reorder
-    - code cleanups
-    - primitives allocation order
-
-### Drop 7.0
-    New features:
-    - support for img_info=4 in proposal_gpu
-    - support images format in winograd
-    - support for 2 or more inputs in eltwise
-    - priority and throttle hints
-    - deconvolution_grad_input primitive
-    - fc_grad_input and fc_grad_weights primitives
-    Bug fixes:
-    - tensor fixes (i.e. less operator fix)
-    - cascade concat fixes
-    - winograd fixes for bfyx format
-    - auto-tuning fixes for weights calculation
-    UX:
-    - memory pool (reusing memory buffers)
-    - added choosen kernel name in graph dump
-    - flush memory functionality
-    Performance:
-    - graph optimizations
-    - depth-concatenation with fused relu optimization
-    - winograd optimizations
-    - deconvolution optimizations (i.e bfyx opt)
-
-### Drop 6.0
-       New features:
-       - fused winograd
-       - image support for weights
-       - yolo_region primitive support
-       - yolo_reorg primitive support
-       Bug fixes:
-       - winograd bias fix
-       - mean subtract fix
-       UX:
-       - extend graph dumps
-       Performance:
-       - update offline caches for newer drivers
-       - conv1x1 byxf optimization
-       - conv1x1 with images
-       - cascade depth concatenation fuse optimization
-
-### Drop 5.0
-       New features:
-       - split primitive
-       - upsampling primitive
-       - add preliminary Coffe Lake support
-       - uint8 weights support
-       - versioning
-       - offline autotuner cache
-       - Winograd phase 1 - not used yet
-       Bug fixes:
-       - in-place crop optimization bug fix
-       - output spatial padding in yxfb kernels fix
-       - local work sizes fix in softmax
-       - underflow fix in batch normalization
-       - average pooling corner case fix
-       UX:
-       - graph logger, dumps graphwiz format files
-       - extended documentation with API diagram and graph compilation steps
-       Performance:
-       - softmax optimization
-       - lrn within channel optimization
-       - priorbox optimization
-       - constant propagation
-
-### Drop 4.0
-       New features:
-       - OOOQ execution model implementation
-       - depthwise separable convolution implementation
-       - kernel auto-tuner implementation
-       Bug fixes:
-       - dump hidden layer fix
-       - run single layer fix
-       - reshape fix
-       UX:
-       - enable RTTI
-       - better error handling/reporting
-       Performance:
-       - lrn optimization
-       - dynamic pruning for sparse fc layers
-       - reorder optimization
-       - concatenation optimization
-       - eltwise optimization
-       - activation fusing
-
-### Drop 3.0
-       Added:
-       - kernel selector
-       - custom layer
-       Changed:
-       - performance improvments
-       - bug fixes (deconvolution, softmax, reshape)
-       - apply fixes from community reported issues
-
-### Drop 2.0
-       Added:
-       - step by step tutorial
-       Changed:
-       - perfomance optimization for: softmax, fully connected, eltwise, reshape
-       - bug fixes (conformance)
-
-### Drop 1.0
-       - initial drop of clDNN
-
 ## Support
 Please report issues and suggestions
-[GitHub issues](https://github.com/01org/cldnn/issues).
+[GitHub issues](https://github.com/openvinotoolkit/openvino/issues).
 
 ## How to Contribute
 We welcome community contributions to clDNN. If you have an idea how to improve the library:
 
 - Share your proposal via
- [GitHub issues](https://github.com/01org/cldnn/issues)
+ [GitHub issues](https://github.com/openvinotoolkit/openvino/issues)
 - Ensure you can build the product and run all the examples with your patch
 - In the case of a larger feature, create a test
-- Submit a [pull request](https://github.com/01org/cldnn/pulls)
+- Submit a [pull request](https://github.com/openvinotoolkit/openvino/pulls)
 
 We will review your contribution and, if any additional fixes or modifications
 are necessary, may provide feedback to guide you. When accepted, your pull
-request will be merged into our internal and GitHub repositories.
+request will be merged into our GitHub repository.
 
 ## System Requirements
-clDNN supports Intel® HD Graphics and Intel® Iris® Graphics and is optimized for
-- Codename *Skylake*:
-    * Intel® HD Graphics 510 (GT1, *client* market)
-    * Intel® HD Graphics 515 (GT2, *client* market)
-    * Intel® HD Graphics 520 (GT2, *client* market)
-    * Intel® HD Graphics 530 (GT2, *client* market)
-    * Intel® Iris® Graphics 540 (GT3e, *client* market)
-    * Intel® Iris® Graphics 550 (GT3e, *client* market)
-    * Intel® Iris® Pro Graphics 580 (GT4e, *client* market)
-    * Intel® HD Graphics P530 (GT2, *server* market)
-    * Intel® Iris® Pro Graphics P555 (GT3e, *server* market)
-    * Intel® Iris® Pro Graphics P580 (GT4e, *server* market)
-- Codename *Apollolake*:
-    * Intel® HD Graphics 500
-    * Intel® HD Graphics 505
-- Codename *Kabylake*:
-    * Intel® HD Graphics 610 (GT1, *client* market)
-       * Intel® HD Graphics 615 (GT2, *client* market)
-    * Intel® HD Graphics 620 (GT2, *client* market)
-       * Intel® HD Graphics 630 (GT2, *client* market)
-    * Intel® Iris® Graphics 640 (GT3e, *client* market)
-    * Intel® Iris® Graphics 650 (GT3e, *client* market)
-    * Intel® HD Graphics P630 (GT2, *server* market)
-    * Intel® Iris® Pro Graphics 630 (GT2, *server* market)
+clDNN supports Intel® HD Graphics and Intel® Iris® Graphics and is optimized for Gen9-Gen12LP architectures
 
 clDNN currently uses OpenCL™ with multiple Intel® OpenCL™ extensions and requires Intel® Graphics Driver to run.
 
@@ -398,92 +68,6 @@ The software dependencies are:
 > [GraphViz\*](http://www.graphviz.org/Download..php) (2.38 or later) is also recommended to generate documentation with all embedded diagrams.
 (Make sure that `dot` application is visible in the `PATH` environment variable.)
 
----
-
-- The software was validated on:
-    * CentOS* 7.2 with GNU* Compiler Collection 5.2 (64-bit only), using [Intel® Graphics Compute Runtime for OpenCL(TM)](https://software.intel.com/en-us/articles/opencl-drivers) .
-    * Windows® 10 and Windows® Server 2012 R2 with MSVC 14.0, using [Intel® Graphics Driver for Windows* [24.20] driver package](https://downloadcenter.intel.com/download/27803/Graphics-Intel-Graphics-Driver-for-Windows-10?v=t).
-
-       More information on Intel® OpenCL™ drivers can be found [here](https://software.intel.com/en-us/articles/opencl-drivers).
-
-We recommend to use latest for Linux [link](https://github.com/intel/compute-runtime/releases) and 24.20 driver for Windows [link](https://downloadcenter.intel.com/download/27803/Graphics-Intel-Graphics-Driver-for-Windows-10?v=t).
-
-## Installation
-
-### Building
-
-Download [clDNN source code](https://github.com/01org/cldnn/archive/master.zip)
-or clone the repository to your system:
-
-```
-    git clone  https://github.com/intel/cldnn.git
-```
-
-Satisfy all software dependencies and ensure that the versions are correct before building.
-
-clDNN uses multiple 3<sup>rd</sup>-party components. They are stored in binary form in `common` subdirectory. Currently they are prepared for MSVC++ and GCC\*. They will be cloned with repository.
-
----
-
-clDNN uses a CMake-based build system. You can use CMake command-line tool or CMake GUI (`cmake-gui`) to generate required solution.
-For Windows system, you can call in `cmd` (or `powershell`):
-```shellscript
-    @REM Generate 32-bit solution (solution contains multiple build configurations)...
-    cmake -E make_directory build && cd build && cmake -G "Visual Studio 14 2015" ..
-    @REM Generate 64-bit solution (solution contains multiple build configurations)...
-    cmake -E make_directory build && cd build && cmake -G "Visual Studio 14 2015 Win64" ..
-```
-Created solution can be opened in Visual Studio 2015 or built using appropriate `msbuild` tool
-(you can also use `cmake --build .` to select build tool automatically).
-
-For Unix and Linux systems:
-```shellscript
-    @REM Create GNU makefile for release clDNN and build it...
-    cmake -E make_directory build && cd build && cmake -DCMAKE_BUILD_TYPE=Release .. && make
-    @REM Create Ninja makefile for debug clDNN and build it...
-    cmake -E make_directory build && cd build && cmake -G Ninja -DCMAKE_BUILD_TYPE=Debug .. && ninja -k 20
-```
-
-You can call also scripts in main directory of project which will create solutions/makefiles for clDNN (they
-will generate solutions/makefiles in `build` subdirectory and binary outputs will be written to `build/out` subdirectory):
-- `create_msvc_mscc.bat` (Windows\*, Visual Studio\* 2015)
-- `create_unixmake_gcc.sh [Y|N] [<devtoolset-version>]` (Linux\*, GNU\* or Ninja\* makefiles, optional devtoolset support)
-    * If you specify the first parameter as `Y`, the Ninja makefiles will be generated.
-    * If you specify second parameter (number), the CMake will be called via `scl` with selected `devtoolset` version.
-
-CMake solution offers multiple options which you can specify using normal CMake syntax (`-D<option-name>=<value>`):
-
-| CMake option                              | Type     | Description                                                                  |
-|:------------------------------------------|:---------|:-----------------------------------------------------------------------------|
-| CMAKE\_BUILD\_TYPE                        | STRING   | Build configuration that will be used by generated makefiles (it does not affect multi-configuration generators like generators for Visual Studio solutions). Currently supported: `Debug` (default), `Release` |
-| CMAKE\_INSTALL\_PREFIX                    | PATH     | Install directory prefix.                                                    |
-| CLDNN\_\_ARCHITECTURE\_TARGET             | STRING   | Architecture of target system (where binary output will be deployed). CMake will try to detect it automatically (based on selected generator type, host OS and compiler properties). Specify this option only if CMake has problem with detection. Currently supported: `Windows32`, `Windows64`, `Linux64` |
-| CLDNN\_\_OUTPUT\_DIR (CLDNN\_\_OUTPUT\_BIN\_DIR, CLDNN\_\_OUTPUT\_LIB\_DIR) | PATH | Location where built artifacts will be written to. It is set automatically to roughly `build/out/<arch-target>/<build-type>` subdirectory. For more control use: `CLDNN__OUTPUT_LIB_DIR` (specifies output path for static libraries) or `CLDNN__OUTPUT_BIN_DIR` (for shared libs and executables). |
-|                                           |          |                                                                              |
-| **CMake advanced option**                 | **Type** | **Description**                                                              |
-| PYTHON\_EXECUTABLE                        | FILEPATH | Path to Python interpreter. CMake will try to detect Python. Specify this option only if CMake has problem with locating Python. |
-| CLDNN\_\_IOCL\_ICD\_USE\_EXTERNAL         | BOOL     | Use this option to enable use of external Intel® OpenCL™ SDK as a source for ICD binaries and headers (based on `INTELOCLSDKROOT` environment variable). Default: `OFF` |
-| CLDNN\_\_IOCL\_ICD\_VERSION               | STRING   | Version of Intel® OpenCL™ ICD binaries and headers to use (from `common` subdirectory). It is automatically setected by CMake (highest version). Specify, if you have multiple versions and want to use different than automatically selected. |
-|                                           |          |                                                                              |
-| CLDNN__COMPILE_LINK_ALLOW_UNSAFE_SIZE_OPT | BOOL     | Allow unsafe optimizations during linking (like aggressive dead code elimination, etc.). Default: `ON` |
-| CLDNN__COMPILE_LINK_USE_STATIC_RUNTIME    | BOOL     | Link with static C++ runtime. Default: `OFF` (shared C++ runtime is used)    |
-|                                           |          |                                                                              |
-| CLDNN__INCLUDE_CORE                       | BOOL     | Include core clDNN library project in generated makefiles/solutions. Default: `ON` |
-| CLDNN__INCLUDE_TESTS                      | BOOL     | Include tests application project (based on googletest framework) in generated makefiles/solutions . Default: `ON` |
-|                                           |          |                                                                              |
-| CLDNN__RUN_TESTS                          | BOOL     | Run tests after building `tests` project. This option requires `CLDNN__INCLUDE_TESTS` option to be `ON`. Default: `OFF` |
-|                                           |          |                                                                              |
-| CLDNN__CMAKE_DEBUG                        | BOOL     | Enable extended debug messages in CMake. Default: `OFF`                      |
-
----
-
-clDNN includes unit tests implemented using the googletest framework. To validate your build, run `tests` target, e.g.:
-
-```
-    make tests
-```
-
-(Make sure that both `CLDNN__INCLUDE_TESTS` and `CLDNN__RUN_TESTS` were set to `ON` when invoking CMake.)
 
 ### Generating documentation
 
@@ -503,15 +87,7 @@ There is also custom CMake target named `docs` which will generate documentation
 ```
 in order to create it.
 
-### Deployment
-
-Special `install` target will place the API header files and libraries in `/usr/local`
-(`C:/Program Files/clDNN` or `C:/Program Files (x86)/clDNN` on Windows). To change
-the installation path, use the option `-DCMAKE_INSTALL_PREFIX=<prefix>` when invoking CMake.
-
----
-
 
 \* Other names and brands may be claimed as the property of others.
 
-Copyright © 2017, Intel® Corporation
+Copyright © 2020, Intel® Corporation
index e8e4b76..7130d0e 100644 (file)
@@ -1,5 +1,5 @@
 /*
-// Copyright (c) 2016-2019 Intel Corporation
+// Copyright (c) 2016-2020 Intel Corporation
 //
 // Licensed under the Apache License, Version 2.0 (the "License");
 // you may not use this file except in compliance with the License.
 *  - Detection output
 *
 *  With this primitive set, user can build and execute most common image recognition, semantic segmentation and object detection networks topologies like:
-*   - Alexnet 
+*   - Alexnet
 *   - Googlenet(v1-v3)
 *   - ResNet
 *   - VGG
-*   - faster-rCNN 
+*   - faster-rCNN
 * and other.
-*  
+*
 *
 * @section model Programming Model
-*  Intel&reg; clDNN is graph oriented library. To execute CNN you have to build, compile graph/topology and run to get results. 
-*  
+*  Intel&reg; clDNN is graph oriented library. To execute CNN you have to build, compile graph/topology and run to get results.
+*
 *  <B> Terminology: </B>
-*  - Primitive - dnn base functionality i.e. convolution, pooling, softmax. 
+*  - Primitive - dnn base functionality i.e. convolution, pooling, softmax.
 *  - Data - special primitive type representing primitive parameters (weights and biases), inputs and outputs
-*  - Engine - type of accelerator that is executing network. Currently ocl engine is the only available. 
-*  - Topology - container of primitives, data, and relations between them. Topology represents graph. 
+*  - Engine - type of accelerator that is executing network. Currently ocl engine is the only available.
+*  - Topology - container of primitives, data, and relations between them. Topology represents graph.
 *  - Program - optional step between Topology and Network. It is compiled Topology without memory allocation.
 *  - Network - compiled Topology with memory allocation. Ready to be executed. During compilation, buidling parameters trigger special optimizations like fusing, data reordering.
 *
@@ -78,7 +78,7 @@
 * -# Create topology
 * -# Add primitives to topology
 * -# Build Network from topology
-* -# Set Inputs data 
+* -# Set Inputs data
 * -# Execute Network
 *
 *
@@ -87,8 +87,8 @@
 * If user choose build option optimize_data when program is being created - explicit or implicit over network creation, clDNN perform some graph optimizations as follows:
 * * <B> Stage 0: Graph initiation:</B>
 *  * build nodes from primitives
-*  * node replacement: 
-*   * replace each split node with series of crop nodes. Name of crop primitive will be concatenation of split + port names. 
+*  * node replacement:
+*   * replace each split node with series of crop nodes. Name of crop primitive will be concatenation of split + port names.
 *   * replace upsampling node with deconvolution node if upsampling mode is bilinear.
 *  * set outputs - mark nodes that are defined by user as output (blocks fusing etc) or have no users (leafs).
 *  * calculate processing order - using dfs on graph to establish processing order
 *  * mark constatns
 *  * mark data flow
 * * <B> Stage 3: Trimming:</B>
-*  * apply backward bfs on each output to find unnecessary nodes/branches, then remove those. 
+*  * apply backward bfs on each output to find unnecessary nodes/branches, then remove those.
 * * <B> Stage 4: Inputs and biases:</B>
-*  * reorder input - format of convolution's input/output is being selected. 
+*  * reorder input - format of convolution's input/output is being selected.
 *  * reorder biases for conv,fc and deconv nodes
 * * <B> Stage 5: Redundant reorders:</B>
-*  * previous stages can provide additional reorders due to format changes per primitive. This stage removes redundant and fuses series of reorders into one.  
+*  * previous stages can provide additional reorders due to format changes per primitive. This stage removes redundant and fuses series of reorders into one.
 * * <B> Stage 6: Constant propagation:</B>
 *  * prepare padding - goes thrugh all primitves and checks if its user requires padding, if so, set output padding.
 *  * prepare depthwise separable opt - if split param is greater than 16 and number of IFM <= 8*split in conv or deconv, this stage changes execution from multi kernels into one.
 *  * constant propagation - replace constant nodes, that are not outputs with data type nodes. Constant primitive is the primitive that doesn't depend on any non-constant primitive and doesn't have to be executed: priorbox, data.
 * * <B> Stage 7: Fusing:</B>
 *  * buffer fusing
-*   * concat - if concatenation is the only user of its dependencies then remove concat node and setting proper output paddings in every dependencies. 
+*   * concat - if concatenation is the only user of its dependencies then remove concat node and setting proper output paddings in every dependencies.
 *   * crop - if crop has only one dependecy, and its users doesn't require padding, remove crop and set proper output padding in its dependecy.
 *   * reorder - if primitive before reorder supports different input vs output type reorder can be fused with previous node.
-*  * primitive fusing - right now this stage fuses activation node with previous node only, only if previous node supports activation fusing. 
+*  * primitive fusing - right now this stage fuses activation node with previous node only, only if previous node supports activation fusing.
 * * <B> Stage 8: Compile graph:</B>
 *  * at this stage using kernel selector, graph chooses the best kernel implementation for each node.
 * * <B> Stage 9: reorder weights:</B>
 * * <B> Stage 10 & 11: Redundant reorders and constant propagation:</B>
 *  * check again if whole graph compilation didn't provide any redundant reorders and constants.
 * * <B> Stage 12: Compile program:</B>
-*  * at this stage engine compiles cl_kernels. 
+*  * at this stage engine compiles cl_kernels.
 *
 * @section example C++ API Example MNIST network
 * @include example_cldnn.cpp
@@ -141,22 +141,6 @@ namespace cldnn {
 /// @addtogroup cpp_api C++ API
 /// @{
 
-/// @defgroup cpp_version Version Information
-/// @{
-
-/// @brief Represents version information of API.
-struct version_t {
-    int32_t major;     ///< Major version component (major version of clDNN API interface).
-    int32_t minor;     ///< Minor version component (minor version of API interface - correlated with IE API version).
-    int32_t build;     ///< Build version component (version/revision of official Open Source drop of clDNN library).
-    int32_t revision;  ///< Revision version component (incremental identifier of current build/compilation).
-};
-
-/// @brief Get information about version of clDNN.
-version_t get_version();
-
-/// @}
-
 float half_to_float(uint16_t value);
 uint16_t float_to_half(float value);
 
diff --git a/inference-engine/thirdparty/clDNN/create_msvc_mscc.bat b/inference-engine/thirdparty/clDNN/create_msvc_mscc.bat
deleted file mode 100644 (file)
index 156bc08..0000000
+++ /dev/null
@@ -1,37 +0,0 @@
-@REM Copyright (c) 2016 Intel Corporation
-
-@REM Licensed under the Apache License, Version 2.0 (the "License");
-@REM you may not use this file except in compliance with the License.
-@REM You may obtain a copy of the License at
-
-@REM      http://www.apache.org/licenses/LICENSE-2.0
-
-@REM Unless required by applicable law or agreed to in writing, software
-@REM distributed under the License is distributed on an "AS IS" BASIS,
-@REM WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
-@REM See the License for the specific language governing permissions and
-@REM limitations under the License.
-
-
-@setlocal
-@echo off
-
-set "ROOT_DIR=%~dp0"
-set "SOLUTION_TARGET32=Windows32"
-set "SOLUTION_DIR32=%ROOT_DIR%\build\%SOLUTION_TARGET32%"
-
-set "SOLUTION_TARGET64=Windows64"
-set "SOLUTION_DIR64=%ROOT_DIR%\build\%SOLUTION_TARGET64%"
-
-del %SOLUTION_DIR32%\CMakeCache.txt
-del %SOLUTION_DIR64%\CMakeCache.txt
-rmdir /S /Q %SOLUTION_DIR32%\codegen
-rmdir /S /Q %SOLUTION_DIR64%\codegen
-
-echo Creating Visual Studio 2015 (Win32) files in %SOLUTION_DIR32%... && ^
-cd "%ROOT_DIR%" && cmake -E make_directory "%SOLUTION_DIR32%" && cd "%SOLUTION_DIR32%" && cmake -G "Visual Studio 14 2015" "-DCLDNN__ARCHITECTURE_TARGET=%SOLUTION_TARGET32%" "%ROOT_DIR%"
-echo Creating Visual Studio 2015 (x64) files in %SOLUTION_DIR64%... && ^
-cd "%ROOT_DIR%" && cmake -E make_directory "%SOLUTION_DIR64%" && cd "%SOLUTION_DIR64%" && cmake -G "Visual Studio 14 2015 Win64" "-DCLDNN__ARCHITECTURE_TARGET=%SOLUTION_TARGET64%" "%ROOT_DIR%"
-
-echo Done.
-pause
diff --git a/inference-engine/thirdparty/clDNN/create_msvc_mscc_vs17.bat b/inference-engine/thirdparty/clDNN/create_msvc_mscc_vs17.bat
deleted file mode 100644 (file)
index f2c4062..0000000
+++ /dev/null
@@ -1,37 +0,0 @@
-@REM Copyright (c) 2016 Intel Corporation
-
-@REM Licensed under the Apache License, Version 2.0 (the "License");
-@REM you may not use this file except in compliance with the License.
-@REM You may obtain a copy of the License at
-
-@REM      http://www.apache.org/licenses/LICENSE-2.0
-
-@REM Unless required by applicable law or agreed to in writing, software
-@REM distributed under the License is distributed on an "AS IS" BASIS,
-@REM WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
-@REM See the License for the specific language governing permissions and
-@REM limitations under the License.
-
-
-@setlocal
-@echo off
-
-set "ROOT_DIR=%~dp0"
-set "SOLUTION_TARGET32=Windows32"
-set "SOLUTION_DIR32=%ROOT_DIR%\build\%SOLUTION_TARGET32%"
-
-set "SOLUTION_TARGET64=Windows64"
-set "SOLUTION_DIR64=%ROOT_DIR%\build\%SOLUTION_TARGET64%"
-
-del %SOLUTION_DIR32%\CMakeCache.txt
-del %SOLUTION_DIR64%\CMakeCache.txt
-rmdir /S /Q %SOLUTION_DIR32%\codegen
-rmdir /S /Q %SOLUTION_DIR64%\codegen
-
-echo Creating Visual Studio 2017 (Win32) files in %SOLUTION_DIR32%... && ^
-cd "%ROOT_DIR%" && cmake -E make_directory "%SOLUTION_DIR32%" && cd "%SOLUTION_DIR32%" && cmake -G "Visual Studio 15 2017" "-DCLDNN__ARCHITECTURE_TARGET=%SOLUTION_TARGET32%" "%ROOT_DIR%"
-echo Creating Visual Studio 2017 (x64) files in %SOLUTION_DIR64%... && ^
-cd "%ROOT_DIR%" && cmake -E make_directory "%SOLUTION_DIR64%" && cd "%SOLUTION_DIR64%" && cmake -G "Visual Studio 15 2017 Win64" "-DCLDNN__ARCHITECTURE_TARGET=%SOLUTION_TARGET64%" "%ROOT_DIR%"
-
-echo Done.
-pause
diff --git a/inference-engine/thirdparty/clDNN/create_unixmake_gcc.sh b/inference-engine/thirdparty/clDNN/create_unixmake_gcc.sh
deleted file mode 100755 (executable)
index a107bc3..0000000
+++ /dev/null
@@ -1,42 +0,0 @@
-# Copyright (c) 2016 Intel Corporation
-
-# Licensed under the Apache License, Version 2.0 (the "License");
-# you may not use this file except in compliance with the License.
-# You may obtain a copy of the License at
-
-#      http://www.apache.org/licenses/LICENSE-2.0
-
-# Unless required by applicable law or agreed to in writing, software
-# distributed under the License is distributed on an "AS IS" BASIS,
-# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
-# See the License for the specific language governing permissions and
-# limitations under the License.
-
-#!/bin/bash
-
-ROOT_DIR="$( cd "$( dirname "${BASH_SOURCE[0]}" )" && pwd )"
-BUILD_DIR="${ROOT_DIR}/build/Linux64"
-OUT_DIR="${ROOT_DIR}/build/out/Linux64"
-
-USE_NINJA=${1:-"N"}
-USE_DEVTOOLSET="${2}"
-
-if [ "${USE_NINJA^^}" = "Y" ]; then
-    echo "Creating Ninja Makefiles ..."
-    GENERATOR="Ninja"
-else
-    echo "Creating Unix/Linux Makefiles ..."
-    GENERATOR="Unix Makefiles"
-fi
-
-if [ "${USE_DEVTOOLSET}" = "" ]; then
-    cd ${ROOT_DIR} && cmake -E make_directory "${BUILD_DIR}/Debug" && cd "${BUILD_DIR}/Debug" && cmake -G "${GENERATOR}" "-DCLDNN__OUTPUT_DIR=${OUT_DIR}/Debug" "-DCMAKE_BUILD_TYPE=Debug" "${ROOT_DIR}"
-    cd ${ROOT_DIR} && cmake -E make_directory "${BUILD_DIR}/Release" && cd "${BUILD_DIR}/Release" && cmake -G "${GENERATOR}" "-DCLDNN__OUTPUT_DIR=${OUT_DIR}/Release" "-DCMAKE_BUILD_TYPE=Release" "${ROOT_DIR}"
-else
-    echo Using devtoolset-${USE_DEVTOOLSET,,} ...
-    cd ${ROOT_DIR} && cmake -E make_directory "${BUILD_DIR}/Debug" && cd "${BUILD_DIR}/Debug" && scl enable devtoolset-${USE_DEVTOOLSET,,} "cmake -G \"${GENERATOR}\" \"-DCLDNN__OUTPUT_DIR=${OUT_DIR}/Debug\" \"-DCMAKE_BUILD_TYPE=Debug\" \"${ROOT_DIR}\""
-    cd ${ROOT_DIR} && cmake -E make_directory "${BUILD_DIR}/Release" && cd "${BUILD_DIR}/Release" && scl enable devtoolset-${USE_DEVTOOLSET,,} "cmake -G \"${GENERATOR}\" \"-DCLDNN__OUTPUT_DIR=${OUT_DIR}/Release\" \"-DCMAKE_BUILD_TYPE=Release\" \"${ROOT_DIR}\""
-fi
-
-
-echo Done.
index 9181513..4485f9e 100644 (file)
@@ -385,7 +385,6 @@ struct EngineInfo {
     uint64_t maxImage2dHeight = 0;
     std::string deviceId = "";
     std::string driverVersion = "";
-    std::string hostVersion = "";
     std::shared_ptr<TuningCache> deviceCache;
 };
 
diff --git a/inference-engine/thirdparty/clDNN/src/cldnn.cpp b/inference-engine/thirdparty/clDNN/src/cldnn.cpp
deleted file mode 100644 (file)
index 2deb999..0000000
+++ /dev/null
@@ -1,45 +0,0 @@
-/*
-// Copyright (c) 2016-2019 Intel Corporation
-//
-// Licensed under the Apache License, Version 2.0 (the "License");
-// you may not use this file except in compliance with the License.
-// You may obtain a copy of the License at
-//
-//      http://www.apache.org/licenses/LICENSE-2.0
-//
-// Unless required by applicable law or agreed to in writing, software
-// distributed under the License is distributed on an "AS IS" BASIS,
-// WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
-// See the License for the specific language governing permissions and
-// limitations under the License.
-*/
-
-///////////////////////////////////////////////////////////////////////////////////////////////////
-#include "api/cldnn.hpp"
-#include <memory>
-#include <string>
-#include <vector>
-
-#ifndef CLDNN_VERSION_MAJOR
-#define CLDNN_VERSION_MAJOR (0)
-#endif
-
-#ifndef CLDNN_VERSION_MINOR
-#define CLDNN_VERSION_MINOR (0)
-#endif
-
-#ifndef CLDNN_VERSION_BUILD
-#define CLDNN_VERSION_BUILD (0)
-#endif
-
-#ifndef CLDNN_VERSION_REVISION
-#define CLDNN_VERSION_REVISION (0)
-#endif
-
-namespace cldnn {
-
-version_t get_version() {
-    return { CLDNN_VERSION_MAJOR, CLDNN_VERSION_MINOR, CLDNN_VERSION_BUILD, CLDNN_VERSION_REVISION };
-}
-
-}
diff --git a/inference-engine/thirdparty/clDNN/src/gpu/cache/cache_types.h b/inference-engine/thirdparty/clDNN/src/gpu/cache/cache_types.h
deleted file mode 100644 (file)
index ee67031..0000000
+++ /dev/null
@@ -1,35 +0,0 @@
-/*
-// Copyright (c) 2016 Intel Corporation
-//
-// Licensed under the Apache License, Version 2.0 (the "License");
-// you may not use this file except in compliance with the License.
-// You may obtain a copy of the License at
-//
-//      http://www.apache.org/licenses/LICENSE-2.0
-//
-// Unless required by applicable law or agreed to in writing, software
-// distributed under the License is distributed on an "AS IS" BASIS,
-// WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
-// See the License for the specific language governing permissions and
-// limitations under the License.
-*/
-#pragma once
-
-#include <string>
-#include <unordered_map>
-#include "common_types.h"
-#include <utility>
-
-namespace cldnn {
-namespace gpu {
-namespace cache {
-
-using binary_data = std::string;
-static_assert(sizeof(binary_data::value_type) == 1, "Binary data has to represent byte array");
-
-using binary_cache = std::unordered_map<size_t, binary_data>;
-using kernel = std::pair<jit, code>;
-
-}  // namespace cache
-}  // namespace gpu
-}  // namespace cldnn
\ No newline at end of file
diff --git a/inference-engine/thirdparty/clDNN/src/gpu/cache/common_types.h b/inference-engine/thirdparty/clDNN/src/gpu/cache/common_types.h
deleted file mode 100644 (file)
index 31fb4ad..0000000
+++ /dev/null
@@ -1,29 +0,0 @@
-/*
-// Copyright (c) 2016 Intel Corporation
-//
-// Licensed under the Apache License, Version 2.0 (the "License");
-// you may not use this file except in compliance with the License.
-// You may obtain a copy of the License at
-//
-//      http://www.apache.org/licenses/LICENSE-2.0
-//
-// Unless required by applicable law or agreed to in writing, software
-// distributed under the License is distributed on an "AS IS" BASIS,
-// WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
-// See the License for the specific language governing permissions and
-// limitations under the License.
-*/
-#pragma once
-
-#include <string>
-
-namespace cldnn {
-namespace gpu {
-
-class gpu_toolkit;  // TODO temporary
-using context = gpu_toolkit;
-using jit = std::string;
-using code = std::string;
-
-}  // namespace gpu
-}  // namespace cldnn
\ No newline at end of file
diff --git a/inference-engine/thirdparty/clDNN/src/gpu/cache/kernels/pooling_gpu_bfyx_average_opt.cl b/inference-engine/thirdparty/clDNN/src/gpu/cache/kernels/pooling_gpu_bfyx_average_opt.cl
deleted file mode 100644 (file)
index 2048e9b..0000000
+++ /dev/null
@@ -1,106 +0,0 @@
-// Copyright (c) 2016-2017 Intel Corporation
-//
-// Licensed under the Apache License, Version 2.0 (the "License");
-// you may not use this file except in compliance with the License.
-// You may obtain a copy of the License at
-//
-//      http://www.apache.org/licenses/LICENSE-2.0
-//
-// Unless required by applicable law or agreed to in writing, software
-// distributed under the License is distributed on an "AS IS" BASIS,
-// WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
-// See the License for the specific language governing permissions and
-// limitations under the License.
-
-#if FP16_SUPPORTED
-    #pragma OPENCL EXTENSION cl_khr_fp16 : enable
-#endif
-
-__attribute__((intel_reqd_sub_group_size(SUB_GROUP_SIZE)))
-__attribute__((reqd_work_group_size(SUB_GROUP_SIZE, 1, 1)))
-KERNEL(pooling_gpu_bfyx_average_opt)(const __global float* input, __global float* output)
-{
-    int local_id = get_local_id(0);
-    int tile_x = get_global_id(0);
-    int tile_y = get_global_id(1);
-    int channel = get_global_id(2);     
-  
-    int start_x = tile_x / SUB_GROUP_SIZE * TILE_WIDTH;
-    int offset_x = start_x + (tile_x - tile_x / SUB_GROUP_SIZE * SUB_GROUP_SIZE) % TILE_WIDTH;
-    int offset = INPUT_SIZE_Y * INPUT_SIZE_X * channel;      
-  
-    int start_y = tile_y * TILE_HEIGHT;      
-    int end_y = min(INPUT_SIZE_Y - 1, start_y + TILE_HEIGHT - 1);
-          
-    // Read 3 lines of SUB_GROUP_SIZE floats.
-    // The 3 lines start one float before the current (to the left) and one line up:
-    // For example: SUB_GROUP_SIZE=16
-    // 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
-    // 0 X 2 3 4 5 6 7 8 9 10 11 12 13 14 15
-    // 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
-    // In the diagram above X represents the current work item.
-
-    const __global float* base_addr = input + offset + (start_y * INPUT_SIZE_X + start_x) - 1;
-  
-    float input_buffer[3];
-    input_buffer[0] = as_float(intel_sub_group_block_read((const __global uint*)(base_addr - INPUT_SIZE_X)));
-    input_buffer[1] = as_float(intel_sub_group_block_read((const __global uint*)(base_addr)));
-  
-    int first = 0;
-    int second = 1;
-    int third = 2;
-    float res, sum, sum_1, sum_2;
-  
-    for(int y = start_y; y <= end_y; y++)
-    {
-        base_addr += INPUT_SIZE_X;
-  
-        input_buffer[third] = as_float(intel_sub_group_block_read((const __global uint*)(base_addr)));
-        
-#if INPUT_SIZE_Y == 1
-        sum = input_buffer[second];
-#else
-        if (y == 0) 
-        {
-            sum = input_buffer[second] + input_buffer[third];
-        }
-        else if (y == INPUT_SIZE_Y - 1) 
-        {
-            sum = input_buffer[first] + input_buffer[second];
-        }
-        else 
-        {
-            sum = input_buffer[first] + input_buffer[second] + input_buffer[third];
-        }
-#endif
-              
-        sum_1 = intel_sub_group_shuffle_down(sum, 0.f , 1);
-        sum_2 = intel_sub_group_shuffle_down(sum, 0.f , 2);
-  
-#if INPUT_SIZE_X == 1
-        res = sum_1 * ONE_OVER_POOL_SIZE;
-#else
-        if (offset_x == 0)
-        {
-            res = (sum_1 + sum_2) * ONE_OVER_POOL_SIZE;
-        }
-        else if (offset_x == INPUT_SIZE_X - 1)
-        {
-            res = (sum + sum_1) * ONE_OVER_POOL_SIZE;
-        }
-        else 
-        {
-            res = (sum + sum_1 + sum_2) * ONE_OVER_POOL_SIZE;
-        }
-#endif
-  
-        if ((local_id < TILE_WIDTH) && (offset_x < INPUT_SIZE_X))
-        {
-            output[offset + y * INPUT_SIZE_X + offset_x] = res;
-        }     
-  
-        first = (first + 1) % 3;
-        second = (second + 1) % 3;
-        third = (third + 1) % 3;
-    }  
-}
diff --git a/inference-engine/thirdparty/clDNN/src/gpu/cache/manager_types.h b/inference-engine/thirdparty/clDNN/src/gpu/cache/manager_types.h
deleted file mode 100644 (file)
index 344889e..0000000
+++ /dev/null
@@ -1,28 +0,0 @@
-/*
-// Copyright (c) 2016 Intel Corporation
-//
-// Licensed under the Apache License, Version 2.0 (the "License");
-// you may not use this file except in compliance with the License.
-// You may obtain a copy of the License at
-//
-//      http://www.apache.org/licenses/LICENSE-2.0
-//
-// Unless required by applicable law or agreed to in writing, software
-// distributed under the License is distributed on an "AS IS" BASIS,
-// WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
-// See the License for the specific language governing permissions and
-// limitations under the License.
-*/
-#pragma once
-
-#include <string>
-
-namespace cldnn {
-namespace gpu {
-namespace manager {
-
-using primitive_id = std::string;
-
-}
-}  // namespace gpu
-}  // namespace cldnn
\ No newline at end of file
index b4fac62..b640223 100644 (file)
@@ -109,7 +109,6 @@ cldnn::format from_data_layout(kernel_selector::data_layout l);
 kernel_selector::weights_layout to_weights_layout(format f);
 cldnn::format::type from_weights_layout(kernel_selector::weights_layout l);
 kernel_selector::tuning_mode to_tuning_mode(cldnn::tuning_mode mode);
-std::string to_host_version(const cldnn::version_t& version);
 kernel_selector::data_tensor convert_data_tensor(const layout& l, uint32_t split = 1, const tensor view_offset = tensor {});
 kernel_selector::weights_tensor convert_weights_tensor(const layout& l);
 layout from_weights_tensor(const kernel_selector::weights_tensor& t);
index 0997dfc..19b4965 100644 (file)
@@ -520,12 +520,6 @@ kernel_selector::tuning_mode to_tuning_mode(cldnn::tuning_mode mode) {
     }
 }
 
-std::string to_host_version(const cldnn::version_t& version) {
-    std::stringstream ss;
-    ss << version.major << "." << version.minor << "." << version.build << "." << version.revision;
-    return ss.str();
-}
-
 kernel_selector::data_tensor convert_data_tensor(const layout& l, uint32_t split, const tensor view_offset) {
     const auto& pad = l.data_padding;
     const auto& vals = l.size.sizes(l.format);
@@ -735,7 +729,6 @@ void set_params(const program_node& node, kernel_selector::params& params) {
     params.engineInfo.computeUnitsCount = device_info.compute_units_count;
     params.engineInfo.deviceCache = context->get_device_cache();
     params.engineInfo.driverVersion = device_info.driver_version;
-    params.engineInfo.hostVersion = to_host_version(cldnn::get_version());
 
     auto impl_forcing_bo = program.get_options().get<build_option_type::force_implementations>();
     const auto& impl_forcing = impl_forcing_bo->forcing;
diff --git a/inference-engine/thirdparty/clDNN/utils/build/cmake/modules/BuildExternalProject.cmake b/inference-engine/thirdparty/clDNN/utils/build/cmake/modules/BuildExternalProject.cmake
deleted file mode 100644 (file)
index a1c2a0a..0000000
+++ /dev/null
@@ -1,296 +0,0 @@
-# Copyright (c) 2016 Intel Corporation
-#
-# Licensed under the Apache License, Version 2.0 (the "License");
-# you may not use this file except in compliance with the License.
-# You may obtain a copy of the License at
-#
-#      http://www.apache.org/licenses/LICENSE-2.0
-#
-# Unless required by applicable law or agreed to in writing, software
-# distributed under the License is distributed on an "AS IS" BASIS,
-# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
-# See the License for the specific language governing permissions and
-# limitations under the License.
-
-# This module supports running in script mode:
-#   cmake -DINTEL__SCRIPT_MODE=ON -DINTEL__CFG_NAME=<build type/configuration name>
-#     [-DINTEL__CFG_MAP_PREFIX=<map prefix>] [-DINTEL__TARGETS=<list of targets>] [-D...] -P BuildExternalProject.cmake
-#
-# will build all specified targets with selected build type mapped with intel_map_configuration().
-
-
-cmake_minimum_required(VERSION 2.8.8 FATAL_ERROR)
-
-
-# ======================================================================================================
-# ================================================ UTILS ===============================================
-# ======================================================================================================
-
-# Returns mapped configuration (build type) based on input configuration.
-#
-# Searches for variables named in following format: "<mapPrefix>__CFG_MAPS_TO__<cfg in upper>".
-# If variable is found its value is used as output configuration; otherwise input configuration
-# is returned.
-#
-# @param retValName Name of variable placeholder where result will be returned.
-# @param mapPrefix  Prefix of variables used to map configurations (build types).
-# @param config     Configuration name (build type) to map.
-function(intel_map_configuration retVarName mapPrefix config)
-  string(TOUPPER "${config}" _config)
-  set(_mapVarName "${mapPrefix}__CFG_MAPS_TO__${_config}")
-  if(DEFINED "${_mapVarName}")
-    set("${retVarName}" "${${_mapVarName}}" PARENT_SCOPE)
-  else()
-    set("${retVarName}" "${config}" PARENT_SCOPE)
-  endif()
-endfunction()
-
-# Maps imported targets with specified configuration mapping.
-#
-# For each configuration / build type (<cfg>), it searches for variables named
-# in following format: "<mapPrefix>__CFG_MAPS_TO__<cfg in upper>".
-# If variable is found and its value is different than <cfg>, the value is used
-# as destination configuration during mapping of all imported targets and their interface libs
-# (source configuration is <cfg>) - applies MAP_IMPORTED_CONFIG_ properties.
-#
-# @param mapPrefix             Prefix of variables used to map configurations (build types).
-# @param [target [target ...]] Imported targets which will be mapped according to mapping.
-function(intel_map_imported_targets mapPrefix)
-  foreach(_config ${CMAKE_CONFIGURATION_TYPES})
-    string(REPLACE ";" "\;" _config "${_config}") #WA
-    intel_map_configuration(_mappedConfig "${mapPrefix}" "${_config}")
-    # If we have mapping check and apply mapping on imported targets.
-    if(NOT (_mappedConfig STREQUAL _config))
-      string(TOUPPER "${_config}"       _upperConfig)
-      string(TOUPPER "${_mappedConfig}" _upperMappedConfig)
-
-      # BFS of all link targets needed.
-      set(_targets "${ARGN}")
-      set(_oldTargetsLength 0)
-      list(REMOVE_DUPLICATES _targets)
-      list(LENGTH _targets _targetsLength)
-      while(_targetsLength GREATER _oldTargetsLength)
-        set(_oldTargets "${_targets}")
-        set(_oldTargetsLength ${_targetsLength})
-
-        foreach(_target ${_oldTargets})
-          string(REPLACE ";" "\;" _target "${_target}") #WA
-
-          if(TARGET "${_target}")
-            get_property(_targetIsImported      TARGET "${_target}" PROPERTY IMPORTED)
-            get_property(_targetOldInterface    TARGET "${_target}" PROPERTY INTERFACE_LINK_LIBRARIES)
-            get_property(_targetOldCfgInterface TARGET "${_target}" PROPERTY "INTERFACE_LINK_LIBRARIES_${_upperMappedConfig}")
-            get_property(_targetInterface       TARGET "${_target}" PROPERTY IMPORTED_LINK_INTERFACE_LIBRARIES)
-            get_property(_targetCfgInterface    TARGET "${_target}" PROPERTY "IMPORTED_LINK_INTERFACE_LIBRARIES_${_upperMappedConfig}")
-            if(_targetIsImported)
-              list(APPEND _targets "${_targetOldInterface}" "${_targetOldCfgInterface}" "${_targetInterface}" "${_targetCfgInterface}")
-            endif()
-          endif()
-        endforeach()
-
-        list(REMOVE_DUPLICATES _targets)
-        list(LENGTH _targets _targetsLength)
-      endwhile()
-      list(SORT _targets)
-
-      foreach(_target ${_targets})
-        string(REPLACE ";" "\;" _target "${_target}") #WA
-
-        if(NOT (TARGET "${_target}"))
-          message(AUTHOR_WARNING "\"${_target}\" does not name CMake target. It will be omitted during\n    imports mapping (\"${_config}\" -> \"${_mappedConfig}\").")
-        else()
-          get_property(_targetIsImported TARGET "${_target}" PROPERTY IMPORTED)
-          if(NOT _targetIsImported)
-            message(AUTHOR_WARNING "\"${_target}\" is not imported target. It will be omitted during\n    imports mapping (\"${_config}\" -> \"${_mappedConfig}\").")
-          else()
-            set_property(TARGET "${_target}" PROPERTY "MAP_IMPORTED_CONFIG_${_upperConfig}" "${_mappedConfig}")
-          endif()
-        endif()
-      endforeach()
-    endif()
-  endforeach()
-endfunction()
-
-# Helper for intel_build_external_proj_prepare_cmdline() function.
-set_property(GLOBAL PROPERTY INTEL__BuildExternalProject_CMAKE_LIST_FILE "${CMAKE_CURRENT_LIST_FILE}")
-
-# Prepares command-line for building external project.
-#
-# @param retValName            Name of variable placeholder where result will be returned.
-# @param semicolonReplace      Characters which replaces semicolon in targets list.
-# @param [mapPrefix]           Prefix of variables used to map configurations (build types).
-# @param [target [target ...]] Targets to build.
-function(intel_build_external_proj_prepare_cmdline retVarName semicolonReplace)
-  set(_isMapPrefixSet FALSE)
-  set(_isTargetsSet   FALSE)
-  foreach(_arg ${ARGN})
-    string(REPLACE ";" "\;" _arg "${_arg}") #WA
-    if(_isMapPrefixSet)
-      if(_isTargetsSet)
-        set(_targets       "${_targets}${semicolonReplace}${_arg}")
-      else()
-        set(_targets       "${_arg}")
-        set(_isTargetsSet  TRUE)
-      endif()
-    else()
-      set(_mapPrefix       "${_arg}")
-      set(_isMapPrefixSet  TRUE)
-    endif()
-  endforeach()
-
-  set(_cmdline "${CMAKE_COMMAND}" "-DINTEL__SCRIPT_MODE=ON" "-DINTEL__CFG_NAME=${CMAKE_CFG_INTDIR}")
-  if(_isMapPrefixSet)
-    list(APPEND _cmdline "-DINTEL__CFG_MAP_PREFIX=${_mapPrefix}")
-  endif()
-  if(_isTargetsSet)
-    list(APPEND _cmdline "-DINTEL__TARGETS=${_targets}")
-  endif()
-  if(_isMapPrefixSet)
-    foreach(_config ${CMAKE_CONFIGURATION_TYPES})
-      string(REPLACE ";" "\;" _config "${_config}") #WA
-      string(TOUPPER "${_config}" _upperConfig)
-      set(_mapVarName "${_mapPrefix}__CFG_MAPS_TO__${_upperConfig}")
-
-      if(DEFINED "${_mapVarName}")
-        list(APPEND _cmdline "-D${_mapVarName}=${${_mapVarName}}")
-      endif()
-    endforeach()
-  endif()
-  get_property(_moduleFilePath GLOBAL PROPERTY INTEL__BuildExternalProject_CMAKE_LIST_FILE)
-  list(APPEND _cmdline "-P" "${_moduleFilePath}")
-  set("${retVarName}" "${_cmdline}" PARENT_SCOPE)
-endfunction()
-
-
-# Prepares list of cache variables to transfer (for ExternalProject_Add()'s CMAKE_CACHE_ARGS) from current
-# CMake directory.
-#
-# @param retValName          Name of variable placeholder where result will be returned. Cache data
-#                            will be stored in this variable. Additionally in "<retValName>_NAMES" variable
-#                            (suffixed with _NAMES suffix) names of transferred variables will be returned.
-# @param retValName          Regular expression filter which allows to exclude specific variables from transfer.
-# @param cacheCfgOptsVarName Name of the variable which contains overwrites in extensions for transferred cache
-#                            data. Variable should contain list of options - each option in form:
-#                              -D<cache var>:<cache var type>=<cache var value>
-function(intel_transfer_cache_vars retVarName excludeFilter cacheCfgOptsVarName)
-  if(excludeFilter MATCHES "^$")
-    set(_noExclusion YES)
-  else()
-    set(_noExclusion NO)
-  endif()
-
-  # Transfer all cached options connected to CMake and toolchains.
-  get_cmake_property(_cachedVariables CACHE_VARIABLES)
-  set(_transferredVariables "")
-  set(_transferredCacheData "")
-  foreach(_cachedVariable ${_cachedVariables})
-    if(_noExclusion OR (NOT (_cachedVariable MATCHES "${excludeFilter}")))
-      get_property(_cachedVariableType  CACHE "${_cachedVariable}" PROPERTY TYPE)
-      get_property(_cachedVariableValue CACHE "${_cachedVariable}" PROPERTY VALUE)
-      # Exclude all STATIC, UNINITIALIZED and CMake's INTERNAL variables.
-      if((NOT (_cachedVariableType MATCHES "^STATIC$|^UNINITALIZED$")) AND (NOT ((_cachedVariableType MATCHES "^INTERNAL$") AND (_cachedVariable MATCHES "^CMAKE_|_CMAKE$"))))
-        set(_transferredCacheDataEntry "-D${_cachedVariable}:${_cachedVariableType}=${_cachedVariableValue}")
-        string(REPLACE ";" "\;" _transferredCacheDataEntry "${_transferredCacheDataEntry}") #WA
-
-        list(APPEND _transferredVariables "${_cachedVariable}")
-        list(APPEND _transferredCacheData "${_transferredCacheDataEntry}")
-      endif()
-    endif()
-  endforeach()
-  unset(_cachedVariables)
-  unset(_cachedVariable)
-  unset(_cachedVariableType)
-  unset(_transferredCacheDataEntry)
-
-  # Extend/overwrite options with explicit configure cache options.
-  if(DEFINED "${cacheCfgOptsVarName}")
-    foreach(_cacheCfgOpt ${${cacheCfgOptsVarName}})
-      string(REPLACE ";" "\;" _cacheCfgOpt "${_cacheCfgOpt}") #WA
-      string(REGEX MATCH "^(-D)?([^:=]+)" _cacheCfgOptName "${_cacheCfgOpt}")
-      set(_cacheCfgOptName "${CMAKE_MATCH_2}")
-      list(FIND _transferredVariables "${_cacheCfgOptName}" _cacheCfgOptIdx)
-      if(_cacheCfgOptIdx LESS 0)
-        list(APPEND _transferredVariables "${_cacheCfgOptName}")
-        list(APPEND _transferredCacheData "${_cacheCfgOpt}")
-      else()
-        list(REMOVE_AT _transferredVariables ${_cacheCfgOptIdx})
-        list(REMOVE_AT _transferredCacheData ${_cacheCfgOptIdx})
-        list(INSERT _transferredVariables ${_cacheCfgOptIdx} "${_cacheCfgOptName}")
-        list(INSERT _transferredCacheData ${_cacheCfgOptIdx} "${_cacheCfgOpt}")
-      endif()
-    endforeach()
-  endif()
-  unset(_cacheCfgOpt)
-  unset(_cacheCfgOptName)
-  unset(_cacheCfgOptIdx)
-
-  set("${retVarName}"       "${_transferredCacheData}" PARENT_SCOPE)
-  set("${retVarName}_NAMES" "${_transferredVariables}" PARENT_SCOPE)
-endfunction()
-
-# ======================================================================================================
-# ======================================================================================================
-# ======================================================================================================
-
-
-if(INTEL__SCRIPT_MODE)
-  set(__INTEL_ExternProjBinDir "${CMAKE_CURRENT_BINARY_DIR}")
-  set(__INTEL_OrigCfgName      "${INTEL__CFG_NAME}")
-  set(__INTEL_CfgName          "${__INTEL_OrigCfgName}")
-
-  if(NOT DEFINED INTEL__CFG_NAME)
-    message(FATAL_ERROR "No build type specified while doing build of external project
-        located in \"${__INTEL_ExternProjBinDir}\"."
-      )
-  endif()
-
-  if(DEFINED INTEL__CFG_MAP_PREFIX)
-    intel_map_configuration(__INTEL_CfgName "${INTEL__CFG_MAP_PREFIX}" "${__INTEL_CfgName}")
-  endif()
-
-  message(STATUS "============================ Build of External Project =============================")
-  message(STATUS "====================================================================================")
-  message(STATUS "Project location:   ${__INTEL_ExternProjBinDir}")
-  message(STATUS "")
-  message(STATUS "Build type:         ${__INTEL_OrigCfgName} (for multi-configuration generators)")
-  if(DEFINED INTEL__CFG_MAP_PREFIX)
-    message(STATUS "Mapped build type:  ${__INTEL_CfgName} (mapped by \"${INTEL__CFG_MAP_PREFIX}\")")
-  endif()
-  message(STATUS "")
-  if(DEFINED INTEL__TARGETS)
-    message(STATUS "Targets:            ${INTEL__TARGETS}")
-  else()
-    message(STATUS "Targets:            (default)")
-  endif()
-  message(STATUS "====================================================================================")
-
-  if(__INTEL_CfgName MATCHES "^\\.$")
-    set(__INTEL_CfgArg)
-  else()
-    set(__INTEL_CfgArg "--config" "${__INTEL_CfgName}")
-  endif()
-
-  if(DEFINED INTEL__TARGETS)
-    foreach(__INTEL_Target ${INTEL__TARGETS})
-      string(REPLACE ";" "\;" __INTEL_Target "${__INTEL_Target}") #WA
-
-      message(STATUS "Target:             ${__INTEL_Target}")
-      message(STATUS "")
-      execute_process(COMMAND "${CMAKE_COMMAND}" --build "${__INTEL_ExternProjBinDir}" --target "${__INTEL_Target}" ${__INTEL_CfgArg})
-      message(STATUS "====================================================================================")
-    endforeach()
-  else()
-    message(STATUS "Target:             (default)")
-    message(STATUS "")
-    execute_process(COMMAND "${CMAKE_COMMAND}" --build "${__INTEL_ExternProjBinDir}" ${__INTEL_CfgArg})
-    message(STATUS "====================================================================================")
-  endif()
-
-  message(STATUS "====================================================================================")
-
-  unset(__INTEL_ExternProjBinDir)
-  unset(__INTEL_OrigCfgName)
-  unset(__INTEL_CfgName)
-  unset(__INTEL_CfgArg)
-  unset(__INTEL_Target)
-endif()
\ No newline at end of file
diff --git a/inference-engine/thirdparty/clDNN/utils/codegen/generate_api_wrappers.py b/inference-engine/thirdparty/clDNN/utils/codegen/generate_api_wrappers.py
deleted file mode 100644 (file)
index 0b9a480..0000000
+++ /dev/null
@@ -1,457 +0,0 @@
-#!/usr/bin/env python2
-
-# INTEL CONFIDENTIAL
-# Copyright 2016 Intel Corporation
-#
-# The source code contained or described herein and all documents related to the source code ("Material") are owned by
-# Intel Corporation or its suppliers or licensors. Title to the Material remains with Intel Corporation or its
-# suppliers and licensors. The Material contains trade secrets and proprietary and confidential information of Intel
-# or its suppliers and licensors. The Material is protected by worldwide copyright and trade secret laws and treaty
-# provisions. No part of the Material may be used, copied, reproduced, modified, published, uploaded, posted,
-# transmitted, distributed, or disclosed in any way without Intel's prior express written permission.
-#
-# No license under any patent, copyright, trade secret or other intellectual property right is granted to
-# or conferred upon you by disclosure or delivery of the Materials, either expressly, by implication, inducement,
-# estoppel or otherwise. Any license under such intellectual property rights must be express and approved by Intel
-# in writing.
-#
-#
-# For details about script please contact following people:
-#  * [Version: 1.0] Walkowiak, Marcin <marcin.walkowiak@intel.com>
-
-import argparse
-import os
-
-import re
-
-
-# Pattern that filters file names that are headers.
-headerFileNamePattern = re.compile('^[a-zA-Z0-9_]+\\.[hH]$')
-# Marker that marks API function/data member (at its beginning).
-apiMemberMarker = 'CLDNN_API'
-# Macros that should be expanded to API functions.
-apiMacroMemberMatchers = [
-    (re.compile('^\\s*CLDNN_DECLARE_PRIMITIVE_TYPE_ID\\s*\\(\\s*([a-zA-Z0-9_]+)\\s*\\)\\s*;', re.MULTILINE),
-     'cldnn_primitive_type_id cldnn_\\1_type_id(cldnn_status* status)')
-]
-# C language and project reserved keywords (that cannot be used as function/parameter name).
-reservedKeywords = [
-    'auto', 'else', 'long', 'switch', 'break', 'enum', 'register', 'typedef', 'case', 'extern', 'return', 'union',
-    'char', 'float', 'short', 'unsigned', 'const', 'for', 'signed', 'void', 'continue', 'goto', 'sizeof', 'volatile',
-    'default', 'if', 'static', 'while', 'do', 'int', 'struct', '_Packed', 'double'
-]
-# C language and project reserved keyword patterns (that cannot be used as function/parameter name).
-reservedKeywordPatterns = [
-    re.compile('^__[a-z0-9_]+__$', re.IGNORECASE)
-]
-
-
-apiMemberMatcher = re.compile('^\\s*' + re.escape(apiMemberMarker) + '\\s+([^;]+);', re.MULTILINE)
-typeIdentifierSplitter = re.compile('^(.*?)([a-zA-Z_][a-zA-Z0-9_]*)$')
-
-
-def stripCommentsAndPreprocessor(content):
-    """ Strips out comments and preprocessor constructs from text written in C language (or compatible).
-
-    :param content: Text with code written in C language (or compatible).
-    :type content: str
-    :return: Content of C language code with comments and preprocessor constructs stripped out.
-    :rtype: str
-    """
-    # FSA states:
-    # 0 - normal context, start state
-    # 1 - string context
-    # 2 - string context, after \ character (character escape)
-    # 3 - normal context, after / character (possible comment)
-    # 4 - multi-line comment context
-    # 5 - multi-line comment context, after * character (possible end of comment)
-    # 6 - single-line comment context
-    # 7 - single-line comment context, after \ character (escape)
-    # 8 - preprocessor definition/instruction context
-    # 9 - preprocessor definition/instruction context, after \ character (escape)
-
-    state = 0
-    strippedOutputArray = []
-    for c in content:
-        # normal context, start state
-        if state == 0:
-            if c == '"':
-                state = 1   # string
-                strippedOutputArray.append(c)
-            elif c == '/':
-                state = 3   # possible comment (no out)
-            elif c == '#':
-                state = 8   # preprocessor (no out)
-            else:
-                strippedOutputArray.append(c)
-        # string context
-        elif state == 1:
-            if c == '\\':
-                state = 2   # escape sequence
-                strippedOutputArray.append(c)
-            elif c == '"':
-                state = 0
-                strippedOutputArray.append(c)
-            else:
-                strippedOutputArray.append(c)
-        # string context, after \ character (character escape)
-        elif state == 2:
-            state = 1   # do not leave string context on any character
-            strippedOutputArray.append(c)
-        # normal context, after / character (possible comment)
-        elif state == 3:
-            if c == '*':
-                state = 4   # multi-line comment (no out)
-            elif c == '/':
-                state = 6   # single-line comment (no out)
-            else:
-                state = 0   # not comment (flush previous token)
-                strippedOutputArray.append('/')
-                strippedOutputArray.append(c)
-        # multi-line comment context
-        elif state == 4:
-            if c == '*':
-                state = 5   # possible end of comment (no out)
-        # multi-line comment context, after * character (possible end of comment)
-        elif state == 5:
-            if c == '/':
-                state = 0   # end of comment (no out)
-            elif c == '*':
-                pass   # not end of comment, but check next token for possible end of comment (no out)
-            else:
-                state = 4   # not end of comment (no out)
-        # single-line comment context
-        elif state == 6:
-            if c == '\n':
-                state = 0   # end of comment (append new line)
-                strippedOutputArray.append('\n')
-            elif c == '\\':
-                state = 7   # escape in comment (can escape new line character) (no out)
-        # single-line comment context, after \ character (escape)
-        elif state == 7:
-            state = 6   # do not leave comment on any character (no out)
-        # preprocessor definition/instruction context
-        elif state == 8:
-            if c == '\n':
-                state = 0   # end of preprocessor construct (no out)
-            elif c == '\\':
-                state = 9   # escape in preprocessor construct (no out)
-        # preprocessor definition/instruction context, after \ character (escape)
-        elif state == 9:
-            state = 8   # do not leave preprocessor construct on any character (no out)
-
-    return ''.join(strippedOutputArray)
-
-
-def isReservedName(name):
-    """ Determines whether specified name is reserved in C language or project.
-
-    :param name: Name to check.
-    :type name: str
-    :return: True, if name is reserved; otherwise, False.
-    :rtype: bool
-    """
-    if name.strip() in reservedKeywords:
-        return True
-    for keywordPattern in reservedKeywordPatterns:
-        if keywordPattern.match(name.strip()):
-            return True
-    return False
-
-
-automaticSplitVarIndex = 0
-
-
-def splitTypeAndIdentifier(decl):
-    match = typeIdentifierSplitter.match(decl.strip())
-    if match and not isReservedName(match.group(2)):
-        return match.group(1).strip(), match.group(2).strip()
-    else:
-        global automaticSplitVarIndex
-        automaticSplitVarIndex += 1
-        return decl.strip(), 'arg{0:05d}'.format(automaticSplitVarIndex)
-
-
-def parseApiMemberDeclarator(apiDecl):
-    parenLevel = 0
-    state = 0
-
-    name = ''
-    returnType = ''
-    isFunction = False
-    paramDecls = []   # Collection of extracted parameter declarations
-    attrs = ''
-
-    # Reversed array where tokens are collected:
-    nameRArray = []         # API member name
-    returnTypeRArray = []   # Return type declaration
-    paramRArray = []        # Parameter declarator
-
-    cLoc = len(apiDecl)
-    cAttributeSplitLoc = cLoc
-    while cLoc > 0:
-        cLoc -= 1
-        c = apiDecl[cLoc]
-
-        if parenLevel == 0:
-            # API member declarator context, start state
-            if state == 0:
-                if c == ')':
-                    state = 1   # possible function declarator
-                    isFunction = True
-                    attrs = apiDecl[cLoc + 1:]
-            # function parameter declaration
-            elif state == 1:
-                if c == ')':   # nesting of parentheses (stop normal parsing, only collect tokens)
-                    parenLevel += 1
-                    paramRArray.append(c)
-                elif c == '(':
-                    state = 2   # end of parameters declaration (move to function name, store parameter if needed)
-                    if len(paramRArray) > 0:
-                        paramDecls.append(''.join(paramRArray[::-1]).strip())
-                        paramRArray = []
-                elif c == ',':   # start of next parameter declaration
-                    paramDecls.append(''.join(paramRArray[::-1]).strip())
-                    paramRArray = []
-                else:
-                    paramRArray.append(c)
-            # function name (optional whitespace)
-            elif state == 2:
-                if not c.isspace():
-                    cLoc += 1
-                    state = 3   # ignore whitespace until non-whitespace character is encountered (re-parse token)
-            # function name
-            elif state == 3:
-                if c.isalnum() or c == '_':
-                    nameRArray.append(c)
-                else:
-                    name = ''.join(nameRArray[::-1]).strip()
-                    nameRArray = []
-
-                    cLoc += 1   # re-parse unmatched token
-                    if isReservedName(name):
-                        cAttributeSplitLoc = cLoc
-
-                        name = ''
-                        returnType = ''
-                        isFunction = False
-                        paramDecls = []
-                        attrs = apiDecl[cLoc:]
-
-                        state = 0   # if parsed function declaration has reserved name, it need to be treated as attribute
-                    else:
-                        state = 4   # name is not reserved - treat next tokens as return type
-            # return type declarator
-            elif state == 4:
-                returnTypeRArray.append(c)
-        else:
-            # Nesting of parentheses - collect tokens only.
-            if c == ')':
-                parenLevel += 1
-            elif c == '(':
-                parenLevel -= 1
-            paramRArray.append(c)
-
-    if isFunction:
-        if len(nameRArray) > 0:
-            name = ''.join(nameRArray[::-1]).strip()
-        if len(returnTypeRArray) > 0:
-            returnType = ''.join(returnTypeRArray[::-1]).strip()
-        if len(paramRArray) > 0:
-            paramDecls.append(''.join(paramRArray[::-1]).strip())
-    else:
-        returnType, name = splitTypeAndIdentifier(apiDecl[:cAttributeSplitLoc])
-
-    paramDeclInfos = []
-    for decl in reversed(paramDecls):
-        paramType, paramName = splitTypeAndIdentifier(decl)
-        paramDeclInfos.append({'name': paramName, 'type': paramType})
-
-    return {
-        'name': name,
-        'isFunction': isFunction,
-        'returnType': returnType,
-        'params': paramDeclInfos,
-        'attrs': attrs
-    }
-
-
-# Tests:
-# print parseApiMemberDeclarator('int const   __attribute__((pure)) ')
-# print parseApiMemberDeclarator('int foo1   __attribute__((pure)) ')
-# print parseApiMemberDeclarator('int foo1')
-# print parseApiMemberDeclarator('void a(int, const a*bb)')
-# print parseApiMemberDeclarator('int foo __attribute__((static))')
-# print parseApiMemberDeclarator('int foo()__attribute__((static))')
-# print parseApiMemberDeclarator('int foo()__attribute__((static)) __attribute__((data(1,2,3))) do() NN')
-# print parseApiMemberDeclarator('int foo (int a, int b)__attribute__((static)) __attribute__((data(1,2,3))) do() NN')
-# print parseApiMemberDeclarator('DD(int,a)* foo(int a, const D(1,I())* b)__attribute__((static)) __attribute__((data(1,2,3))) do() NN')
-
-
-def parseHeaderFile(headerFilePath):
-    """ Opens, reads and parses header file and extracts information about API functions inside.
-
-    :param headerFilePath: Path to header file that will be parsed.
-    :return: List of API function declarations. Each declaration contains dictionary describing function name,
-             parameter types and return type.
-    :rtype: list
-    """
-    apiMembersInfo = []
-
-    headerFile = file(headerFilePath)
-    headerContent = headerFile.read()
-    strippedContent = stripCommentsAndPreprocessor(headerContent)
-    matchedFunctionDecls = apiMemberMatcher.findall(strippedContent)
-    for decl in matchedFunctionDecls:
-        apiMembersInfo.append(parseApiMemberDeclarator(decl))
-
-    for matcher, replace in apiMacroMemberMatchers:
-        matchedMacroDecls = matcher.finditer(strippedContent)
-        for decl in matchedMacroDecls:
-            apiMembersInfo.append(parseApiMemberDeclarator(decl.expand(replace)))
-
-    return apiMembersInfo
-
-
-def main(parsedOptions):
-    """ Main script function.
-
-    The script generates header file with wrappers for all API functions from headers contained in specific directory.
-
-    :param parsedOptions: Arguments parsed by argparse.ArgumentParser class.
-    :return: Exit code for script.
-    :rtype: int
-    """
-    scanDirectory = parsedOptions.dir if parsedOptions.dir is not None and parsedOptions.dir != '' else os.curdir
-
-    apiMembersInfo = []
-
-    for scanDir, scanSubdirectories, scanFileNames in os.walk(scanDirectory):
-        for scanFileName in scanFileNames:
-            if headerFileNamePattern.match(scanFileName):
-                apiMembersInfo.extend(parseHeaderFile(os.path.join(scanDir, scanFileName)))
-
-    print r'''/*******************************************************************************
-* Copyright 2016 Intel Corporation
-*
-* Licensed under the Apache License, Version 2.0 (the "License");
-* you may not use this file except in compliance with the License.
-* You may obtain a copy of the License at
-*
-*     http://www.apache.org/licenses/LICENSE-2.0
-*
-* Unless required by applicable law or agreed to in writing, software
-* distributed under the License is distributed on an "AS IS" BASIS,
-* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
-* See the License for the specific language governing permissions and
-* limitations under the License.
-*******************************************************************************/
-
-/*********************************************************
- * AUTOGENERATED FILE; DO NOT EDIT
- ********************************************************/
-
-#ifdef _WIN32
-#include <windows.h>
-typedef HINSTANCE lib_handle_t;
-#define NULL_LIB 0
-#else
-#define _GNU_SOURCE /* for dlvsym() */
-#include <dlfcn.h>
-typedef void * lib_handle_t;
-#define NULL_LIB NULL
-#endif
-
-#include <assert.h>
-#include <stdio.h>
-
-#include "cldnn_prv.h"
-#include "cldnn/cldnn.h"
-
-static inline lib_handle_t load_library(const char *lib_name)
-{
-#ifdef _WIN32
-    return LoadLibraryEx(lib_name, NULL, 0);
-#else
-    return dlopen(lib_name, RTLD_LAZY | RTLD_GLOBAL);
-#endif
-}
-
-static inline void *load_symbol(const lib_handle_t lib,
-        const char *name)
-{
-#ifdef _WIN32
-    return GetProcAddress(lib, name);
-#else
-    return dlsym(lib, name);
-#endif
-}
-
-'''
-
-    for apiMemberInfo in apiMembersInfo:
-        if apiMemberInfo['isFunction']:
-            print '{0} (*{1}_fptr)({2}){5} = NULL;\n{0} {1}({4}){5} {{\n    assert({1}_fptr != NULL);\n    return {1}_fptr({3});\n}}\n'.format(
-                apiMemberInfo['returnType'],
-                apiMemberInfo['name'],
-                ', '.join([x['type'] for x in apiMemberInfo['params']]),
-                ', '.join([x['name'] for x in apiMemberInfo['params']]),
-                ', '.join([x['type'] + ' ' + x['name'] for x in apiMemberInfo['params']]),
-                (' ' + apiMemberInfo['attrs']) if len(apiMemberInfo['attrs']) > 0 else '')
-
-    print 'int cldnn_load_symbols(lib_handle_t handle) {'
-    for apiMemberInfo in apiMembersInfo:
-        if apiMemberInfo['isFunction']:
-            print '    {1}_fptr = ({0} (*)({2}){5}) load_symbol(handle, "{1}");\n    if ({1}_fptr == NULL) {{\n        return -1;\n    }}\n'.format(
-                apiMemberInfo['returnType'],
-                apiMemberInfo['name'],
-                ', '.join([x['type'] for x in apiMemberInfo['params']]),
-                ', '.join([x['name'] for x in apiMemberInfo['params']]),
-                ', '.join([x['type'] + ' ' + x['name'] for x in apiMemberInfo['params']]),
-                (' ' + apiMemberInfo['attrs']) if len(apiMemberInfo['attrs']) > 0 else '')
-    print '    return 0;\n}'
-
-    print r'''
-
-enum _lib_status {
-    lib_unloaded = 1,
-    lib_loaded = 0,
-    lib_failed = -1
-};
-
-int cldnn_load_lib(const char *lib_name)
-{
-    printf("begin cldnn_load_lib: %s\n", lib_name);
-    static int lib_status = lib_unloaded;
-    lib_handle_t lib_handle = NULL;
-
-    if (lib_status != lib_unloaded)
-        return lib_status;
-
-    lib_handle = load_library(lib_name);
-    if (lib_handle == NULL)
-    {
-        lib_status = lib_failed;
-        printf("Could not load library '%s'\n", lib_name);
-        return lib_status;
-    }
-
-    lib_status = cldnn_load_symbols(lib_handle) == 0 ? lib_loaded : lib_failed;
-    return lib_status;
-}
-'''
-
-
-if __name__ == "__main__":
-    optParser = argparse.ArgumentParser(description = 'Generates wrappers for all API functions contained in headers' +
-                                                      'of specific directory.')
-
-    optParser.add_argument('dir', metavar = '<dir>', type = str, default = None,
-                           help = 'Directory to scan for header files. Default/None specified:' +
-                                  ' current working directory.')
-    optParser.add_argument('--version', action = 'version', version = '%(prog)s 1.0')
-
-    options = optParser.parse_args()
-
-    exitCode = main(options)
-    optParser.exit(exitCode)
diff --git a/inference-engine/thirdparty/clDNN/version.json b/inference-engine/thirdparty/clDNN/version.json
deleted file mode 100644 (file)
index dfae4a9..0000000
+++ /dev/null
@@ -1,9 +0,0 @@
-# Please note that this file is parsed by simple parser written directly in CMake. Do not use advanced constructs.
-"version" :      
-{
-    "major": 1,            # clDNN major version (major version of API).
-    "minor": 4,            # clDNN minor version (correlated with major API version of Inference Engine).
-    "build": 24,           # clDNN build version (correlated with ordinal numeber of public release of clDNN).
-    "revision_base":    0, # Offset that will be subtracted from environment variable provided by build system.
-    "revision_min":    -1  # Minumum value of revision. Computed value of revision will be clamped from below by this value.
-}
\ No newline at end of file