Initial codes
authorTae-Young Chung <ty83.chung@samsung.com>
Thu, 4 Jul 2019 11:15:34 +0000 (20:15 +0900)
committerTae-Young Chung <ty83.chung@samsung.com>
Thu, 4 Jul 2019 11:29:35 +0000 (20:29 +0900)
Note that this initial code is under development and provides limited functionality.
In addition, OpenCV based implementation must be applied to vision specific purpose.

Signed-off-by: Tae-Young Chung <ty83.chung@samsung.com>
AUTHORS [new file with mode: 0644]
CMakeLists.txt [new file with mode: 0644]
LICENSE.APLv2 [new file with mode: 0644]
NOTICE [new file with mode: 0644]
README.md [new file with mode: 0644]
inference-engine-opencv.manifest [new file with mode: 0644]
packaging/inference-engine-opencv.spec [new file with mode: 0644]
src/inference_engine_opencv.cpp [new file with mode: 0644]
src/inference_engine_opencv_private.h [new file with mode: 0644]

diff --git a/AUTHORS b/AUTHORS
new file mode 100644 (file)
index 0000000..596e163
--- /dev/null
+++ b/AUTHORS
@@ -0,0 +1 @@
+Taeyoung Chung <ty83.chung@samsung.com>
\ No newline at end of file
diff --git a/CMakeLists.txt b/CMakeLists.txt
new file mode 100644 (file)
index 0000000..60a1e98
--- /dev/null
@@ -0,0 +1,99 @@
+
+CMAKE_MINIMUM_REQUIRED(VERSION 2.6)
+SET(fw_name "inference-engine-opencv")
+
+PROJECT(${fw_name})
+
+SET(CMAKE_INSTALL_PREFIX /usr)
+SET(PREFIX ${CMAKE_INSTALL_PREFIX})
+
+SET(INC_DIR "${PROJECT_SOURCE_DIR}/include")
+SET(dependents "dlog inference-engine-interface-vision inference-engine-interface-common")
+
+INCLUDE(FindPkgConfig)
+pkg_check_modules(${fw_name} REQUIRED ${dependents})
+FOREACH(flag ${${fw_name}_CFLAGS})
+    SET(EXTRA_CFLAGS "${EXTRA_CFLAGS} ${flag}")
+    SET(EXTRA_CXXFLAGS "${EXTRA_CXXFLAGS} ${flag}")
+ENDFOREACH(flag)
+
+FOREACH(flag ${${fw_name}_LDFLAGS})
+    SET(EXTRA_LDFLAGS "${EXTRA_LDFLAGS} ${flag}")
+ENDFOREACH(flag)
+#Remove leading whitespace POLICY CMP0004
+STRING(REGEX REPLACE "^ " "" EXTRA_LDFLAGS ${EXTRA_LDFLAGS})
+
+#OpenCV
+FIND_PACKAGE(OpenCV REQUIRED core dnn imgproc)
+if(NOT OpenCV_FOUND)
+    MESSAGE(SEND_ERROR "OpenCV NOT FOUND")
+    RETURN()
+else()
+     INCLUDE_DIRECTORIES(${OpenCV_INCLUDE_DIRS})
+endif()
+
+SET(CMAKE_C_FLAGS "-I./include -I./include/headers ${CMAKE_C_FLAGS} ${EXTRA_CFLAGS} -fPIC -Wall -w")
+SET(CMAKE_C_FLAGS_DEBUG "-O0 -g")
+
+SET(CMAKE_CXX_FLAGS "-I./include -I./include/headers ${CMAKE_CXX_FLAGS} ${EXTRA_CXXFLAGS} -fPIC")
+SET(CMAKE_CXX_FLAGS_DEBUG "-O0 -g --w")
+
+ADD_DEFINITIONS("-DPREFIX=\"${CMAKE_INSTALL_PREFIX}\"")
+ADD_DEFINITIONS("-DTIZEN_DEBUG")
+
+SET(CMAKE_EXE_LINKER_FLAGS "-Wl,--as-needed -Wl,--rpath=${LIB_INSTALL_DIR}")
+
+aux_source_directory(src SOURCES)
+ADD_LIBRARY(${fw_name} SHARED ${SOURCES})
+
+TARGET_LINK_LIBRARIES(${fw_name} ${OpenCV_LIBS} ${EXTRA_LDFLAGS})
+
+
+SET_TARGET_PROPERTIES(${fw_name}
+     PROPERTIES
+     CLEAN_DIRECT_OUTPUT 1
+)
+
+INSTALL(TARGETS ${fw_name} DESTINATION ${LIB_INSTALL_DIR})
+INSTALL(
+        DIRECTORY ${INC_DIR}/ DESTINATION include/media
+        FILES_MATCHING
+        PATTERN "*_private.h" EXCLUDE
+        PATTERN "*.h"
+        )
+
+SET(PC_NAME ${fw_name})
+SET(PC_REQUIRED ${pc_dependents})
+SET(PC_LDFLAGS -l${fw_name})
+SET(PC_CFLAGS -I\${includedir}/media)
+
+IF(UNIX)
+
+ADD_CUSTOM_TARGET (distclean @echo cleaning for source distribution)
+ADD_CUSTOM_COMMAND(
+        DEPENDS clean
+        COMMENT "distribution clean"
+        COMMAND find
+        ARGS    .
+        -not -name config.cmake -and \(
+        -name tester.c -or
+        -name Testing -or
+        -name CMakeFiles -or
+        -name cmake.depends -or
+        -name cmake.check_depends -or
+        -name CMakeCache.txt -or
+        -name cmake.check_cache -or
+        -name *.cmake -or
+        -name Makefile -or
+        -name core -or
+        -name core.* -or
+        -name gmon.out -or
+        -name install_manifest.txt -or
+        -name *.pc -or
+        -name *~ \)
+        | grep -v TC | xargs rm -rf
+        TARGET  distclean
+        VERBATIM
+)
+
+ENDIF(UNIX)
\ No newline at end of file
diff --git a/LICENSE.APLv2 b/LICENSE.APLv2
new file mode 100644 (file)
index 0000000..bbe9d02
--- /dev/null
@@ -0,0 +1,206 @@
+Copyright (c) 2000 - 2011 Samsung Electronics Co., Ltd. All rights reserved.\r
+\r
+                                 Apache License\r
+                           Version 2.0, January 2004\r
+                        http://www.apache.org/licenses/\r
+\r
+   TERMS AND CONDITIONS FOR USE, REPRODUCTION, AND DISTRIBUTION\r
+\r
+   1. Definitions.\r
+\r
+      "License" shall mean the terms and conditions for use, reproduction,\r
+      and distribution as defined by Sections 1 through 9 of this document.\r
+\r
+      "Licensor" shall mean the copyright owner or entity authorized by\r
+      the copyright owner that is granting the License.\r
+\r
+      "Legal Entity" shall mean the union of the acting entity and all\r
+      other entities that control, are controlled by, or are under common\r
+      control with that entity. For the purposes of this definition,\r
+      "control" means (i) the power, direct or indirect, to cause the\r
+      direction or management of such entity, whether by contract or\r
+      otherwise, or (ii) ownership of fifty percent (50%) or more of the\r
+      outstanding shares, or (iii) beneficial ownership of such entity.\r
+\r
+      "You" (or "Your") shall mean an individual or Legal Entity\r
+      exercising permissions granted by this License.\r
+\r
+      "Source" form shall mean the preferred form for making modifications,\r
+      including but not limited to software source code, documentation\r
+      source, and configuration files.\r
+\r
+      "Object" form shall mean any form resulting from mechanical\r
+      transformation or translation of a Source form, including but\r
+      not limited to compiled object code, generated documentation,\r
+      and conversions to other media types.\r
+\r
+      "Work" shall mean the work of authorship, whether in Source or\r
+      Object form, made available under the License, as indicated by a\r
+      copyright notice that is included in or attached to the work\r
+      (an example is provided in the Appendix below).\r
+\r
+      "Derivative Works" shall mean any work, whether in Source or Object\r
+      form, that is based on (or derived from) the Work and for which the\r
+      editorial revisions, annotations, elaborations, or other modifications\r
+      represent, as a whole, an original work of authorship. For the purposes\r
+      of this License, Derivative Works shall not include works that remain\r
+      separable from, or merely link (or bind by name) to the interfaces of,\r
+      the Work and Derivative Works thereof.\r
+\r
+      "Contribution" shall mean any work of authorship, including\r
+      the original version of the Work and any modifications or additions\r
+      to that Work or Derivative Works thereof, that is intentionally\r
+      submitted to Licensor for inclusion in the Work by the copyright owner\r
+      or by an individual or Legal Entity authorized to submit on behalf of\r
+      the copyright owner. For the purposes of this definition, "submitted"\r
+      means any form of electronic, verbal, or written communication sent\r
+      to the Licensor or its representatives, including but not limited to\r
+      communication on electronic mailing lists, source code control systems,\r
+      and issue tracking systems that are managed by, or on behalf of, the\r
+      Licensor for the purpose of discussing and improving the Work, but\r
+      excluding communication that is conspicuously marked or otherwise\r
+      designated in writing by the copyright owner as "Not a Contribution."\r
+\r
+      "Contributor" shall mean Licensor and any individual or Legal Entity\r
+      on behalf of whom a Contribution has been received by Licensor and\r
+      subsequently incorporated within the Work.\r
+\r
+   2. Grant of Copyright License. Subject to the terms and conditions of\r
+      this License, each Contributor hereby grants to You a perpetual,\r
+      worldwide, non-exclusive, no-charge, royalty-free, irrevocable\r
+      copyright license to reproduce, prepare Derivative Works of,\r
+      publicly display, publicly perform, sublicense, and distribute the\r
+      Work and such Derivative Works in Source or Object form.\r
+\r
+   3. Grant of Patent License. Subject to the terms and conditions of\r
+      this License, each Contributor hereby grants to You a perpetual,\r
+      worldwide, non-exclusive, no-charge, royalty-free, irrevocable\r
+      (except as stated in this section) patent license to make, have made,\r
+      use, offer to sell, sell, import, and otherwise transfer the Work,\r
+      where such license applies only to those patent claims licensable\r
+      by such Contributor that are necessarily infringed by their\r
+      Contribution(s) alone or by combination of their Contribution(s)\r
+      with the Work to which such Contribution(s) was submitted. If You\r
+      institute patent litigation against any entity (including a\r
+      cross-claim or counterclaim in a lawsuit) alleging that the Work\r
+      or a Contribution incorporated within the Work constitutes direct\r
+      or contributory patent infringement, then any patent licenses\r
+      granted to You under this License for that Work shall terminate\r
+      as of the date such litigation is filed.\r
+\r
+   4. Redistribution. You may reproduce and distribute copies of the\r
+      Work or Derivative Works thereof in any medium, with or without\r
+      modifications, and in Source or Object form, provided that You\r
+      meet the following conditions:\r
+\r
+      (a) You must give any other recipients of the Work or\r
+          Derivative Works a copy of this License; and\r
+\r
+      (b) You must cause any modified files to carry prominent notices\r
+          stating that You changed the files; and\r
+\r
+      (c) You must retain, in the Source form of any Derivative Works\r
+          that You distribute, all copyright, patent, trademark, and\r
+          attribution notices from the Source form of the Work,\r
+          excluding those notices that do not pertain to any part of\r
+          the Derivative Works; and\r
+\r
+      (d) If the Work includes a "NOTICE" text file as part of its\r
+          distribution, then any Derivative Works that You distribute must\r
+          include a readable copy of the attribution notices contained\r
+          within such NOTICE file, excluding those notices that do not\r
+          pertain to any part of the Derivative Works, in at least one\r
+          of the following places: within a NOTICE text file distributed\r
+          as part of the Derivative Works; within the Source form or\r
+          documentation, if provided along with the Derivative Works; or,\r
+          within a display generated by the Derivative Works, if and\r
+          wherever such third-party notices normally appear. The contents\r
+          of the NOTICE file are for informational purposes only and\r
+          do not modify the License. You may add Your own attribution\r
+          notices within Derivative Works that You distribute, alongside\r
+          or as an addendum to the NOTICE text from the Work, provided\r
+          that such additional attribution notices cannot be construed\r
+          as modifying the License.\r
+\r
+      You may add Your own copyright statement to Your modifications and\r
+      may provide additional or different license terms and conditions\r
+      for use, reproduction, or distribution of Your modifications, or\r
+      for any such Derivative Works as a whole, provided Your use,\r
+      reproduction, and distribution of the Work otherwise complies with\r
+      the conditions stated in this License.\r
+\r
+   5. Submission of Contributions. Unless You explicitly state otherwise,\r
+      any Contribution intentionally submitted for inclusion in the Work\r
+      by You to the Licensor shall be under the terms and conditions of\r
+      this License, without any additional terms or conditions.\r
+      Notwithstanding the above, nothing herein shall supersede or modify\r
+      the terms of any separate license agreement you may have executed\r
+      with Licensor regarding such Contributions.\r
+\r
+   6. Trademarks. This License does not grant permission to use the trade\r
+      names, trademarks, service marks, or product names of the Licensor,\r
+      except as required for reasonable and customary use in describing the\r
+      origin of the Work and reproducing the content of the NOTICE file.\r
+\r
+   7. Disclaimer of Warranty. Unless required by applicable law or\r
+      agreed to in writing, Licensor provides the Work (and each\r
+      Contributor provides its Contributions) on an "AS IS" BASIS,\r
+      WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or\r
+      implied, including, without limitation, any warranties or conditions\r
+      of TITLE, NON-INFRINGEMENT, MERCHANTABILITY, or FITNESS FOR A\r
+      PARTICULAR PURPOSE. You are solely responsible for determining the\r
+      appropriateness of using or redistributing the Work and assume any\r
+      risks associated with Your exercise of permissions under this License.\r
+\r
+   8. Limitation of Liability. In no event and under no legal theory,\r
+      whether in tort (including negligence), contract, or otherwise,\r
+      unless required by applicable law (such as deliberate and grossly\r
+      negligent acts) or agreed to in writing, shall any Contributor be\r
+      liable to You for damages, including any direct, indirect, special,\r
+      incidental, or consequential damages of any character arising as a\r
+      result of this License or out of the use or inability to use the\r
+      Work (including but not limited to damages for loss of goodwill,\r
+      work stoppage, computer failure or malfunction, or any and all\r
+      other commercial damages or losses), even if such Contributor\r
+      has been advised of the possibility of such damages.\r
+\r
+   9. Accepting Warranty or Additional Liability. While redistributing\r
+      the Work or Derivative Works thereof, You may choose to offer,\r
+      and charge a fee for, acceptance of support, warranty, indemnity,\r
+      or other liability obligations and/or rights consistent with this\r
+      License. However, in accepting such obligations, You may act only\r
+      on Your own behalf and on Your sole responsibility, not on behalf\r
+      of any other Contributor, and only if You agree to indemnify,\r
+      defend, and hold each Contributor harmless for any liability\r
+      incurred by, or claims asserted against, such Contributor by reason\r
+      of your accepting any such warranty or additional liability.\r
+\r
+   END OF TERMS AND CONDITIONS\r
+\r
+   APPENDIX: How to apply the Apache License to your work.\r
+\r
+      To apply the Apache License to your work, attach the following\r
+      boilerplate notice, with the fields enclosed by brackets "[]"\r
+      replaced with your own identifying information. (Don't include\r
+      the brackets!)  The text should be enclosed in the appropriate\r
+      comment syntax for the file format. We also recommend that a\r
+      file or class name and description of purpose be included on the\r
+      same "printed page" as the copyright notice for easier\r
+      identification within third-party archives.\r
+\r
+   Copyright [yyyy] [name of copyright owner]\r
+\r
+   Licensed under the Apache License, Version 2.0 (the "License");\r
+   you may not use this file except in compliance with the License.\r
+   You may obtain a copy of the License at\r
+\r
+       http://www.apache.org/licenses/LICENSE-2.0\r
+\r
+   Unless required by applicable law or agreed to in writing, software\r
+   distributed under the License is distributed on an "AS IS" BASIS,\r
+   WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.\r
+   See the License for the specific language governing permissions and\r
+   limitations under the License.\r
+\r
+\r
+\r
diff --git a/NOTICE b/NOTICE
new file mode 100644 (file)
index 0000000..0e0f016
--- /dev/null
+++ b/NOTICE
@@ -0,0 +1,3 @@
+Copyright (c) Samsung Electronics Co., Ltd. All rights reserved.
+Except as noted, this software is licensed under Apache License, Version 2.
+Please, see the LICENSE.APLv2 file for Apache License terms and conditions.
diff --git a/README.md b/README.md
new file mode 100644 (file)
index 0000000..194ea88
--- /dev/null
+++ b/README.md
@@ -0,0 +1,2 @@
+# inference-engine-opencv
+This is OpenCV based implementation of inference-engine-interface
\ No newline at end of file
diff --git a/inference-engine-opencv.manifest b/inference-engine-opencv.manifest
new file mode 100644 (file)
index 0000000..a76fdba
--- /dev/null
@@ -0,0 +1,5 @@
+<manifest>
+       <request>
+               <domain name="_" />
+       </request>
+</manifest>
diff --git a/packaging/inference-engine-opencv.spec b/packaging/inference-engine-opencv.spec
new file mode 100644 (file)
index 0000000..c4cd8c1
--- /dev/null
@@ -0,0 +1,47 @@
+Name:       inference-engine-opencv
+Summary:    OpenCV based implementation of inference-engine-interface
+Version:    0.0.1
+Release:    1
+Group:      Multimedia/Libraries
+License:    Apache-2.0
+Source0:    %{name}-%{version}.tar.gz
+Requires(post): /sbin/ldconfig
+Requires(postun): /sbin/ldconfig
+BuildRequires: cmake
+BuildRequires: pkgconfig(dlog)
+BuildRequires: pkgconfig(opencv) >= 3.4.1
+BuildRequires: pkgconfig(inference-engine-interface-vision)
+BuildRequires: pkgconfig(inference-engine-interface-common)
+
+%description
+OpenCV based implementation of inference-engine-interface
+
+
+%prep
+%setup -q
+
+%build
+%if 0%{?sec_build_binary_debug_enable}
+export CFLAGS="$CFLAGS -DTIZEN_DEBUG_ENABLE"
+export CXXFLAGS="$CXXFLAGS -DTIZEN_DEBUG_ENABLE"
+export FFLAGS="$FFLAGS -DTIZEN_DEBUG_ENABLE"
+%endif
+
+#MAJORVER=`echo %{version} | awk 'BEGIN {FS="."}{print $1}'`
+%cmake .
+
+make %{?jobs:-j%jobs}
+
+%install
+rm -rf %{buildroot}
+
+%make_install
+
+%post -p /sbin/ldconfig
+%postun -p /sbin/ldconfig
+
+%files
+%manifest %{name}.manifest
+%license LICENSE.APLv2
+%defattr(-,root,root,-)
+%{_libdir}/*.so
diff --git a/src/inference_engine_opencv.cpp b/src/inference_engine_opencv.cpp
new file mode 100644 (file)
index 0000000..119e9d1
--- /dev/null
@@ -0,0 +1,431 @@
+/**
+ * Copyright (c) 2019 Samsung Electronics Co., Ltd All Rights Reserved
+ *
+ * Licensed under the Apache License, Version 2.0 (the "License");
+ * you may not use this file except in compliance with the License.
+ * You may obtain a copy of the License at
+ *
+ * http://www.apache.org/licenses/LICENSE-2.0
+ *
+ * Unless required by applicable law or agreed to in writing, software
+ * distributed under the License is distributed on an "AS IS" BASIS,
+ * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
+ * See the License for the specific language governing permissions and
+ * limitations under the License.
+ */
+
+#include <inference_engine_error.h>
+#include "inference_engine_opencv_private.h"
+
+#include <opencv2/core/ocl.hpp>
+
+#include <fstream>
+#include <iostream>
+#include <unistd.h>
+#include <time.h>
+
+namespace InferenceEngineImpl {
+namespace OpenCVImpl {
+
+InferenceOpenCV::InferenceOpenCV(std::string protoFile, std::string weightFile, 
+    std::string userFile) :
+    mNet(),
+    mConfigFile(protoFile),
+    mWeightFile(weightFile),
+    mUserFile(userFile)
+{
+    LOGE("ENTER");
+    LOGE("LEAVE");
+}
+
+InferenceOpenCV::~InferenceOpenCV()
+{
+    ;
+}
+
+int InferenceOpenCV::SetUserFile()
+{
+    std::ifstream fp(mUserFile.c_str());
+    if (!fp.is_open()) {
+        return INFERENCE_ENGINE_ERROR_INVALID_PATH;
+    }
+
+    std::string userListName;
+    while (!fp.eof()) {
+        std::getline(fp, userListName);
+        if (userListName.length())
+            SetUserListName(userListName);
+    }
+
+    fp.close();
+
+    return INFERENCE_ENGINE_ERROR_NONE;
+}
+
+int InferenceOpenCV::SetInputTensorParam()
+{
+    LOGE("Not supported");
+    return INFERENCE_ENGINE_ERROR_NOT_SUPPORTED;
+}
+
+int InferenceOpenCV::SetInputTensorParamInput(int width, int height, int dim, int ch)
+{
+    mCh = ch;
+    mDim = dim;
+    mInputSize = cv::Size(width, height);
+
+    LOGE("InputSize is %d x %d\n", mInputSize.width, mInputSize.height);
+
+    return INFERENCE_ENGINE_ERROR_NONE;
+}
+
+int InferenceOpenCV::SetInputTensorParamNorm(double deviation, double mean)
+{
+    mDeviation = deviation;
+    mMean = mean;
+
+    return INFERENCE_ENGINE_ERROR_NONE;
+}
+
+int InferenceOpenCV::SetInputTensorParamNode(std::string node)
+{
+    return INFERENCE_ENGINE_ERROR_NONE;
+}
+
+int InferenceOpenCV::SetOutputTensorParam()
+{
+    return INFERENCE_ENGINE_ERROR_NOT_SUPPORTED;
+}
+
+int InferenceOpenCV::SetOutputTensorParamThresHold(double threshold)
+{
+    mThreshold = threshold;
+
+    return INFERENCE_ENGINE_ERROR_NONE;
+}
+
+int InferenceOpenCV::SetOutputTensorParamNumbers(int number)
+{
+    mOutputNumbers = number;
+
+    return INFERENCE_ENGINE_ERROR_NONE;
+}
+
+int InferenceOpenCV::SetOutputTensorParamType(int type)
+{
+    return INFERENCE_ENGINE_ERROR_NONE;
+}
+
+int InferenceOpenCV::SetOutPutTensorParamNodes(std::string node)
+{
+    return INFERENCE_ENGINE_ERROR_NONE;
+}
+
+int InferenceOpenCV::SetTargetDevice(inference_target_type_e type)
+{
+    switch (type) {
+    case INFERENCE_TARGET_CPU :
+        mNet.setPreferableTarget(cv::dnn::DNN_TARGET_CPU);
+        break;
+    case INFERENCE_TARGET_GPU :
+        mNet.setPreferableTarget(cv::dnn::DNN_TARGET_OPENCL);
+        break;
+    case INFERENCE_TARGET_NONE:
+    default:
+        LOGE("Not supported device type [%d], Set CPU mode", (int)type);
+        mNet.setPreferableTarget(cv::dnn::DNN_TARGET_CPU);
+    }
+
+    return INFERENCE_ENGINE_ERROR_NONE;
+}
+
+int InferenceOpenCV::Load()
+{
+    int ret = INFERENCE_ENGINE_ERROR_NONE;
+
+    if (access(mConfigFile.c_str(), F_OK) || 
+        access(mWeightFile.c_str(), F_OK)) {
+        LOGE("protofile in [%s] ", mConfigFile.c_str());
+        LOGE("weightFilePath in [%s] ", mWeightFile.c_str());
+               return INFERENCE_ENGINE_ERROR_INVALID_PATH;
+       }
+
+    size_t userFileLength = mUserFile.length();
+    if (userFileLength > 0 && access(mUserFile.c_str(), F_OK)) {
+        LOGE("userFilePath in [%s] ", mUserFile.c_str());
+               return INFERENCE_ENGINE_ERROR_INVALID_PATH;
+       }
+
+    // This call may be changed if OpenCV version would be upgraded
+    mNet = cv::dnn::readNetFromCaffe(mConfigFile, mWeightFile);
+
+    if (mNet.empty()) {
+        LOGE("Net is empty");
+        return INFERENCE_ENGINE_ERROR_INVALID_DATA;
+    }
+
+    ret = (userFileLength > 0) ? SetUserFile() : INFERENCE_ENGINE_ERROR_NONE;
+    if (ret != INFERENCE_ENGINE_ERROR_NONE)
+        LOGE("Fail to read categoryList");
+
+    return ret;
+}
+
+int InferenceOpenCV::CreateInputLayerPassage()
+{
+    return INFERENCE_ENGINE_ERROR_NOT_SUPPORTED;
+}
+
+int InferenceOpenCV::PrepareInputLayerPassage()
+{
+    return INFERENCE_ENGINE_ERROR_NOT_SUPPORTED;
+}
+
+int InferenceOpenCV::PrepareInputLayerPassage(inference_input_type_e type)
+{
+    return INFERENCE_ENGINE_ERROR_NOT_SUPPORTED;
+}
+
+int InferenceOpenCV::Run(cv::Mat tensor)
+{
+    double scaleVal = 1.0/mDeviation;
+    mSourceSize = tensor.size();
+    cv::Scalar meanScalar = cv::Scalar((float)mMean,(float)mMean, (float)mMean);
+
+    mInputBlob = cv::dnn::blobFromImage(tensor, scaleVal, mInputSize, meanScalar, false, false);
+
+    if (mInputBlob.empty()) {
+        LOGE("Fail to get input blob");
+        return INFERENCE_ENGINE_ERROR_INTERNAL;
+    }
+
+    mNet.setInput(mInputBlob);
+
+    /* foward */
+    mOutputProb = mNet.forward();
+    /* TODO */
+    // std::vector<cv::Mat> mOutputProb, 
+    // std::vector<std::string> mOuputLayer;
+    // mNet.forward(mOutputProb, mOutputLayer);
+
+    if (mOutputProb.empty()) {
+        LOGE("OutputProb is empty");
+        return INFERENCE_ENGINE_ERROR_INTERNAL;
+    }
+
+    return INFERENCE_ENGINE_ERROR_NONE;
+}
+
+int InferenceOpenCV::Run(std::vector<float> tensor)
+{
+    return INFERENCE_ENGINE_ERROR_NONE;
+}
+
+int InferenceOpenCV::GetInferenceResult(ImageClassificationResults& results)
+{
+    int dims = mOutputProb.dims;
+    for (int k = 0; k < dims; ++k) {
+        LOGE("%d: %d", k, mOutputProb.size[k]);
+    }
+    LOGI("dims: %d", dims);
+    cv::Mat reShapedProb = mOutputProb.reshape(1,1);
+
+
+    int classIdx = -1;
+    double classProb = 0.0;
+
+    cv::Mat outputIdx, outputProb;
+
+    cv::sortIdx(reShapedProb, outputIdx, CV_SORT_EVERY_ROW + CV_SORT_DESCENDING);
+
+    for (int idx = 0; idx < mOutputNumbers; ++idx) {
+        classIdx = outputIdx.at<int>(0,idx);
+        int y = classIdx / reShapedProb.cols;
+        int x = classIdx % reShapedProb.cols;
+
+        classProb = (double)reShapedProb.at<float>(y,x);
+        results.indices.push_back(classIdx);
+        results.confidences.push_back(classProb);
+        LOGI("classIdx: %d", classIdx);
+        LOGI("classProb: %lf", classProb);
+        LOGI("test....");
+        LOGI("names: %s", mUserListName[classIdx].c_str());
+        results.names.push_back(mUserListName[classIdx]);
+        
+    }
+
+    results.number_of_classes = mOutputNumbers;
+
+    return INFERENCE_ENGINE_ERROR_NONE;
+}
+
+int InferenceOpenCV::GetInferenceResult(ObjectDetectionResults& results)
+{
+    int dims = mOutputProb.dims;
+    for (int k = 0; k < dims; ++k) {
+        LOGE("%d: %d", k, mOutputProb.size[k]);
+    }
+    LOGI("dims: %d", dims);
+    cv::Mat detectionMat(mOutputProb.size[2], mOutputProb.size[3], CV_32F, mOutputProb.ptr<float>());
+
+    float confidence;
+    size_t objectClass;
+    int left, top, right, bottom;
+    cv::Rect loc;
+    for(int i = 0; i < detectionMat.rows; i++) {
+        confidence = detectionMat.at<float>(i, 2);
+
+        if(confidence > (float)mThreshold) {
+            objectClass = (size_t)(detectionMat.at<float>(i, 1));
+
+            left = static_cast<int>(detectionMat.at<float>(i, 3) * mSourceSize.width);
+            top = static_cast<int>(detectionMat.at<float>(i, 4) * mSourceSize.height);
+            right = static_cast<int>(detectionMat.at<float>(i, 5) * mSourceSize.width);
+            bottom = static_cast<int>(detectionMat.at<float>(i, 6) * mSourceSize.height);
+
+            loc.x = left;
+            loc.y = top;
+            loc.width = right - left + 1;
+            loc.height = bottom - top + 1;
+
+            //classNames[objectClass];
+            LOGE("objectClass: %d", objectClass);
+            LOGE("confidence:%f", confidence);
+            LOGE("left:%d, top:%d, right:%d, bottom:%d", left, top, right, bottom);
+
+            results.indices.push_back(objectClass);
+            results.confidences.push_back(confidence);
+            results.names.push_back(mUserListName[objectClass]);
+            results.locations.push_back(loc);
+        }
+    }
+
+    results.number_of_objects = results.indices.size();
+
+    return INFERENCE_ENGINE_ERROR_NONE;
+}
+
+int InferenceOpenCV::GetInferenceResult(FaceDetectionResults& results)
+{
+    int dims = mOutputProb.dims;
+    for (int k = 0; k < dims; ++k) {
+        LOGE("%d: %d", k, mOutputProb.size[k]);
+    }
+    LOGI("dims: %d", dims);
+
+    cv::Mat detectionMat(mOutputProb.size[2], mOutputProb.size[3], CV_32F, mOutputProb.ptr<float>());
+
+    float confidence;
+    int left, top, right, bottom;
+    cv::Rect loc;
+    for(int i = 0; i < detectionMat.rows; i++) {
+        confidence = detectionMat.at<float>(i, 2);
+
+        if(confidence > (float)mThreshold) {
+            left = static_cast<int>(detectionMat.at<float>(i, 3) * mSourceSize.width);
+            top = static_cast<int>(detectionMat.at<float>(i, 4) * mSourceSize.height);
+            right = static_cast<int>(detectionMat.at<float>(i, 5) * mSourceSize.width);
+            bottom = static_cast<int>(detectionMat.at<float>(i, 6) * mSourceSize.height);
+
+            loc.x = left;
+            loc.y = top;
+            loc.width = right - left + 1;
+            loc.height = bottom - top + 1;
+
+            //classNames[objectClass];
+            LOGE("confidence:%f", confidence);
+            LOGE("left:%d, top:%d, right:%d, bottom:%d", left, top, right, bottom);
+
+            results.confidences.push_back(confidence);
+            results.locations.push_back(loc);
+        }
+    }
+
+    results.number_of_faces = results.locations.size();
+
+    return INFERENCE_ENGINE_ERROR_NONE;
+}
+
+int InferenceOpenCV::GetInferenceResult(FacialLandMarkDetectionResults& results)
+{
+    int dims = mOutputProb.dims;
+    for (int k = 0; k < dims; ++k) {
+        LOGE("%d: %d", k, mOutputProb.size[k]);
+    }
+    LOGI("dims: %d", dims);
+
+    cv::Mat outputs = mOutputProb.reshape(1,1);
+
+    int number_of_landmarks = (outputs.cols >> 1);
+
+    int pos = 0;
+    cv::Point pint;
+    for (int idx = 0; idx < number_of_landmarks; ++idx) {
+        pos = (idx << 1);
+        pint.x = static_cast<int>((outputs.at<float>(0, pos) + 0.5) * mSourceSize.width);
+        pint.y = static_cast<int>((outputs.at<float>(0, pos+1) + 0.5) * mSourceSize.height);
+
+        results.locations.push_back(pint);
+        LOGI("x:%d, y:%d", pint.x, pint.y);
+    }
+
+    results.number_of_landmarks = number_of_landmarks;
+
+    return INFERENCE_ENGINE_ERROR_NONE;
+}
+
+int InferenceOpenCV::GetInferenceResult(std::vector<std::vector<int>>& dimInfo, std::vector<float*>& results)
+{
+    dimInfo.clear();
+    results.clear();
+
+    int dims = mOutputProb.dims;
+    std::vector<int> tmpDimInfo;
+    for (int d = 0; d < dims; ++d) {
+        tmpDimInfo.push_back(mOutputProb.size[d]); 
+    }
+
+    dimInfo.push_back(tmpDimInfo);
+    results.push_back(mOutputProb.ptr<float>());
+
+    return INFERENCE_ENGINE_ERROR_NONE;
+}
+
+int InferenceOpenCV::GetNumberOfOutputs()
+{
+    return mOutputNumbers;
+}
+
+void InferenceOpenCV::SetUserListName(std::string userlist)
+{
+    mUserListName.push_back(userlist);
+}
+
+extern "C"
+{
+class IInferenceEngineVision* EngineVisionInit(std::string protoFile, std::string weightFile,
+    std::string userFile)
+{
+    InferenceOpenCV *engine = new InferenceOpenCV(protoFile, weightFile, userFile);
+    return engine;
+}
+
+void EngineVisionDestroy(class IInferenceEngineVision *engine)
+{
+    delete engine;
+}
+
+class IInferenceEngineCommon* EngineCommonInit(std::string protoFile, std::string weightFile,
+    std::string userFile)
+{
+    InferenceOpenCV *engine = new InferenceOpenCV(protoFile, weightFile, userFile);
+    return engine;
+}
+
+void EngineCommonDestroy(class IInferenceEngineCommon *engine)
+{
+   delete engine;
+}
+}
+} /* OpenCVImpl */
+} /* InferenceEngineImpl */
\ No newline at end of file
diff --git a/src/inference_engine_opencv_private.h b/src/inference_engine_opencv_private.h
new file mode 100644 (file)
index 0000000..3e7acc8
--- /dev/null
@@ -0,0 +1,130 @@
+/**
+ * Copyright (c) 2019 Samsung Electronics Co., Ltd All Rights Reserved
+ *
+ * Licensed under the Apache License, Version 2.0 (the "License");
+ * you may not use this file except in compliance with the License.
+ * You may obtain a copy of the License at
+ *
+ * http://www.apache.org/licenses/LICENSE-2.0
+ *
+ * Unless required by applicable law or agreed to in writing, software
+ * distributed under the License is distributed on an "AS IS" BASIS,
+ * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
+ * See the License for the specific language governing permissions and
+ * limitations under the License.
+ */
+
+#ifndef __INFERENCE_ENGINE_IMPL_OPENCV_H__
+#define __INFERENCE_ENGINE_IMPL_OPENCV_H__
+
+#include <inference_engine_common.h>
+#include <inference_engine_vision.h>
+
+#include <opencv2/dnn.hpp>
+#include <opencv2/imgproc.hpp>
+
+#include <dlog/dlog.h>
+/**
+ * @file inference_engine_opencv_private.h
+ * @brief This file contains the InferenceOpenCV class which
+ *        provide OpenCV based inference functionality
+ */
+
+#ifdef LOG_TAG
+#undef LOG_TAG
+#endif
+
+#define LOG_TAG "INFERENCE_ENGINE_OPENCV"
+
+using namespace InferenceEngineInterface::Vision;
+using namespace InferenceEngineInterface::Common;
+
+namespace InferenceEngineImpl {
+namespace OpenCVImpl {
+
+class InferenceOpenCV : public IInferenceEngineVision, public IInferenceEngineCommon {
+public:
+    InferenceOpenCV(std::string protoFile,
+                    std::string weightFile,
+                    std::string userFile);
+
+    ~InferenceOpenCV();
+
+    // Input Tensor Params
+
+    int SetInputTensorParam() override;
+
+    int SetInputTensorParamNode(std::string node = "input") override;
+
+    int SetInputTensorParamInput(int width, int height, int dim, int ch) override;
+
+    int SetInputTensorParamNorm(double deviation = 1.0, double mean = 0.0) override;
+
+    // Output Tensor Params
+    int SetOutputTensorParam() override;
+
+    int SetOutputTensorParamThresHold(double threshold) override;
+
+    int SetOutputTensorParamNumbers(int number) override;
+
+    int SetOutputTensorParamType(int type) override;
+
+    int SetOutPutTensorParamNodes(std::string node) override;
+
+    int SetTargetDevice(inference_target_type_e type) override;
+
+    int Load() override;
+
+    int CreateInputLayerPassage() override;
+
+    int PrepareInputLayerPassage() override;
+
+    int PrepareInputLayerPassage(inference_input_type_e type) override;
+
+    int Run(cv::Mat tensor) override;
+
+    int Run(std::vector<float> tensor) override;
+
+    int GetInferenceResult(ImageClassificationResults& results) override;
+
+    int GetInferenceResult(ObjectDetectionResults& results) override;
+
+    int GetInferenceResult(FaceDetectionResults& results) override;
+
+    int GetInferenceResult(FacialLandMarkDetectionResults& results) override;
+
+    int GetInferenceResult(std::vector<std::vector<int>>& dimInfo, std::vector<float*>& results);
+
+    int GetNumberOfOutputs() override;
+
+    void SetUserListName(std::string userList) override;
+
+public:
+    int SetUserFile();
+    int setInput(cv::Mat cvImg);
+    
+private:
+    cv::Mat mInputBlob;
+    cv::Mat mOutputProb;
+    cv::dnn::Net mNet; /**< Network associated with a network model */
+
+    int mCh;
+    int mDim;
+    cv::Size mInputSize; /**< input tensor size */
+
+    double mDeviation;
+    double mMean;
+    double mThreshold;
+    int mOutputNumbers;
+    cv::Size mSourceSize; /**< input image's size */
+
+    std::string mConfigFile;
+    std::string mWeightFile;
+    std::string mUserFile;
+    std::vector<std::string> mUserListName;
+};
+
+} /* InferenceEngineImpl */
+} /* TFImpl */
+
+#endif /* __MEDIA_VISION_INFERENCE_OPENCV_H__ */
\ No newline at end of file