Removed deprecated error listener, getmappedtopology (#915)
authorIlya Lavrenov <ilya.lavrenov@intel.com>
Tue, 16 Jun 2020 12:06:48 +0000 (15:06 +0300)
committerGitHub <noreply@github.com>
Tue, 16 Jun 2020 12:06:48 +0000 (15:06 +0300)
43 files changed:
inference-engine/ie_bridges/python/src/openvino/inference_engine/ie_api.pyx
inference-engine/ie_bridges/python/src/openvino/inference_engine/ie_api_impl.cpp
inference-engine/ie_bridges/python/src/openvino/inference_engine/ie_api_impl.hpp
inference-engine/include/cpp/ie_cnn_network.h
inference-engine/include/cpp/ie_executable_network.hpp
inference-engine/include/ie_core.hpp
inference-engine/include/ie_error.hpp [deleted file]
inference-engine/include/ie_extension.h
inference-engine/include/ie_iexecutable_network.hpp
inference-engine/include/ie_iextension.h
inference-engine/include/ie_plugin.hpp
inference-engine/include/ie_primitive_info.hpp [deleted file]
inference-engine/include/ie_tensor_info.hpp [deleted file]
inference-engine/include/inference_engine.hpp
inference-engine/src/inference_engine/ie_core.cpp
inference-engine/src/legacy_api/src/ie_deprecated.cpp
inference-engine/src/plugin_api/cpp_interfaces/base/ie_executable_network_base.hpp
inference-engine/src/plugin_api/cpp_interfaces/base/ie_plugin_base.hpp
inference-engine/tests/functional/inference_engine/cnn_network_test.cpp
inference-engine/tests/functional/inference_engine/extension_lib/include/extension.hpp
inference-engine/tests/ie_test_utils/unit_test_utils/empty.cpp
inference-engine/tests/ie_test_utils/unit_test_utils/mocks/cpp_interfaces/impl/mock_executable_network_internal.hpp
inference-engine/tests/ie_test_utils/unit_test_utils/mocks/cpp_interfaces/impl/mock_executable_thread_safe_async_only.hpp
inference-engine/tests/ie_test_utils/unit_test_utils/mocks/cpp_interfaces/impl/mock_executable_thread_safe_default.hpp
inference-engine/tests/ie_test_utils/unit_test_utils/mocks/cpp_interfaces/interface/mock_iexecutable_network_internal.hpp
inference-engine/tests/ie_test_utils/unit_test_utils/mocks/cpp_interfaces/mock_plugin_impl.hpp
inference-engine/tests/ie_test_utils/unit_test_utils/mocks/mock_engine/mock_plugin.cpp
inference-engine/tests/ie_test_utils/unit_test_utils/mocks/mock_engine/mock_plugin.hpp
inference-engine/tests/ie_test_utils/unit_test_utils/mocks/mock_error_listener.hpp [deleted file]
inference-engine/tests/ie_test_utils/unit_test_utils/mocks/mock_iexecutable_network.hpp
inference-engine/tests/ie_test_utils/unit_test_utils/mocks/mock_iinference_plugin.hpp
inference-engine/tests/ie_test_utils/unit_test_utils/mocks/shape_infer/mock_shape_infer_extension.hpp
inference-engine/tests/unit/inference_engine/ie_executable_network_test.cpp
inference-engine/tests/unit/inference_engine/ie_plugin_ptr.cpp
inference-engine/tests_deprecated/functional/mkldnn/extensions_tests/extensions_test.cpp
inference-engine/tests_deprecated/functional/shared_tests/ie_class/ie_class.hpp
inference-engine/tests_deprecated/functional/shared_tests/transformations/low_precision_transformer_single_layer_tests.hpp
inference-engine/tests_deprecated/functional/shared_tests/transformations/pooling_test.cpp
inference-engine/tests_deprecated/functional/shared_tests/transformations/power_test.cpp
inference-engine/tests_deprecated/functional/shared_tests/transformations/single_layer_transformations_test.cpp
inference-engine/tests_deprecated/unit/engines/mkldnn/constant_propagation_test.cpp
inference-engine/tests_deprecated/unit/engines/mkldnn/graph/layers/extensions/graph_generic_test.cpp
inference-engine/tests_deprecated/unit/engines/mkldnn/graph/layers/internal/graph_reorder_test.cpp

index 5815093..d367241 100644 (file)
@@ -1567,18 +1567,6 @@ cdef class IENetwork:
     def batch_size(self):
         return self.impl.getBatch()
 
-    ## \note This property is deprecated:
-    #  network precision does not make sense, use precision on edges.
-    #
-    #  Precision of the network
-    @property
-    def precision(self):
-        warnings.warn("Network precision is deprecated "
-                      "because it does not make sence, "
-                      "use precision on egdes.",
-                      DeprecationWarning)
-        return self.impl.precision.decode()
-
     @batch_size.setter
     def batch_size(self, batch: int):
         if batch <= 0:
index 61e165d..97361dc 100644 (file)
@@ -175,9 +175,6 @@ InferenceEnginePython::IENetwork::IENetwork(const std::string &model, const std:
     actual = std::make_shared<InferenceEngine::CNNNetwork>(net);
     name = actual->getName();
     batch_size = actual->getBatchSize();
-    IE_SUPPRESS_DEPRECATED_START
-    precision = actual->getPrecision().name();
-    IE_SUPPRESS_DEPRECATED_END
 }
 
 InferenceEnginePython::IENetwork::IENetwork(const std::shared_ptr<InferenceEngine::CNNNetwork> &cnn_network)
@@ -185,9 +182,6 @@ InferenceEnginePython::IENetwork::IENetwork(const std::shared_ptr<InferenceEngin
     if (actual == nullptr) THROW_IE_EXCEPTION << "IENetwork was not initialized.";
     name = actual->getName();
     batch_size = actual->getBatchSize();
-    IE_SUPPRESS_DEPRECATED_START
-    precision = actual->getPrecision().name();
-    IE_SUPPRESS_DEPRECATED_END
 }
 
 InferenceEnginePython::IENetwork::IENetwork(PyObject* network) {
@@ -200,9 +194,6 @@ InferenceEnginePython::IENetwork::IENetwork(PyObject* network) {
     actual = std::make_shared<InferenceEngine::CNNNetwork>(cnnNetwork);
     name = actual->getName();
     batch_size = actual->getBatchSize();
-    IE_SUPPRESS_DEPRECATED_START
-    precision = actual->getPrecision().name();
-    IE_SUPPRESS_DEPRECATED_END
 }
 
 void
@@ -218,9 +209,6 @@ InferenceEnginePython::IENetwork::load_from_buffer(const char *xml, size_t xml_s
     IE_SUPPRESS_DEPRECATED_END
     actual = std::make_shared<InferenceEngine::CNNNetwork>(net);
     batch_size = actual->getBatchSize();
-    IE_SUPPRESS_DEPRECATED_START
-    precision = actual->getPrecision().name();
-    IE_SUPPRESS_DEPRECATED_END
 }
 
 void InferenceEnginePython::IENetwork::serialize(const std::string &path_to_xml, const std::string &path_to_bin) {
index 0cbdf90..0f136ac 100644 (file)
@@ -41,7 +41,6 @@ struct IENetwork {
     std::shared_ptr<InferenceEngine::CNNNetwork> actual;
     std::string name;
     std::size_t batch_size;
-    std::string precision;
     PyObject* getFunction();
 
     void setBatch(const size_t size);
index b084010..9c81e8e 100644 (file)
@@ -80,17 +80,6 @@ public:
     virtual ~CNNNetwork() {}
 
     /**
-     * @deprecated Network precision does not make sence, use precision on egdes. The method will be removed in 2021.1
-     * @copybrief ICNNNetwork::getPrecision
-     *
-     * Wraps ICNNNetwork::getPrecision
-     *
-     * @return A precision type
-     */
-    INFERENCE_ENGINE_DEPRECATED("Network precision does not make sence, use precision on egdes. The method will be removed in 2021.1")
-    virtual Precision getPrecision() const;
-
-    /**
      * @copybrief ICNNNetwork::getOutputsInfo
      *
      * Wraps ICNNNetwork::getOutputsInfo
index f0cf0c0..ea0fa07 100644 (file)
@@ -150,21 +150,6 @@ public:
     }
 
     /**
-     * @deprecated Use ExecutableNetwork::GetExecGraphInfo to get information about an internal graph.
-     * This method will be removed in 2021.1 release.
-     * @copybrief IExecutableNetwork::GetMappedTopology
-     *
-     * Wraps IExecutableNetwork::GetMappedTopology.
-     * @param deployedTopology Map of PrimitiveInfo objects that represent the deployed topology
-     */
-    IE_SUPPRESS_DEPRECATED_START
-    INFERENCE_ENGINE_DEPRECATED("Use ExecutableNetwork::GetExecGraphInfo to get information about an internal graph")
-    void GetMappedTopology(std::map<std::string, std::vector<PrimitiveInfo::Ptr>>& deployedTopology) {
-        CALL_STATUS_FNC(GetMappedTopology, deployedTopology);
-    }
-    IE_SUPPRESS_DEPRECATED_END
-
-    /**
      * @brief cast operator is used when this wrapper initialized by LoadNetwork
      * @return A shared pointer to IExecutableNetwork interface. 
      */
index 6a13a0f..3ab66ff 100644 (file)
@@ -71,20 +71,6 @@ public:
      */
     std::map<std::string, Version> GetVersions(const std::string& deviceName) const;
 
-    /**
-     * @deprecated IErrorListener is not used anymore. An exception is thrown in case of any unexpected situations.
-     * The function will be removed in 2021.1 release.
-     * @brief Sets logging callback
-     *
-     * Logging is used to track what is going on inside the plugins, Inference Engine library
-     *
-     * @param listener Logging sink
-     */
-    IE_SUPPRESS_DEPRECATED_START
-    INFERENCE_ENGINE_DEPRECATED("IErrorListener is not used anymore. An exception is thrown in case of any unexpected situations.")
-    void SetLogCallback(IErrorListener& listener) const;
-    IE_SUPPRESS_DEPRECATED_END
-
 #ifdef ENABLE_UNICODE_PATH_SUPPORT
     /**
      * @brief Reads IR xml and bin files
diff --git a/inference-engine/include/ie_error.hpp b/inference-engine/include/ie_error.hpp
deleted file mode 100644 (file)
index 8d6a139..0000000
+++ /dev/null
@@ -1,28 +0,0 @@
-// Copyright (C) 2018-2020 Intel Corporation
-// SPDX-License-Identifier: Apache-2.0
-//
-
-/**
- * @brief A header file for a plugin logging mechanism
- *
- * @file ie_error.hpp
- */
-#pragma once
-
-namespace InferenceEngine {
-/**
- * @deprecated IErrorListener is not used anymore. An exception is thrown / StatusCode set in case of any unexpected situations
- * The class will be removed in 2021.1 release.
- * @brief This class represents a custom error listener.
- */
-class
-INFERENCE_ENGINE_DEPRECATED("IErrorListener is not used anymore. An exception is thrown / StatusCode set in case of any unexpected situations")
-    IErrorListener {
-public:
-    /**
-     * @brief The plugin calls this method with a null terminated error message (in case of error)
-     * @param msg Error message
-     */
-    virtual void onError(const char* msg) noexcept = 0;
-};
-}  // namespace InferenceEngine
index 6d5996a..a0273b0 100644 (file)
@@ -72,20 +72,6 @@ public:
     }
 
     /**
-     * @deprecated IErrorListener is not used anymore. StatusCode is provided in case of unexpected situations
-     * The method will be removed in 2021.1 release.
-     * @brief Sets a log callback that is used to track what is going on inside
-     *
-     * @param listener Logging listener
-     */
-    IE_SUPPRESS_DEPRECATED_START
-    INFERENCE_ENGINE_DEPRECATED("IErrorListener is not used anymore. StatusCode is provided in case of unexpected situations")
-    void SetLogCallback(InferenceEngine::IErrorListener& listener) noexcept override {
-        actual->SetLogCallback(listener);
-    }
-    IE_SUPPRESS_DEPRECATED_END
-
-    /**
      * @brief Cleans the resources up
      */
     void Unload() noexcept override {
@@ -227,20 +213,6 @@ public:
     }
 
     /**
-     * @brief IErrorListener is not used anymore. StatusCode is provided in case of unexpected situations
-     * The method will be removed in 2021.1 release.
-     * @brief Sets a log callback that is used to track what is going on inside
-     *
-     * @param listener Logging listener
-     */
-    IE_SUPPRESS_DEPRECATED_START
-    INFERENCE_ENGINE_DEPRECATED("IErrorListener is not used anymore. StatusCode is provided in case of unexpected situations")
-    void SetLogCallback(InferenceEngine::IErrorListener& listener) noexcept override {
-        actual->SetLogCallback(listener);
-    }
-    IE_SUPPRESS_DEPRECATED_END
-
-    /**
      * @brief Cleans the resources up
      */
     void Unload() noexcept override {
index 14366f0..487df0f 100644 (file)
@@ -20,7 +20,6 @@
 #include "ie_imemory_state.hpp"
 #include "ie_input_info.hpp"
 #include "ie_parameter.hpp"
-#include "ie_primitive_info.hpp"
 #include "ie_remote_context.hpp"
 
 namespace InferenceEngine {
@@ -100,21 +99,6 @@ public:
     virtual StatusCode Export(std::ostream& networkModel, ResponseDesc* resp) noexcept = 0;
 
     /**
-     * @deprecated Use ExecutableNetwork::GetExecGraphInfo to get information about an internal graph.
-     * The method will be removed in 2021.1 release.
-     * @brief Get the mapping of IR layer names to implemented kernels
-     *
-     * @param deployedTopology Map of PrimitiveInfo objects that represent the deployed topology
-     * @param resp Optional: pointer to an already allocated object to contain information in case of failure
-     * @return Status code of the operation: InferenceEngine::OK (0) for success
-     */
-    IE_SUPPRESS_DEPRECATED_START_WIN
-    INFERENCE_ENGINE_DEPRECATED("Use ExecutableNetwork::GetExecGraphInfo to get information about an internal graph")
-    virtual StatusCode GetMappedTopology(std::map<std::string, std::vector<PrimitiveInfo::Ptr>>& deployedTopology,
-                                         ResponseDesc* resp) noexcept = 0;
-    IE_SUPPRESS_DEPRECATED_END_WIN
-
-    /**
      * @brief Get executable graph information from a device
      *
      * @param graphPtr network ptr to store executable graph information
index e039c4b..6ca6ced 100644 (file)
@@ -16,7 +16,6 @@
 
 #include "details/ie_no_copy.hpp"
 #include "ie_api.h"
-#include "ie_error.hpp"
 #include "ie_common.h"
 #include "ie_layouts.h"
 #include "ie_blob.h"
@@ -213,20 +212,6 @@ public:
 class IShapeInferExtension : public InferenceEngine::details::IRelease {
 public:
     /**
-     * @deprecated IErrorListener is not used anymore. StatusCode is provided in case of unexpected situations
-     * The method will be removed in 2021.1 release.
-     * @brief Sets logging callback.
-     *
-     * Logging is used to track what is going on inside.
-     *
-     * @param listener Logging sink
-     */
-    IE_SUPPRESS_DEPRECATED_START
-    INFERENCE_ENGINE_DEPRECATED("IErrorListener is not used anymore. StatusCode is provided in case of unexpected situations")
-    virtual void SetLogCallback(InferenceEngine::IErrorListener& listener) noexcept { (void)listener; }
-    IE_SUPPRESS_DEPRECATED_END
-
-    /**
      * @brief Gets extension version information and stores in versionInfo
      * @param versionInfo Pointer to version info, will be set by plugin
      */
index 61db1b4..4b0ba65 100644 (file)
@@ -21,7 +21,6 @@
 #include "details/ie_no_copy.hpp"
 #include "ie_api.h"
 #include "ie_core.hpp"
-#include "ie_error.hpp"
 #include "ie_iexecutable_network.hpp"
 #include "ie_version.hpp"
 
@@ -43,19 +42,6 @@ public:
     virtual void GetVersion(const Version*& versionInfo) noexcept = 0;
 
     /**
-     * @deprecated IErrorListener is not used anymore. StatusCode is provided in case of unexpected situations
-     * This API will be removed in 2021.1 release.
-     * @brief Sets logging callback
-     *
-     * Logging is used to track what is going on inside
-     * @param listener Logging sink
-     */
-    IE_SUPPRESS_DEPRECATED_START
-    INFERENCE_ENGINE_DEPRECATED("IErrorListener is not used anymore. StatusCode is provided in case of unexpected situations")
-    virtual void SetLogCallback(IErrorListener& listener) noexcept = 0;
-    IE_SUPPRESS_DEPRECATED_END
-
-    /**
      * @brief Creates an executable network from a network object. User can create as many networks as they need and use
      *        them simultaneously (up to the limitation of the hardware resources)
      *
diff --git a/inference-engine/include/ie_primitive_info.hpp b/inference-engine/include/ie_primitive_info.hpp
deleted file mode 100644 (file)
index 8252aea..0000000
+++ /dev/null
@@ -1,70 +0,0 @@
-// Copyright (C) 2018-2020 Intel Corporation
-// SPDX-License-Identifier: Apache-2.0
-//
-
-/**
- * @brief A header file for the PrimitiveInfo struct
- *
- * @file ie_primitive_info.hpp
- */
-
-#pragma once
-
-#include <map>
-#include <memory>
-#include <string>
-#include <vector>
-
-#include "ie_tensor_info.hpp"
-
-namespace InferenceEngine {
-
-/**
- * @deprecated Use ExecutableNetwork::GetExecGraphInfo to get information about an internal graph.
- * This structure will be removed in 2021.1 release.
- * @brief Structure with information about Primitive
- */
-struct INFERENCE_ENGINE_DEPRECATED("Use ExecutableNetwork::GetExecGraphInfo to get information about an internal graph") PrimitiveInfo {
-    /**
-     * @brief A shared pointer to PrimitiveInfo object
-     */
-    IE_SUPPRESS_DEPRECATED_START
-    using Ptr = std::shared_ptr<PrimitiveInfo>;
-    IE_SUPPRESS_DEPRECATED_END
-
-    /**
-     * @brief Some internal id, could be used as a name
-     */
-    std::string sId;
-
-    /**
-     * @brief Implementation type of this kernel
-     */
-    std::string sType;
-
-    /**
-     * @brief Mainly the allocation of the output tensor
-     */
-    int iPreAllocatedMemory;
-
-    IE_SUPPRESS_DEPRECATED_START
-
-    /**
-     * @brief Vector of TensorInfo objects that are related to input tensors
-     */
-    std::vector<TensorInfo::Ptr> inputs;
-
-    /**
-     * @brief Vector of TensorInfo object that are related to outputs tensors
-     */
-    std::vector<TensorInfo::Ptr> outputs;
-
-    IE_SUPPRESS_DEPRECATED_END
-
-    /**
-     * @brief Any other important textual information user might find interesting about this kernel
-     */
-    std::map<std::string, std::string> extraInfo;
-};
-
-}  // namespace InferenceEngine
diff --git a/inference-engine/include/ie_tensor_info.hpp b/inference-engine/include/ie_tensor_info.hpp
deleted file mode 100644 (file)
index ebb23d1..0000000
+++ /dev/null
@@ -1,44 +0,0 @@
-// Copyright (C) 2018-2020 Intel Corporation
-// SPDX-License-Identifier: Apache-2.0
-//
-
-/**
- * @brief A header file for the TensorInfo structure
- *
- * @file ie_tensor_info.hpp
- */
-
-#pragma once
-
-#include <map>
-#include <memory>
-#include <string>
-
-#include <ie_api.h>
-
-namespace InferenceEngine {
-
-/**
- * @deprecated Use ExecutableNetwork::GetExecGraphInfo to get information about an internal graph.
- * This API will be removed in 2021.1 release.
- * @struct TensorInfo
- * @brief This structure describes tensor information
- */
-struct INFERENCE_ENGINE_DEPRECATED("Use ExecutableNetwork::GetExecGraphInfo to get information about an internal graph") TensorInfo {
-    /**
-     * @brief A shared pointer to the TensorInfo object
-     */
-    IE_SUPPRESS_DEPRECATED_START
-    using Ptr = std::shared_ptr<TensorInfo>;
-    IE_SUPPRESS_DEPRECATED_END
-
-    /**
-     * @brief A map of extra info:
-     * - memory layout BFYX, BXYF (enum)
-     * - size
-     * - precision
-     */
-    std::map<std::string, std::string> extraInfo;
-};
-
-}  // namespace InferenceEngine
index b3bcf19..1e90694 100644 (file)
@@ -15,7 +15,6 @@
 #include <cpp/ie_executable_network.hpp>
 #include <cpp/ie_plugin_cpp.hpp>
 #include <ie_core.hpp>
-#include <ie_error.hpp>
 #include <ie_icnn_network.hpp>
 #include <ie_icnn_network_stats.hpp>
 #include <ie_plugin_config.hpp>
index 754e530..5e21e63 100644 (file)
@@ -635,11 +635,6 @@ std::map<std::string, Version> Core::GetVersions(const std::string& deviceName)
     return versions;
 }
 
-IE_SUPPRESS_DEPRECATED_START
-void Core::SetLogCallback(IErrorListener&) const {
-}
-IE_SUPPRESS_DEPRECATED_END
-
 CNNNetwork Core::ReadNetwork(const std::string& modelPath, const std::string& binPath) const {
     return _impl->ReadNetwork(modelPath, binPath);
 }
index b3e1367..519b301 100644 (file)
@@ -12,11 +12,6 @@ IE_SUPPRESS_DEPRECATED_START
 
 namespace InferenceEngine {
 
-Precision CNNNetwork::getPrecision() const {
-    if (actual == nullptr) THROW_IE_EXCEPTION << "CNNNetwork was not initialized.";
-    return actual->getPrecision();
-}
-
 CNNLayerPtr CNNNetwork::getLayerByName(const char* layerName) const {
     CNNLayerPtr layer;
     CALL_STATUS_FNC(getLayerByName, layerName, layer);
index a5a0876..0507b81 100644 (file)
@@ -63,13 +63,6 @@ public:
         TO_STATUS(_impl->Export(networkModel));
     }
 
-    IE_SUPPRESS_DEPRECATED_START
-    StatusCode GetMappedTopology(std::map<std::string, std::vector<PrimitiveInfo::Ptr>>& deployedTopology,
-                                 ResponseDesc* resp) noexcept override {
-        return NOT_IMPLEMENTED;
-    }
-    IE_SUPPRESS_DEPRECATED_END
-
     StatusCode GetExecGraphInfo(ICNNNetwork::Ptr& graphPtr, ResponseDesc* resp) noexcept override {
         TO_STATUS(_impl->GetExecGraphInfo(graphPtr));
     }
index 6326753..b641631 100644 (file)
@@ -73,12 +73,6 @@ public:
         versionInfo = &_version;
     }
 
-    IE_SUPPRESS_DEPRECATED_START
-    void SetLogCallback(IErrorListener& listener) noexcept override {
-        (void)listener;
-    }
-    IE_SUPPRESS_DEPRECATED_END
-
     StatusCode LoadNetwork(IExecutableNetwork::Ptr& executableNetwork, const ICNNNetwork& network,
                            const std::map<std::string, std::string>& config, ResponseDesc* resp) noexcept override {
         TO_STATUS(_impl->LoadNetwork(executableNetwork, network, config));
index eff1d70..c506949 100644 (file)
@@ -19,13 +19,6 @@ TEST_F(CNNNetworkTests, throwsOnInitWithNullNgraph) {
     ASSERT_THROW(CNNNetwork network(nlptr), InferenceEngine::details::InferenceEngineException);
 }
 
-TEST_F(CNNNetworkTests, throwsOnUninitializedGetPrecision) {
-    CNNNetwork network;
-    IE_SUPPRESS_DEPRECATED_START
-    ASSERT_THROW(network.getPrecision(), InferenceEngine::details::InferenceEngineException);
-    IE_SUPPRESS_DEPRECATED_END
-}
-
 TEST_F(CNNNetworkTests, throwsOnUninitializedGetOutputsInfo) {
     CNNNetwork network;
     ASSERT_THROW(network.getOutputsInfo(), InferenceEngine::details::InferenceEngineException);
index 16bf089..b8695cd 100644 (file)
@@ -52,9 +52,6 @@ class TestExtension : public InferenceEngine::IExtension {
 public:
     TestExtension() = default;
     void GetVersion(const InferenceEngine::Version*& versionInfo) const noexcept override;
-    IE_SUPPRESS_DEPRECATED_START
-    void SetLogCallback(InferenceEngine::IErrorListener& /*listener*/) noexcept override {}
-    IE_SUPPRESS_DEPRECATED_END
     void Unload() noexcept override {}
     void Release() noexcept override {
         delete this;
index 3f131e8..fe9880e 100644 (file)
@@ -3,7 +3,6 @@
 //
 
 #include "unit_test_utils/mocks/mock_allocator.hpp"
-#include "unit_test_utils/mocks/mock_error_listener.hpp"
 #include "unit_test_utils/mocks/mock_icnn_network.hpp"
 #include "unit_test_utils/mocks/mock_ie_imemory_state.hpp"
 #include "unit_test_utils/mocks/mock_iexecutable_network.hpp"
index 4dacc3b..a14b87f 100644 (file)
@@ -30,7 +30,6 @@ public:
     MOCK_METHOD1(setNetworkOutputs, void(OutputsDataMap));
     MOCK_METHOD1(CreateInferRequest, void(IInferRequest::Ptr &));
     MOCK_METHOD1(Export, void(const std::string &));
-    MOCK_METHOD1(GetMappedTopology, void(std::map<std::string, std::vector<PrimitiveInfo::Ptr>> &));
     MOCK_METHOD1(GetExecGraphInfo, void(ICNNNetwork::Ptr &));
     void WrapOstreamExport(std::ostream& networkModel) {
         ExecutableNetworkInternal::Export(networkModel);
index 75af503..0456b40 100644 (file)
@@ -22,6 +22,5 @@ public:
                  AsyncInferRequestInternal::Ptr(InputsDataMap networkInputs, OutputsDataMap networkOutputs));
     MOCK_METHOD1(Export, void(const std::string &));
     void Export(std::ostream&) override {}
-    MOCK_METHOD1(GetMappedTopology, void(std::map<std::string, std::vector<PrimitiveInfo::Ptr>> &));
 };
 IE_SUPPRESS_DEPRECATED_END
index 7d527a2..9661872 100644 (file)
@@ -19,6 +19,5 @@ public:
                  std::shared_ptr<InferRequestInternal>(InputsDataMap networkInputs, OutputsDataMap networkOutputs));
     MOCK_METHOD1(Export, void(const std::string &));
     void Export(std::ostream &) override {}
-    MOCK_METHOD1(GetMappedTopology, void(std::map<std::string, std::vector<PrimitiveInfo::Ptr>> &));
 };
 IE_SUPPRESS_DEPRECATED_END
index 1def862..5738951 100644 (file)
@@ -30,7 +30,6 @@ public:
     MOCK_METHOD1(CreateInferRequest, void(IInferRequest::Ptr &));
     MOCK_METHOD1(Export, void(const std::string &));
     void Export(std::ostream &) override {};
-    MOCK_METHOD1(GetMappedTopology, void(std::map<std::string, std::vector<PrimitiveInfo::Ptr>> &));
     MOCK_METHOD0(QueryState, std::vector<IMemoryStateInternal::Ptr>());
     MOCK_METHOD1(GetExecGraphInfo, void(ICNNNetwork::Ptr &));
 
index 996dc64..a3de4ce 100644 (file)
@@ -29,9 +29,6 @@ class MockPluginImpl {
     }
     MOCK_METHOD1(AddExtension, void(InferenceEngine::IExtensionPtr ext_ptr));
     MOCK_METHOD1(SetConfig, void(const std::map <std::string, std::string> &));
-    IE_SUPPRESS_DEPRECATED_START
-    MOCK_METHOD1(SetLogCallback, void(InferenceEngine::IErrorListener &));
-    IE_SUPPRESS_DEPRECATED_END
     MOCK_METHOD2(ImportNetwork, InferenceEngine::IExecutableNetwork::Ptr(const std::string &, const std::map<std::string, std::string> &));
     InferenceEngine::ExecutableNetwork ImportNetwork(const std::istream&, const std::map<std::string, std::string> &) {return {};}
     MOCK_QUALIFIED_METHOD0(GetName, const noexcept, std::string(void));
index ae2ee01..1ba699c 100644 (file)
@@ -32,10 +32,6 @@ void MockPlugin::Release() noexcept {
     delete this;
 }
 
-void MockPlugin::SetLogCallback(InferenceEngine::IErrorListener &listener) noexcept {
-    IF_NOT_NULL(SetLogCallback(listener));
-}
-
 void MockPlugin::GetVersion(const Version *&versionInfo) noexcept {
     versionInfo = &version;
 }
index abf7934..ea014ac 100644 (file)
@@ -20,7 +20,6 @@ public:
     explicit MockPlugin(InferenceEngine::IInferencePlugin*target);
 
     void GetVersion(const InferenceEngine::Version *& versionInfo) noexcept override;
-    void SetLogCallback(InferenceEngine::IErrorListener& listener) noexcept override;
 
     InferenceEngine::StatusCode AddExtension(InferenceEngine::IExtensionPtr extension, InferenceEngine::ResponseDesc *resp) noexcept override;
 
diff --git a/inference-engine/tests/ie_test_utils/unit_test_utils/mocks/mock_error_listener.hpp b/inference-engine/tests/ie_test_utils/unit_test_utils/mocks/mock_error_listener.hpp
deleted file mode 100644 (file)
index 67cd921..0000000
+++ /dev/null
@@ -1,17 +0,0 @@
-// Copyright (C) 2018-2020 Intel Corporation
-// SPDX-License-Identifier: Apache-2.0
-//
-
-#pragma once
-
-#include <gmock/gmock.h>
-#include <ie_error.hpp>
-
-IE_SUPPRESS_DEPRECATED_START
-
-class Listener : public InferenceEngine::IErrorListener {
-public:
-    MOCK_QUALIFIED_METHOD1(onError, noexcept, void(const char * err));
-};
-
-IE_SUPPRESS_DEPRECATED_END
index 26a2f79..ddac5f1 100644 (file)
@@ -26,7 +26,6 @@ public:
     MOCK_QUALIFIED_METHOD2(CreateInferRequest, noexcept, StatusCode(IInferRequest::Ptr &, ResponseDesc*));
     MOCK_QUALIFIED_METHOD2(Export, noexcept, StatusCode(const std::string &, ResponseDesc*));
     MOCK_QUALIFIED_METHOD2(Export, noexcept, StatusCode(std::ostream &, ResponseDesc *));
-    MOCK_QUALIFIED_METHOD2(GetMappedTopology, noexcept, StatusCode(std::map<std::string, std::vector<PrimitiveInfo::Ptr>> &, ResponseDesc*));
     MOCK_QUALIFIED_METHOD2(GetExecGraphInfo, noexcept, StatusCode(ICNNNetwork::Ptr &, ResponseDesc*));
     MOCK_QUALIFIED_METHOD2(SetConfig, noexcept, StatusCode(const std::map<std::string, Parameter> &config, ResponseDesc *resp));
     MOCK_QUALIFIED_METHOD3(GetConfig, const noexcept, StatusCode(const std::string &name, Parameter &result, ResponseDesc *resp));
index 0afca8e..3a72c6c 100644 (file)
@@ -17,7 +17,6 @@ public:
                                                                                InferenceEngine::ResponseDesc *resp));
     MOCK_QUALIFIED_METHOD1(GetVersion, noexcept, void(const InferenceEngine::Version *&));
     MOCK_QUALIFIED_METHOD0(Release, noexcept, void());
-    MOCK_QUALIFIED_METHOD1(SetLogCallback, noexcept, void(InferenceEngine::IErrorListener &));
     MOCK_QUALIFIED_METHOD2(LoadNetwork, noexcept, InferenceEngine::StatusCode(
             const InferenceEngine::ICNNNetwork &, InferenceEngine::ResponseDesc *resp));
     MOCK_QUALIFIED_METHOD4(LoadNetwork, noexcept, InferenceEngine::StatusCode(
index a9d7fce..db7d47d 100644 (file)
@@ -16,7 +16,6 @@ class MockShapeInferExtension : public InferenceEngine::IShapeInferExtension {
     using Ptr = std::shared_ptr<MockShapeInferExtension>;
     MOCK_QUALIFIED_METHOD1(GetVersion, const noexcept, void(const InferenceEngine::Version *&));
     MOCK_QUALIFIED_METHOD0(Release, noexcept, void());
-    MOCK_QUALIFIED_METHOD1(SetLogCallback, noexcept, void(InferenceEngine::IErrorListener &));
     MOCK_QUALIFIED_METHOD0(Unload, noexcept, void());
 
     MOCK_QUALIFIED_METHOD3(getShapeInferTypes, noexcept, InferenceEngine::StatusCode
index 9861af9..ac1b267 100644 (file)
@@ -24,7 +24,6 @@ using testing::SetArgReferee;
 // TODO: add tests for the next methods:
 //  1. void Export(const std::string& modelFileName)
 //  2. void Export(std::ostream& networkModel)
-//  3. void GetMappedTopology(std::map<std::string, std::vector<PrimitiveInfo::Ptr>>& deployedTopology)
 //  4. CNNNetwork GetExecGraphInfo()
 //  5. void SetConfig(const std::map<std::string, Parameter>& config)
 //  6. Parameter GetConfig(const std::string& name) const
index a885def..4845bc6 100644 (file)
@@ -7,7 +7,6 @@
 #include "details/ie_so_loader.h"
 
 #include "unit_test_utils/mocks/mock_engine/mock_plugin.hpp"
-#include "unit_test_utils/mocks/mock_error_listener.hpp"
 #include "unit_test_utils/mocks/mock_iinference_plugin.hpp"
 
 
@@ -41,7 +40,6 @@ protected:
     }
 
     MockIInferencePlugin engine;
-    Listener error;
 };
 
 TEST_F(PluginTest, canCreatePlugin) {
@@ -50,10 +48,6 @@ TEST_F(PluginTest, canCreatePlugin) {
     unique_ptr<IInferencePlugin, std::function<void(IInferencePlugin*)>> smart_ptr(ptr(nullptr), [](IInferencePlugin *p) {
         p->Release();
     });
-
-    //expect that no error handler has been called
-    smart_ptr->SetLogCallback(error);
-    EXPECT_CALL(error, onError(_)).Times(0);
 }
 
 TEST_F(PluginTest, canCreatePluginUsingSmartPtr) {
@@ -64,13 +58,6 @@ TEST_F(PluginTest, shouldThrowExceptionIfPluginNotExist) {
     EXPECT_THROW(InferenceEnginePluginPtr("unknown_plugin"), InferenceEngineException);
 }
 
-ACTION_TEMPLATE(CallListenerWithErrorMessage,
-                HAS_1_TEMPLATE_PARAMS(int, k),
-                AND_1_VALUE_PARAMS(pointer)) {
-    InferenceEngine::IErrorListener & data = ::std::get<k>(args);
-    data.onError(pointer);
-}
-
 InferenceEnginePluginPtr PluginTest::getPtr() {
     InferenceEnginePluginPtr smart_ptr(get_mock_engine_name());
     return smart_ptr;
index a8b437d..cd64db6 100644 (file)
@@ -206,8 +206,6 @@ public:
         versionInfo = &VERSION;
     }
 
-    void SetLogCallback(InferenceEngine::IErrorListener &listener) noexcept override {}
-
     void Unload() noexcept override {}
 
     std::vector<std::string> getImplTypes(const std::shared_ptr<ngraph::Node>& node) override {
index 52fd8e2..ddab5d0 100644 (file)
@@ -317,26 +317,6 @@ TEST_F(IEClassBasicTest, smoke_SetConfigHeteroNoThrow) {
 }
 
 //
-// LogCallBack
-//
-
-TEST_F(IEClassBasicTest, smoke_LogCallBackNoThrow) {
-    Core ie;
-
-    IE_SUPPRESS_DEPRECATED_START
-    class ConsoleErrorListener : public IErrorListener {
-        void onError(const char *msg) noexcept override {
-            std::clog << "Plugin message: " << msg << std::endl;
-        }
-    };
-
-    ConsoleErrorListener listener;
-
-    ASSERT_NO_THROW(ie.SetLogCallback(listener));
-    IE_SUPPRESS_DEPRECATED_END
-}
-
-//
 // ImportNetwork
 //
 
index 0e36971..2d4f710 100644 (file)
@@ -850,6 +850,8 @@ public:
     std::string getName() const override;
     bool transform(CNNNetwork& network, LayerTransformation::Params& params) const override;
     std::string getModel(SingleLayerTransformationsTestParams& p) const override;
+
+    mutable InferenceEngine::Precision netPrecision;
 };
 
 class PowerTestModel : public SingleLayerTestModel {
index 3decd08..40079e3 100644 (file)
@@ -6,8 +6,13 @@
 
 std::string PoolingTestModel::getModel(SingleLayerTransformationsTestParams& p) const {
     size_t type_size = sizeof(InferenceEngine::PrecisionTrait<InferenceEngine::Precision::FP32>::value_type);
-    if (p._network_precision == "FP16")
+    netPrecision = Precision::FP32;
+
+    // TODO: don't use network precision
+    if (p._network_precision == "FP16") {
+        netPrecision = Precision::FP16;
         type_size = sizeof(InferenceEngine::PrecisionTrait<InferenceEngine::Precision::FP16>::value_type);
+    }
 
     CommonTestUtils::pool_common_params pooling = { {1, 1}, {1, 1}, {0, 0}, {0, 0}, "valid", false, true };
     std::vector<size_t> poolOutShape(p.inputDimensions[0].size());
@@ -55,7 +60,8 @@ bool PoolingTestModel::transform(CNNNetwork& network, LayerTransformation::Param
     LowPrecisionTransformer transformer(LowPrecisionTransformer::getAllTransformations(params));
     transformer.transform(network);
 
-    const Precision precision = params.updatePrecisions ? Precision(Precision::U8) : network.getPrecision();
+    // TODO: don't use network precision
+    const Precision precision = params.updatePrecisions ? Precision(Precision::U8) : netPrecision;
 
     CNNLayerPtr fakeQuantize = getLayer(network, "FakeQuantize6");
     if (fakeQuantize->outData[0]->getPrecision() != precision) {
index 92a7217..54fc0a4 100644 (file)
@@ -54,7 +54,8 @@ bool PowerTestModel::transform(CNNNetwork& network, LayerTransformation::Params&
     LowPrecisionTransformer transformer(LowPrecisionTransformer::getAllTransformations(params));
     transformer.transform(network);
 
-    const Precision precision = params.updatePrecisions ? Precision(Precision::U8) : network.getPrecision();
+    const Precision precision = params.updatePrecisions ? Precision(Precision::U8) :
+        network.getInputsInfo().begin()->second->getPrecision();
 
     CNNLayerPtr fakeQuantize = getLayer(network, "FakeQuantize6");
     if (fakeQuantize->outData[0]->getPrecision() != precision) {
index d14c62d..39b162f 100644 (file)
@@ -10,7 +10,7 @@
 
 TBlob<uint8_t>::Ptr SingleLayerTransformationsTest::generateWeights(const CNNNetwork& network) {
     std::vector<Blob::Ptr> blobs;
-    const auto net_precision = network.getPrecision();
+    const auto net_precision = network.getInputsInfo().begin()->second->getPrecision();
 
     std::vector<CNNLayerPtr> sortedLayers = CNNNetSortTopologically(network);
     for (CNNLayerPtr layer : sortedLayers) {
@@ -294,7 +294,7 @@ void SingleLayerTransformationsTest::SetUp() {
                                                 const auto transformedOutput = infer(network, inputBlobs, core, p.device_name, executableNetworkTransformed, inferRequestTransformed);
 
                                                 //compareInDetails(originalOutputMap, *transformedOutput, 70, 0.5);
-                                                auto net_precision = network.getPrecision();
+                                                auto net_precision = network.getInputsInfo().begin()->second->getPrecision();
                                                 for (auto& originalOutput : originalOutputMap) {
                                                     const auto& name = originalOutput.first;
                                                     const auto outSize = originalOutput.second->size();
index 9c91c9c..29616a7 100644 (file)
@@ -90,7 +90,6 @@ public:
     }
 
     void GetVersion(const InferenceEngine::Version *&versionInfo) const noexcept override {}
-    void SetLogCallback(InferenceEngine::IErrorListener &listener) noexcept override {}
     void Unload() noexcept override {}
     void Release() noexcept override {
         delete this;