[IE][NGRAPH][BUILD] Enable UNITY build for more targets (#2592)
authorVladislav Vinogradov <vlad.vinogradov@intel.com>
Tue, 13 Oct 2020 14:35:55 +0000 (17:35 +0300)
committerGitHub <noreply@github.com>
Tue, 13 Oct 2020 14:35:55 +0000 (17:35 +0300)
* Avoid symbols clash due to source merging.
* Tested on Ubuntu 20.04 with GCC 9.3.0.

106 files changed:
inference-engine/src/hetero_plugin/CMakeLists.txt
inference-engine/src/inference_engine/ie_parameter.cpp
inference-engine/src/preprocessing/CMakeLists.txt
inference-engine/src/readers/ir_reader/CMakeLists.txt
inference-engine/src/readers/ir_reader_v7/CMakeLists.txt
inference-engine/src/transformations/CMakeLists.txt
inference-engine/src/transformations/src/transformations/rt_info/fused_names_attribute.cpp
inference-engine/src/transformations/src/transformations/rt_info/primitives_priority_attribute.cpp
inference-engine/src/vpu/common/CMakeLists.txt
inference-engine/src/vpu/common/include/vpu/utils/error.hpp
inference-engine/src/vpu/common/src/ngraph/operations/dynamic_shape_resolver.cpp
inference-engine/src/vpu/common/src/ngraph/operations/out_shape_of_reshape.cpp
inference-engine/tests/functional/inference_engine/CMakeLists.txt
inference-engine/tests/unit/cpu/CMakeLists.txt
inference-engine/tests_deprecated/functional/ie_tests/CMakeLists.txt
inference-engine/thirdparty/mkldnn.cmake
ngraph/core/CMakeLists.txt
ngraph/core/include/ngraph/variant.hpp
ngraph/core/reference/CMakeLists.txt
ngraph/core/reference/include/ngraph/runtime/reference/floor_mod.hpp
ngraph/core/src/descriptor/output.cpp
ngraph/core/src/op/abs.cpp
ngraph/core/src/op/acos.cpp
ngraph/core/src/op/acosh.cpp
ngraph/core/src/op/add.cpp
ngraph/core/src/op/and.cpp
ngraph/core/src/op/asin.cpp
ngraph/core/src/op/asinh.cpp
ngraph/core/src/op/atan.cpp
ngraph/core/src/op/atanh.cpp
ngraph/core/src/op/ceiling.cpp
ngraph/core/src/op/clamp.cpp
ngraph/core/src/op/convert.cpp
ngraph/core/src/op/cos.cpp
ngraph/core/src/op/cosh.cpp
ngraph/core/src/op/divide.cpp
ngraph/core/src/op/equal.cpp
ngraph/core/src/op/erf.cpp
ngraph/core/src/op/exp.cpp
ngraph/core/src/op/floor.cpp
ngraph/core/src/op/floor_mod.cpp
ngraph/core/src/op/gather.cpp
ngraph/core/src/op/greater.cpp
ngraph/core/src/op/greater_eq.cpp
ngraph/core/src/op/hswish.cpp
ngraph/core/src/op/less.cpp
ngraph/core/src/op/less_eq.cpp
ngraph/core/src/op/log.cpp
ngraph/core/src/op/matmul.cpp
ngraph/core/src/op/max.cpp
ngraph/core/src/op/max_pool.cpp
ngraph/core/src/op/maximum.cpp
ngraph/core/src/op/min.cpp
ngraph/core/src/op/minimum.cpp
ngraph/core/src/op/mish.cpp
ngraph/core/src/op/multiply.cpp
ngraph/core/src/op/negative.cpp
ngraph/core/src/op/non_zero.cpp
ngraph/core/src/op/not.cpp
ngraph/core/src/op/not_equal.cpp
ngraph/core/src/op/or.cpp
ngraph/core/src/op/power.cpp
ngraph/core/src/op/prelu.cpp
ngraph/core/src/op/prior_box.cpp
ngraph/core/src/op/prior_box_clustered.cpp
ngraph/core/src/op/product.cpp
ngraph/core/src/op/reduce_l1.cpp
ngraph/core/src/op/reduce_l2.cpp
ngraph/core/src/op/reduce_mean.cpp
ngraph/core/src/op/reduce_prod.cpp
ngraph/core/src/op/reduce_sum.cpp
ngraph/core/src/op/relu.cpp
ngraph/core/src/op/round.cpp
ngraph/core/src/op/scatter_elements_update.cpp
ngraph/core/src/op/shape_of.cpp
ngraph/core/src/op/sigmoid.cpp
ngraph/core/src/op/sign.cpp
ngraph/core/src/op/sin.cpp
ngraph/core/src/op/sinh.cpp
ngraph/core/src/op/softplus.cpp
ngraph/core/src/op/split.cpp
ngraph/core/src/op/sqrt.cpp
ngraph/core/src/op/squeeze.cpp
ngraph/core/src/op/strided_slice.cpp
ngraph/core/src/op/subtract.cpp
ngraph/core/src/op/sum.cpp
ngraph/core/src/op/swish.cpp
ngraph/core/src/op/tan.cpp
ngraph/core/src/op/tanh.cpp
ngraph/core/src/op/topk.cpp
ngraph/core/src/op/transpose.cpp
ngraph/core/src/op/unsqueeze.cpp
ngraph/core/src/op/variadic_split.cpp
ngraph/core/src/op/xor.cpp
ngraph/core/src/variant.cpp
ngraph/frontend/onnx_import/CMakeLists.txt
ngraph/frontend/onnx_import/src/core/null_node.cpp
ngraph/frontend/onnx_import/src/utils/pooling_factory.cpp
ngraph/test/op.cpp
ngraph/test/runtime/CMakeLists.txt
ngraph/test/runtime/ie/CMakeLists.txt
ngraph/test/runtime/interpreter/CMakeLists.txt
ngraph/test/runtime/pass/opset0_downgrade.cpp
ngraph/test/runtime/pass/opset1_downgrade.cpp
ngraph/test/runtime/pass/opset1_upgrade.cpp
ngraph/test/util/CMakeLists.txt

index b513dc2..7dabc8a 100644 (file)
@@ -20,4 +20,8 @@ ie_add_plugin(NAME ${TARGET_NAME}
               SOURCES ${SOURCES} ${HEADERS}
               VERSION_DEFINES_FOR hetero_plugin.cpp)
 
+ie_faster_build(${TARGET_NAME}
+    UNITY
+)
+
 target_link_libraries(${TARGET_NAME} PRIVATE inference_engine ade pugixml ${NGRAPH_LIBRARIES} inference_engine_transformations)
index 93c54c7..67b8a06 100644 (file)
@@ -9,9 +9,6 @@
 
 namespace ngraph {
 
-template <typename T>
-VariantImpl<T>::~VariantImpl() { }
-
 template class INFERENCE_ENGINE_API_CLASS(VariantImpl<InferenceEngine::Parameter>);
 
 template <>
index fbbb615..edb3d4e 100644 (file)
@@ -128,6 +128,10 @@ add_library(${TARGET_NAME}_obj OBJECT
             ${LIBRARY_SRC}
             ${LIBRARY_HEADERS})
 
+ie_faster_build(${TARGET_NAME}_obj
+    UNITY
+)
+
 target_compile_definitions(${TARGET_NAME}_obj PRIVATE IMPLEMENT_PREPROC_PLUGIN
                                                       $<TARGET_PROPERTY:inference_engine,INTERFACE_COMPILE_DEFINITIONS>
                                                       $<TARGET_PROPERTY:fluid,INTERFACE_COMPILE_DEFINITIONS>)
index 9dfbb9a..16e0249 100644 (file)
@@ -20,6 +20,10 @@ source_group("src" FILES ${LIBRARY_SRC})
 
 add_library(${TARGET_NAME} SHARED ${LIBRARY_SRC})
 
+ie_faster_build(${TARGET_NAME}
+    UNITY
+)
+
 target_compile_definitions(${TARGET_NAME} PRIVATE IMPLEMENT_INFERENCE_ENGINE_PLUGIN
                                                   IR_READER_V10)
 
index 6cd0eb2..5dda93e 100644 (file)
@@ -22,6 +22,10 @@ source_group("src" FILES ${LIBRARY_SRC})
 
 add_library(${TARGET_NAME} SHARED ${LIBRARY_SRC})
 
+ie_faster_build(${TARGET_NAME}
+    UNITY
+)
+
 target_compile_definitions(${TARGET_NAME} PRIVATE IMPLEMENT_INFERENCE_ENGINE_PLUGIN)
 
 target_include_directories(${TARGET_NAME} PRIVATE "${CMAKE_CURRENT_SOURCE_DIR}/"
index 51a70d1..7300d2a 100644 (file)
@@ -24,6 +24,7 @@ source_group("include" FILES ${PUBLIC_HEADERS})
 add_library(${TARGET_NAME} SHARED ${LIBRARY_SRC} ${PUBLIC_HEADERS})
 
 ie_faster_build(${TARGET_NAME}
+    UNITY
     PCH PRIVATE "src/precomp.hpp"
 )
 
index cd3857b..a83c9b6 100644 (file)
@@ -15,9 +15,6 @@
 
 namespace ngraph {
 
-template <typename T>
-VariantImpl<T>::~VariantImpl() { }
-
 template class ngraph::VariantImpl<FusedNames>;
 
 constexpr VariantTypeInfo VariantWrapper<FusedNames>::type_info;
@@ -81,4 +78,4 @@ std::vector<std::string> getFusedNamesVector(const std::shared_ptr<ngraph::Node>
 }
 
 
-}  // namespace ngraph
\ No newline at end of file
+}  // namespace ngraph
index 03b7e4f..e8b6689 100644 (file)
@@ -18,9 +18,6 @@
 
 namespace ngraph {
 
-template <typename T>
-VariantImpl<T>::~VariantImpl() { }
-
 template class ngraph::VariantImpl<PrimitivesPriority>;
 
 constexpr VariantTypeInfo VariantWrapper<PrimitivesPriority>::type_info;
index f194fb2..996c839 100644 (file)
@@ -11,6 +11,10 @@ file(GLOB_RECURSE SOURCES *.cpp *.hpp *.h)
 function(add_common_target TARGET_NAME STATIC_IE)
     add_library(${TARGET_NAME} STATIC ${SOURCES})
 
+    ie_faster_build(${TARGET_NAME}
+        UNITY
+    )
+
     set_ie_threading_interface_for(${TARGET_NAME})
 
     if(CMAKE_CXX_COMPILER_ID STREQUAL "GNU")
index 85d8b4d..dfbb242 100644 (file)
@@ -35,45 +35,45 @@ void throwFormat(const char* fileName, int lineNumber, const char* messageFormat
 
 }  // namespace details
 
-#define VPU_THROW_FORMAT(...)                                                         \
-    vpu::details::throwFormat<vpu::details::VPUException>(__FILE__, __LINE__, __VA_ARGS__)
+#define VPU_THROW_FORMAT(...)                                                                   \
+    ::vpu::details::throwFormat<::vpu::details::VPUException>(__FILE__, __LINE__, __VA_ARGS__)
 
-#define VPU_THROW_UNLESS(condition, ...)                                                       \
-    do {                                                                                       \
-        if (!(condition)) {                                                                    \
+#define VPU_THROW_UNLESS(condition, ...)                                                                \
+    do {                                                                                                \
+        if (!(condition)) {                                                                             \
             ::vpu::details::throwFormat<::vpu::details::VPUException>(__FILE__, __LINE__, __VA_ARGS__); \
-        }                                                                                      \
+        }                                                                                               \
     } while (false)
 
-#define VPU_THROW_UNSUPPORTED_UNLESS(condition, ...)                                                        \
-    do {                                                                                                    \
-        if (!(condition)) {                                                                                 \
-            vpu::details::throwFormat<vpu::details::UnsupportedLayerException>(__FILE__, __LINE__, __VA_ARGS__); \
-        }                                                                                                   \
+#define VPU_THROW_UNSUPPORTED_UNLESS(condition, ...)                                                                    \
+    do {                                                                                                                \
+        if (!(condition)) {                                                                                             \
+            ::vpu::details::throwFormat<::vpu::details::UnsupportedLayerException>(__FILE__, __LINE__, __VA_ARGS__);    \
+        }                                                                                                               \
     } while (false)
 
 #ifdef NDEBUG
-#   define VPU_INTERNAL_CHECK(condition, ...)                     \
-        do {                                                      \
-            if (!(condition)) {                                   \
-                vpu::details::throwFormat<details::VPUException>( \
-                    __FILE__, __LINE__,                           \
-                    "[Internal Error]: " __VA_ARGS__);            \
-            }                                                     \
+#   define VPU_INTERNAL_CHECK(condition, ...)                               \
+        do {                                                                \
+            if (!(condition)) {                                             \
+                ::vpu::details::throwFormat<::vpu::details::VPUException>(  \
+                    __FILE__, __LINE__,                                     \
+                    "[Internal Error]: " __VA_ARGS__);                      \
+            }                                                               \
         } while (false)
 #else
-#   define VPU_INTERNAL_CHECK(condition, ...)                     \
-        assert((condition) || !formatString(__VA_ARGS__).empty())
+#   define VPU_INTERNAL_CHECK(condition, ...)                       \
+        assert((condition) || !::vpu::formatString(__VA_ARGS__).empty())
 #endif
 
 #ifdef NDEBUG
-#   define VPU_INTERNAL_FAIL(...)                              \
-        vpu::details::throwFormat<details::VPUException>(      \
-            __FILE__, __LINE__,                                \
+#   define VPU_INTERNAL_FAIL(...)                                   \
+        ::vpu::details::throwFormat<::vpu::details::VPUException>(  \
+            __FILE__, __LINE__,                                     \
             "[Internal Error] Unreachable code: " __VA_ARGS__)
 #else
 #   define VPU_INTERNAL_FAIL(...)                           \
-        assert(false && !formatString(__VA_ARGS__).empty())
+        assert(false && !::vpu::formatString(__VA_ARGS__).empty())
 #endif
 
 }  // namespace vpu
index 57371c6..935a552 100644 (file)
@@ -60,7 +60,7 @@ bool DynamicShapeResolver::visit_attributes(ngraph::AttributeVisitor&) {
     return true;
 }
 
-namespace {
+namespace dyn_shape {
 
 template<element::Type_t ET>
 bool getShapeFromHostTensorData(const HostTensorPtr& data, Shape& result) {
@@ -189,11 +189,11 @@ bool evaluateDynamicShapeResolver(const HostTensorPtr& inputTensor,
     return rc;
 }
 
-}  // namespace
+}  // namespace dyn_shape
 
 bool DynamicShapeResolver::evaluate(const HostTensorVector& outputs,
                                     const HostTensorVector& inputs) const {
-    return evaluateDynamicShapeResolver(inputs[0], inputs[1], outputs[0]);
+    return dyn_shape::evaluateDynamicShapeResolver(inputs[0], inputs[1], outputs[0]);
 }
 
 }  // namespace op
index cb244bc..c90b42d 100644 (file)
@@ -67,7 +67,7 @@ bool OutShapeOfReshape::visit_attributes(ngraph::AttributeVisitor& visitor) {
     return true;
 }
 
-namespace {
+namespace out_shape {
 
 template<element::Type_t ET>
 bool getShapeFromHostTensorData(const HostTensorPtr& data, Shape& result) {
@@ -250,11 +250,11 @@ bool evaluateOutShapeOfReshape(
     return true;
 }
 
-}  // namespace
+}  // namespace out_shape
 
 bool OutShapeOfReshape::evaluate(const HostTensorVector& outputs,
                                  const HostTensorVector& inputs) const {
-    return evaluateOutShapeOfReshape(inputs[0], inputs[1], m_specialZero, outputs[0]);
+    return out_shape::evaluateOutShapeOfReshape(inputs[0], inputs[1], m_specialZero, outputs[0]);
 }
 
 
index 2e1ed7c..45c5abe 100644 (file)
@@ -19,4 +19,8 @@ addIeTargetTest(
         ADD_CPPLINT
         LABELS
             CPU
-)
\ No newline at end of file
+)
+
+ie_faster_build(${TARGET_NAME}
+    UNITY
+)
index 58e2bf6..697411c 100644 (file)
@@ -11,6 +11,10 @@ file(GLOB TEST_SRC ${CMAKE_CURRENT_SOURCE_DIR}/src/*.cpp)
 
 add_library(${TARGET_NAME} STATIC ${TEST_INCLUDE} ${TEST_SRC})
 
+ie_faster_build(${TARGET_NAME}
+    UNITY
+)
+
 list(APPEND EXPORT_DEPENDENCIES
         funcTestUtils
         ieTestHelpers
index 9a82e87..0c2e936 100644 (file)
@@ -144,4 +144,4 @@ endif()
 
 add_definitions(-DMKLDNN_ENABLE_CONCURRENT_EXEC)
 
-target_link_libraries(${TARGET} PRIVATE ${${TARGET}_LINKER_LIBS})
\ No newline at end of file
+target_link_libraries(${TARGET} PRIVATE ${${TARGET}_LINKER_LIBS})
index c4ae969..c1e3f69 100644 (file)
@@ -38,6 +38,7 @@ add_library(ngraph SHARED ${LIBRARY_SRC} ${PUBLIC_HEADERS})
 
 if(COMMAND ie_faster_build)
     ie_faster_build(ngraph
+        UNITY
         PCH PRIVATE "src/precomp.hpp"
     )
 endif()
index 2da6217..e4dcfe3 100644 (file)
@@ -47,8 +47,6 @@ namespace ngraph
         {
         }
 
-        ~VariantImpl() override;
-
         const value_type& get() const { return m_value; }
         value_type& get() { return m_value; }
         void set(const value_type& value) { m_value = value; }
index 6d59b36..2fa4919 100644 (file)
@@ -32,6 +32,7 @@ add_library(${TARGET_NAME} STATIC ${LIBRARY_SRC} ${PUBLIC_HEADERS})
 
 if(COMMAND ie_faster_build)
     ie_faster_build(${TARGET_NAME}
+        UNITY
         PCH PRIVATE "src/precomp.hpp"
     )
 endif()
index a2a4a53..60d094a 100644 (file)
@@ -16,6 +16,7 @@
 
 #pragma once
 
+#include <cmath>
 #include <cstddef>
 
 #include "ngraph/runtime/reference/autobroadcast_binop.hpp"
@@ -37,7 +38,7 @@ namespace ngraph
             {
                 autobroadcast_binop(
                     arg0, arg1, out, arg0_shape, arg1_shape, broadcast_spec, [](T x, T y) -> T {
-                        return x - y * floor(x / y);
+                        return x - y * std::floor(x / y);
                     });
             }
         }
index f02da22..34cc7d3 100644 (file)
@@ -54,7 +54,7 @@ shared_ptr<Node> descriptor::Output::get_node() const
     return m_node->shared_from_this();
 }
 
-Output<Node> descriptor::Output::get_output() const
+ngraph::Output<Node> descriptor::Output::get_output() const
 {
     return get_node()->output(m_index);
 }
index 2711195..071b10c 100644 (file)
@@ -40,7 +40,7 @@ shared_ptr<Node> op::Abs::clone_with_new_inputs(const OutputVector& new_args) co
     return make_shared<Abs>(new_args.at(0));
 }
 
-namespace
+namespace absop
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out, const size_t count)
@@ -80,5 +80,5 @@ namespace
 bool op::Abs::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::Abs::evaluate");
-    return evaluate_abs(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return absop::evaluate_abs(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index 8788eca..f307ac7 100644 (file)
@@ -49,7 +49,7 @@ shared_ptr<Node> op::Acos::clone_with_new_inputs(const OutputVector& new_args) c
     return make_shared<Acos>(new_args.at(0));
 }
 
-namespace
+namespace acosop
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out, const size_t count)
@@ -89,5 +89,5 @@ namespace
 bool op::Acos::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::Acos::evaluate");
-    return evaluate_acos(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return acosop::evaluate_acos(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index 3b90d8d..c3d5aa2 100644 (file)
@@ -40,7 +40,7 @@ shared_ptr<Node> op::v3::Acosh::clone_with_new_inputs(const OutputVector& new_ar
     return make_shared<Acosh>(new_args.at(0));
 }
 
-namespace
+namespace acoshop
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out)
@@ -77,5 +77,5 @@ namespace
 bool op::v3::Acosh::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v3::Acosh::evaluate");
-    return evaluate_acosh(inputs[0], outputs[0]);
+    return acoshop::evaluate_acosh(inputs[0], outputs[0]);
 }
index d76b237..bcf0c34 100644 (file)
@@ -53,7 +53,7 @@ shared_ptr<Node> ngraph::operator+(const Output<Node>& arg0, const Output<Node>&
     return make_shared<op::Add>(arg0, arg1);
 }
 
-namespace
+namespace add
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0,
@@ -110,7 +110,7 @@ namespace
 bool op::v0::Add::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::Add::evaluate");
-    return evaluate_add(inputs[0], inputs[1], outputs[0], get_autob());
+    return add::evaluate_add(inputs[0], inputs[1], outputs[0], get_autob());
 }
 
 // ------------------------------- v1 ------------------------------------------
@@ -140,5 +140,5 @@ shared_ptr<Node> op::v1::Add::clone_with_new_inputs(const OutputVector& new_args
 bool op::v1::Add::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::Add::evaluate");
-    return evaluate_add(inputs[0], inputs[1], outputs[0], get_autob());
+    return add::evaluate_add(inputs[0], inputs[1], outputs[0], get_autob());
 }
index 71c91a4..37df0da 100644 (file)
@@ -44,7 +44,7 @@ shared_ptr<Node> op::v1::LogicalAnd::clone_with_new_inputs(const OutputVector& n
     return make_shared<v1::LogicalAnd>(new_args.at(0), new_args.at(1), this->get_autob());
 }
 
-namespace
+namespace logand
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0,
@@ -94,5 +94,5 @@ bool op::v1::LogicalAnd::evaluate(const HostTensorVector& outputs,
                                   const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::LogicalAnd::evaluate");
-    return evaluate_logand(inputs[0], inputs[1], outputs[0], get_autob());
+    return logand::evaluate_logand(inputs[0], inputs[1], outputs[0], get_autob());
 }
index f96ff15..e567cb6 100644 (file)
@@ -50,7 +50,7 @@ shared_ptr<Node> op::Asin::clone_with_new_inputs(const OutputVector& new_args) c
     return make_shared<Asin>(new_args.at(0));
 }
 
-namespace
+namespace asinop
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out, const size_t count)
@@ -90,5 +90,5 @@ namespace
 bool op::Asin::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::Asin::evaluate");
-    return evaluate_asin(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return asinop::evaluate_asin(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index 856c83d..dd34582 100644 (file)
@@ -40,7 +40,7 @@ shared_ptr<Node> op::v3::Asinh::clone_with_new_inputs(const OutputVector& new_ar
     return make_shared<Asinh>(new_args.at(0));
 }
 
-namespace
+namespace asinhop
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out)
@@ -77,5 +77,5 @@ namespace
 bool op::v3::Asinh::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v3::Asinh::evaluate");
-    return evaluate_asinh(inputs[0], outputs[0]);
+    return asinhop::evaluate_asinh(inputs[0], outputs[0]);
 }
index 1084f5e..65a8053 100644 (file)
@@ -49,7 +49,7 @@ shared_ptr<Node> op::Atan::clone_with_new_inputs(const OutputVector& new_args) c
     return make_shared<Atan>(new_args.at(0));
 }
 
-namespace
+namespace atanop
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out, const size_t count)
@@ -89,5 +89,5 @@ namespace
 bool op::Atan::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::Atan::evaluate");
-    return evaluate_atan(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return atanop::evaluate_atan(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index c35a6d6..8907748 100644 (file)
@@ -40,7 +40,7 @@ shared_ptr<Node> op::v3::Atanh::clone_with_new_inputs(const OutputVector& new_ar
     return make_shared<Atanh>(new_args.at(0));
 }
 
-namespace
+namespace atanhop
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out)
@@ -77,5 +77,5 @@ namespace
 bool op::v3::Atanh::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v3::Atanh::evaluate");
-    return evaluate_atanh(inputs[0], outputs[0]);
+    return atanhop::evaluate_atanh(inputs[0], outputs[0]);
 }
index 0fae1b4..7ea7b52 100644 (file)
@@ -38,7 +38,7 @@ shared_ptr<Node> op::Ceiling::clone_with_new_inputs(const OutputVector& new_args
     return make_shared<Ceiling>(new_args.at(0));
 }
 
-namespace
+namespace ceiling
 {
     // function used by TYPE_CASE
     template <element::Type_t ET>
@@ -95,5 +95,5 @@ namespace
 bool op::Ceiling::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::Ceiling::evaluate");
-    return evaluate_ceiling(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return ceiling::evaluate_ceiling(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index 7b6b7ba..392603f 100644 (file)
@@ -29,7 +29,7 @@ NGRAPH_SUPPRESS_DEPRECATED_START
 
 constexpr NodeTypeInfo op::Clamp::type_info;
 
-namespace
+namespace clamp
 {
     template <element::Type_t ET, typename T>
     bool evaluate(const HostTensorPtr& arg, const HostTensorPtr& out, T min, T max, size_t count)
@@ -89,7 +89,7 @@ namespace
 bool op::v0::Clamp::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::Clamp::evaluate");
-    return evaluate_clamp(
+    return clamp::evaluate_clamp(
         inputs[0], outputs[0], get_min(), get_max(), shape_size(get_input_shape(0)));
 }
 
index 13e2807..9688a46 100644 (file)
@@ -49,7 +49,7 @@ shared_ptr<Node> op::Convert::clone_with_new_inputs(const OutputVector& new_args
     return make_shared<Convert>(new_args.at(0), m_destination_type);
 }
 
-namespace
+namespace convert
 {
     template <element::Type_t INPUT_ET, element::Type_t OUTPUT_ET>
     bool evaluate(const HostTensorPtr& arg, const HostTensorPtr& out)
@@ -129,5 +129,5 @@ bool op::v0::Convert::evaluate(const HostTensorVector& output_values,
                                const HostTensorVector& input_values) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::Convert::evaluate");
-    return evaluate_convert(input_values[0], output_values[0]);
+    return convert::evaluate_convert(input_values[0], output_values[0]);
 }
index b8f7905..728d13d 100644 (file)
@@ -46,7 +46,7 @@ shared_ptr<Node> op::Cos::clone_with_new_inputs(const OutputVector& new_args) co
     return make_shared<Cos>(new_args.at(0));
 }
 
-namespace
+namespace cosop
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out, const size_t count)
@@ -86,5 +86,5 @@ namespace
 bool op::Cos::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::Cos::evaluate");
-    return evaluate_cos(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return cosop::evaluate_cos(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index 740f796..e0b53cd 100644 (file)
@@ -45,7 +45,7 @@ shared_ptr<Node> op::Cosh::clone_with_new_inputs(const OutputVector& new_args) c
     return make_shared<Cosh>(new_args.at(0));
 }
 
-namespace
+namespace coshop
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out, const size_t count)
@@ -85,5 +85,5 @@ namespace
 bool op::Cosh::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::Cosh::evaluate");
-    return evaluate_cosh(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return coshop::evaluate_cosh(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index 0a4fd52..f93912d 100644 (file)
@@ -67,7 +67,7 @@ shared_ptr<Node> ngraph::operator/(const Output<Node>& arg0, const Output<Node>&
     return make_shared<op::v0::Divide>(arg0, arg1);
 }
 
-namespace
+namespace divide
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0,
@@ -117,7 +117,7 @@ namespace
 bool op::v0::Divide::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::Divide::evaluate");
-    return evaluate_divide(inputs[0], inputs[1], outputs[0], get_autob(), is_pythondiv());
+    return divide::evaluate_divide(inputs[0], inputs[1], outputs[0], get_autob(), is_pythondiv());
 }
 
 // ------------------------------ v1 -------------------------------------------
@@ -159,5 +159,5 @@ shared_ptr<Node> op::v1::Divide::clone_with_new_inputs(const OutputVector& new_a
 bool op::v1::Divide::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::Divide::evaluate");
-    return evaluate_divide(inputs[0], inputs[1], outputs[0], get_autob(), is_pythondiv());
+    return divide::evaluate_divide(inputs[0], inputs[1], outputs[0], get_autob(), is_pythondiv());
 }
index 8e3c844..1627e5f 100644 (file)
@@ -42,7 +42,7 @@ shared_ptr<Node> op::v0::Equal::clone_with_new_inputs(const OutputVector& new_ar
     return make_shared<op::v0::Equal>(new_args.at(0), new_args.at(1), this->get_autob());
 }
 
-namespace
+namespace equal
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0,
@@ -91,7 +91,7 @@ namespace
 bool op::v0::Equal::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::Equal::evaluate");
-    return evaluate_equal(inputs[0], inputs[1], outputs[0], get_autob());
+    return equal::evaluate_equal(inputs[0], inputs[1], outputs[0], get_autob());
 }
 
 //------------------------------- v1 -------------------------------------------
@@ -115,5 +115,5 @@ shared_ptr<Node> op::v1::Equal::clone_with_new_inputs(const OutputVector& new_ar
 bool op::v1::Equal::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::Equal::evaluate");
-    return evaluate_equal(inputs[0], inputs[1], outputs[0], get_autob());
+    return equal::evaluate_equal(inputs[0], inputs[1], outputs[0], get_autob());
 }
index 03268da..0975fd2 100644 (file)
@@ -44,7 +44,7 @@ op::Erf::Erf(const Output<Node>& arg)
     constructor_validate_and_infer_types();
 }
 
-namespace
+namespace erfop
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out, const size_t count)
@@ -84,5 +84,5 @@ namespace
 bool op::Erf::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::Erf::evaluate");
-    return evaluate_erf(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return erfop::evaluate_erf(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index 5ae51e1..4089dc0 100644 (file)
@@ -44,7 +44,7 @@ shared_ptr<Node> op::Exp::clone_with_new_inputs(const OutputVector& new_args) co
     return make_shared<Exp>(new_args.at(0));
 }
 
-namespace
+namespace expop
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out, const size_t count)
@@ -84,5 +84,5 @@ namespace
 bool op::Exp::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::Exp::evaluate");
-    return evaluate_exp(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return expop::evaluate_exp(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index c14cce1..9b02b30 100644 (file)
@@ -43,7 +43,7 @@ shared_ptr<Node> op::Floor::clone_with_new_inputs(const OutputVector& new_args)
     return make_shared<Floor>(new_args.at(0));
 }
 
-namespace
+namespace floorop
 {
     // function used by TYPE_CASE
     template <element::Type_t ET>
@@ -100,5 +100,5 @@ namespace
 bool op::Floor::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::Floor::evaluate");
-    return evaluate_floor(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return floorop::evaluate_floor(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index 07c71f7..8585cc4 100644 (file)
@@ -38,7 +38,7 @@ shared_ptr<Node> op::v1::FloorMod::clone_with_new_inputs(const OutputVector& new
     return make_shared<FloorMod>(new_args.at(0), new_args.at(1), this->get_autob());
 }
 
-namespace
+namespace floor_mod
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0,
@@ -92,5 +92,5 @@ bool op::v1::FloorMod::evaluate(const HostTensorVector& outputs,
                                 const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::FloorMod::evaluate");
-    return evaluate_floor_mod(inputs[0], inputs[1], outputs[0], get_autob());
+    return floor_mod::evaluate_floor_mod(inputs[0], inputs[1], outputs[0], get_autob());
 }
index 6b3340f..b735797 100644 (file)
@@ -202,7 +202,7 @@ shared_ptr<Node> op::v1::Gather::clone_with_new_inputs(const OutputVector& new_a
     return make_shared<v1::Gather>(new_args.at(PARAMS), new_args.at(INDICES), new_args.at(AXIS));
 }
 
-namespace
+namespace gather
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0,
@@ -290,7 +290,7 @@ namespace
 bool op::v0::Gather::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::Gather::evaluate");
-    return evaluate_gather(inputs[0], inputs[1], outputs[0], get_axis());
+    return gather::evaluate_gather(inputs[0], inputs[1], outputs[0], get_axis());
 }
 
 bool op::v1::Gather::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
@@ -318,5 +318,5 @@ bool op::v1::Gather::evaluate(const HostTensorVector& outputs, const HostTensorV
             axis += input_rank.get_length();
         }
     }
-    return evaluate_gather(inputs[0], inputs[1], outputs[0], axis);
+    return gather::evaluate_gather(inputs[0], inputs[1], outputs[0], axis);
 }
index 7434068..e84dd2e 100644 (file)
@@ -42,7 +42,7 @@ shared_ptr<Node> op::v0::Greater::clone_with_new_inputs(const OutputVector& new_
     return make_shared<op::v0::Greater>(new_args.at(0), new_args.at(1), this->get_autob());
 }
 
-namespace
+namespace greaterop
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0,
@@ -92,7 +92,7 @@ bool op::v0::Greater::evaluate(const HostTensorVector& outputs,
                                const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::Greater::evaluate");
-    return evaluate_greater(inputs[0], inputs[1], outputs[0], get_autob());
+    return greaterop::evaluate_greater(inputs[0], inputs[1], outputs[0], get_autob());
 }
 
 //-------------------------------------- v1 ------------------------------------
@@ -117,5 +117,5 @@ bool op::v1::Greater::evaluate(const HostTensorVector& outputs,
                                const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::Greater::evaluate");
-    return evaluate_greater(inputs[0], inputs[1], outputs[0], get_autob());
+    return greaterop::evaluate_greater(inputs[0], inputs[1], outputs[0], get_autob());
 }
index dac56de..97dc3ca 100644 (file)
@@ -42,7 +42,7 @@ shared_ptr<Node> op::v0::GreaterEq::clone_with_new_inputs(const OutputVector& ne
     return make_shared<op::v0::GreaterEq>(new_args.at(0), new_args.at(1), this->get_autob());
 }
 
-namespace
+namespace greater_equalop
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0,
@@ -92,7 +92,7 @@ bool op::v0::GreaterEq::evaluate(const HostTensorVector& outputs,
                                  const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::GreaterEq::evaluate");
-    return evaluate_greater_equal(inputs[0], inputs[1], outputs[0], get_autob());
+    return greater_equalop::evaluate_greater_equal(inputs[0], inputs[1], outputs[0], get_autob());
 }
 
 //---------------------------------- v1 ----------------------------------------
@@ -117,5 +117,5 @@ bool op::v1::GreaterEqual::evaluate(const HostTensorVector& outputs,
                                     const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::GreaterEqual::evaluate");
-    return evaluate_greater_equal(inputs[0], inputs[1], outputs[0], get_autob());
+    return greater_equalop::evaluate_greater_equal(inputs[0], inputs[1], outputs[0], get_autob());
 }
index 5dd0794..1d6e098 100644 (file)
@@ -42,7 +42,7 @@ shared_ptr<Node> op::v4::HSwish::clone_with_new_inputs(const OutputVector& new_a
     return make_shared<op::v4::HSwish>(new_args.at(0));
 }
 
-namespace
+namespace hswish
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg, const HostTensorPtr& out, const size_t count)
@@ -74,5 +74,5 @@ namespace
 
 bool op::v4::HSwish::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
-    return evaluate_hswish(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return hswish::evaluate_hswish(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index 1cbd3ab..468a78c 100644 (file)
@@ -42,7 +42,7 @@ shared_ptr<Node> op::v0::Less::clone_with_new_inputs(const OutputVector& new_arg
     return make_shared<op::v0::Less>(new_args.at(0), new_args.at(1), this->get_autob());
 }
 
-namespace
+namespace lessop
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0,
@@ -91,7 +91,7 @@ namespace
 bool op::v0::Less::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::Less::evaluate");
-    return evaluate_less(inputs[0], inputs[1], outputs[0], get_autob());
+    return lessop::evaluate_less(inputs[0], inputs[1], outputs[0], get_autob());
 }
 
 // ----------------------------- v1 --------------------------------------------
@@ -115,5 +115,5 @@ shared_ptr<Node> op::v1::Less::clone_with_new_inputs(const OutputVector& new_arg
 bool op::v1::Less::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::Less::evaluate");
-    return evaluate_less(inputs[0], inputs[1], outputs[0], get_autob());
+    return lessop::evaluate_less(inputs[0], inputs[1], outputs[0], get_autob());
 }
index 23ded6c..7ec143e 100644 (file)
@@ -42,7 +42,7 @@ shared_ptr<Node> op::v1::LessEqual::clone_with_new_inputs(const OutputVector& ne
     return make_shared<v1::LessEqual>(new_args.at(0), new_args.at(1), this->get_autob());
 }
 
-namespace
+namespace less_equalop
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0,
@@ -92,7 +92,7 @@ bool op::v1::LessEqual::evaluate(const HostTensorVector& outputs,
                                  const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::LessEqual::evaluate");
-    return evaluate_less_equal(inputs[0], inputs[1], outputs[0], get_autob());
+    return less_equalop::evaluate_less_equal(inputs[0], inputs[1], outputs[0], get_autob());
 }
 
 // ---------------------------------- v0 ---------------------------------------
@@ -116,5 +116,5 @@ shared_ptr<Node> op::v0::LessEq::clone_with_new_inputs(const OutputVector& new_a
 bool op::v0::LessEq::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::LessEq::evaluate");
-    return evaluate_less_equal(inputs[0], inputs[1], outputs[0], get_autob());
+    return less_equalop::evaluate_less_equal(inputs[0], inputs[1], outputs[0], get_autob());
 }
index 32c6c22..2a68eb5 100644 (file)
@@ -44,7 +44,7 @@ shared_ptr<Node> op::Log::clone_with_new_inputs(const OutputVector& new_args) co
     return make_shared<Log>(new_args.at(0));
 }
 
-namespace
+namespace logop
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out, const size_t count)
@@ -84,5 +84,5 @@ namespace
 bool op::Log::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::Log::evaluate");
-    return evaluate_log(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return logop::evaluate_log(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index eca3b14..9c09cd3 100644 (file)
@@ -111,7 +111,7 @@ shared_ptr<Node> op::MatMul::clone_with_new_inputs(const OutputVector& new_args)
     return make_shared<MatMul>(new_args.at(0), new_args.at(1), m_transpose_a, m_transpose_b);
 }
 
-namespace
+namespace matmul
 {
     Shape evaluate_matmul_output_shape(const Shape& arg0_shape,
                                        const Shape& arg1_shape,
@@ -236,5 +236,6 @@ namespace
 bool op::MatMul::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::MatMul::evaluate");
-    return evaluate_matmul(inputs[0], inputs[1], outputs[0], get_transpose_a(), get_transpose_b());
+    return matmul::evaluate_matmul(
+        inputs[0], inputs[1], outputs[0], get_transpose_a(), get_transpose_b());
 }
index e3d1791..adaa137 100644 (file)
@@ -88,7 +88,7 @@ shared_ptr<Node> op::v0::Max::get_default_value() const
     }
 }
 
-namespace
+namespace maxop
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg,
@@ -131,7 +131,7 @@ namespace
 bool op::v0::Max::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::Max::evaluate");
-    return evaluate_max(inputs[0], outputs[0], get_reduction_axes(), false);
+    return maxop::evaluate_max(inputs[0], outputs[0], get_reduction_axes(), false);
 }
 
 constexpr NodeTypeInfo op::v1::ReduceMax::type_info;
@@ -154,5 +154,5 @@ bool op::v1::ReduceMax::evaluate(const HostTensorVector& outputs,
                                  const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::ReduceMax::evaluate");
-    return evaluate_max(inputs[0], outputs[0], get_reduction_axes(), get_keep_dims());
+    return maxop::evaluate_max(inputs[0], outputs[0], get_reduction_axes(), get_keep_dims());
 }
index 35525d0..ba7c0b2 100644 (file)
@@ -155,7 +155,7 @@ shared_ptr<Node> op::v1::MaxPool::get_default_value() const
     return op::Constant::create(get_element_type(), get_shape(), {0});
 }
 
-namespace
+namespace maxpool
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg,
@@ -230,11 +230,11 @@ bool op::v1::MaxPool::evaluate(const HostTensorVector& outputs,
                                                    true,
                                                    get_rounding_type() == op::RoundingType::CEIL);
 
-    return evaluate_maxpool(inputs[0],
-                            outputs[0],
-                            out_shape.get_shape(),
-                            get_kernel(),
-                            get_strides(),
-                            get_pads_begin(),
-                            get_pads_end());
+    return maxpool::evaluate_maxpool(inputs[0],
+                                     outputs[0],
+                                     out_shape.get_shape(),
+                                     get_kernel(),
+                                     get_strides(),
+                                     get_pads_begin(),
+                                     get_pads_end());
 }
index b61c6a0..8095847 100644 (file)
@@ -48,7 +48,7 @@ shared_ptr<Node> op::v0::Maximum::clone_with_new_inputs(const OutputVector& new_
     return make_shared<op::v0::Maximum>(new_args.at(0), new_args.at(1), this->get_autob());
 }
 
-namespace
+namespace maximumop
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0,
@@ -96,7 +96,7 @@ bool op::v0::Maximum::evaluate(const HostTensorVector& outputs,
                                const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::Maximum::evaluate");
-    return evaluate_maximum(inputs[0], inputs[1], outputs[0], get_autob());
+    return maximumop::evaluate_maximum(inputs[0], inputs[1], outputs[0], get_autob());
 }
 
 // ------------------------------------ v1 -------------------------------------
@@ -121,5 +121,5 @@ bool op::v1::Maximum::evaluate(const HostTensorVector& outputs,
                                const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::Maximum::evaluate");
-    return evaluate_maximum(inputs[0], inputs[1], outputs[0], get_autob());
+    return maximumop::evaluate_maximum(inputs[0], inputs[1], outputs[0], get_autob());
 }
index 600da12..a77f10e 100644 (file)
@@ -88,7 +88,7 @@ shared_ptr<Node> op::v0::Min::get_default_value() const
     }
 }
 
-namespace
+namespace minop
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg, const HostTensorPtr& out, const AxisSet& axes)
@@ -125,7 +125,7 @@ namespace
 bool op::v0::Min::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::Min::evaluate");
-    return evaluate_min(inputs[0], outputs[0], get_reduction_axes());
+    return minop::evaluate_min(inputs[0], outputs[0], get_reduction_axes());
 }
 
 constexpr NodeTypeInfo op::v1::ReduceMin::type_info;
@@ -148,5 +148,5 @@ bool op::v1::ReduceMin::evaluate(const HostTensorVector& outputs,
                                  const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::ReduceMin::evaluate");
-    return evaluate_min(inputs[0], outputs[0], get_reduction_axes());
+    return minop::evaluate_min(inputs[0], outputs[0], get_reduction_axes());
 }
index a4849d6..9520fc2 100644 (file)
@@ -48,7 +48,7 @@ shared_ptr<Node> op::v0::Minimum::clone_with_new_inputs(const OutputVector& new_
     return make_shared<op::v0::Minimum>(new_args.at(0), new_args.at(1), this->get_autob());
 }
 
-namespace
+namespace minimumop
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0,
@@ -96,7 +96,7 @@ bool op::v0::Minimum::evaluate(const HostTensorVector& outputs,
                                const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::Minimum::evaluate");
-    return evaluate_minimum(inputs[0], inputs[1], outputs[0], get_autob());
+    return minimumop::evaluate_minimum(inputs[0], inputs[1], outputs[0], get_autob());
 }
 
 // ------------------------------ v1 -------------------------------------------
@@ -121,5 +121,5 @@ bool op::v1::Minimum::evaluate(const HostTensorVector& outputs,
                                const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::Minimum::evaluate");
-    return evaluate_minimum(inputs[0], inputs[1], outputs[0], get_autob());
+    return minimumop::evaluate_minimum(inputs[0], inputs[1], outputs[0], get_autob());
 }
index e5d7e01..ed278b3 100644 (file)
@@ -50,7 +50,7 @@ shared_ptr<Node> op::v4::Mish::clone_with_new_inputs(const OutputVector& new_arg
     return make_shared<Mish>(new_args.at(0));
 }
 
-namespace
+namespace mish
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out, const size_t count)
@@ -80,5 +80,5 @@ namespace
 bool op::v4::Mish::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v4::Mish::evaluate");
-    return evaluate_mish(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return mish::evaluate_mish(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index b97fa37..c80763c 100644 (file)
@@ -42,7 +42,7 @@ shared_ptr<Node> op::v0::Multiply::clone_with_new_inputs(const OutputVector& new
     return make_shared<op::v0::Multiply>(new_args.at(0), new_args.at(1), this->get_autob());
 }
 
-namespace
+namespace multiplyop
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0,
@@ -90,7 +90,7 @@ bool op::v0::Multiply::evaluate(const HostTensorVector& outputs,
                                 const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::Multiply::evaluate");
-    return evaluate_multiply(inputs[0], inputs[1], outputs[0], get_autob());
+    return multiplyop::evaluate_multiply(inputs[0], inputs[1], outputs[0], get_autob());
 }
 
 // ------------------------------------ v1 -------------------------------------
@@ -115,7 +115,7 @@ bool op::v1::Multiply::evaluate(const HostTensorVector& outputs,
                                 const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::Multiply::evaluate");
-    return evaluate_multiply(inputs[0], inputs[1], outputs[0], get_autob());
+    return multiplyop::evaluate_multiply(inputs[0], inputs[1], outputs[0], get_autob());
 }
 
 // -----------------------------------------------------------------------------
index 1d521cf..bd25a90 100644 (file)
@@ -41,7 +41,7 @@ shared_ptr<Node> op::Negative::clone_with_new_inputs(const OutputVector& new_arg
     return make_shared<Negative>(new_args.at(0));
 }
 
-namespace
+namespace negativeop
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out, const size_t count)
@@ -81,7 +81,7 @@ namespace
 bool op::Negative::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::Negative::evaluate");
-    return evaluate_negative(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return negativeop::evaluate_negative(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
 
 shared_ptr<Node> ngraph::operator-(const Output<Node>& arg0)
index fd24ed0..9e544ab 100644 (file)
@@ -84,7 +84,7 @@ shared_ptr<Node> op::v3::NonZero::clone_with_new_inputs(const OutputVector& new_
     return make_shared<v3::NonZero>(new_args.at(0), m_output_type);
 }
 
-namespace
+namespace nonzero
 {
     template <element::Type_t INPUT_ET, element::Type_t OUT_ET>
     bool evaluate_nonzero_execute(const HostTensorPtr& input, const HostTensorPtr& output)
@@ -163,5 +163,5 @@ bool op::v3::NonZero::evaluate(const HostTensorVector& outputs,
                                const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v3::NonZero::evaluate");
-    return evaluate_nonzero(inputs[0], outputs[0]);
+    return nonzero::evaluate_nonzero(inputs[0], outputs[0]);
 }
index 728a21e..877f75e 100644 (file)
@@ -57,7 +57,7 @@ shared_ptr<Node> op::v1::LogicalNot::clone_with_new_inputs(const OutputVector& n
     return make_shared<v1::LogicalNot>(new_args.at(0));
 }
 
-namespace
+namespace notop
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out, const size_t count)
@@ -99,7 +99,7 @@ bool op::v1::LogicalNot::evaluate(const HostTensorVector& outputs,
                                   const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::LogicalNot::evaluate");
-    return evaluate_not(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return notop::evaluate_not(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
 
 constexpr NodeTypeInfo op::v0::Not::type_info;
@@ -129,5 +129,5 @@ shared_ptr<Node> op::v0::Not::clone_with_new_inputs(const OutputVector& new_args
 bool op::Not::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::Not::evaluate");
-    return evaluate_not(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return notop::evaluate_not(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index 5f569d2..643e92b 100644 (file)
@@ -42,7 +42,7 @@ shared_ptr<Node> op::v0::NotEqual::clone_with_new_inputs(const OutputVector& new
     return make_shared<op::v0::NotEqual>(new_args.at(0), new_args.at(1), this->get_autob());
 }
 
-namespace
+namespace not_equalop
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0,
@@ -92,7 +92,7 @@ bool op::v0::NotEqual::evaluate(const HostTensorVector& outputs,
                                 const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::NotEqual::evaluate");
-    return evaluate_not_equal(inputs[0], inputs[1], outputs[0], get_autob());
+    return not_equalop::evaluate_not_equal(inputs[0], inputs[1], outputs[0], get_autob());
 }
 
 // ----------------------------------- v1 --------------------------------------
@@ -117,5 +117,5 @@ bool op::v1::NotEqual::evaluate(const HostTensorVector& outputs,
                                 const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::NotEqual::evaluate");
-    return evaluate_not_equal(inputs[0], inputs[1], outputs[0], get_autob());
+    return not_equalop::evaluate_not_equal(inputs[0], inputs[1], outputs[0], get_autob());
 }
index dc52e71..0e59895 100644 (file)
@@ -40,7 +40,7 @@ shared_ptr<Node> op::v1::LogicalOr::clone_with_new_inputs(const OutputVector& ne
     return make_shared<v1::LogicalOr>(new_args.at(0), new_args.at(1), this->get_autob());
 }
 
-namespace
+namespace logor
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0,
@@ -90,7 +90,7 @@ bool op::v1::LogicalOr::evaluate(const HostTensorVector& outputs,
                                  const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::LogicalOr::evaluate");
-    return evaluate_logor(inputs[0], inputs[1], outputs[0], get_autob());
+    return logor::evaluate_logor(inputs[0], inputs[1], outputs[0], get_autob());
 }
 
 constexpr NodeTypeInfo op::v0::Or::type_info;
@@ -112,5 +112,5 @@ shared_ptr<Node> op::v0::Or::clone_with_new_inputs(const OutputVector& new_args)
 bool op::v0::Or::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::Or::evaluate");
-    return evaluate_logor(inputs[0], inputs[1], outputs[0], get_autob());
+    return logor::evaluate_logor(inputs[0], inputs[1], outputs[0], get_autob());
 }
index f107d70..9403df6 100644 (file)
@@ -45,7 +45,7 @@ shared_ptr<Node> op::v0::Power::clone_with_new_inputs(const OutputVector& new_ar
     return make_shared<op::v0::Power>(new_args.at(0), new_args.at(1), this->get_autob());
 }
 
-namespace
+namespace power
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0,
@@ -92,7 +92,7 @@ namespace
 bool op::v0::Power::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::Power::evaluate");
-    return evaluate_power(inputs[0], inputs[1], outputs[0], get_autob());
+    return power::evaluate_power(inputs[0], inputs[1], outputs[0], get_autob());
 }
 
 // ------------------------------ v1 -------------------------------------------
@@ -116,5 +116,5 @@ shared_ptr<Node> op::v1::Power::clone_with_new_inputs(const OutputVector& new_ar
 bool op::v1::Power::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::Power::evaluate");
-    return evaluate_power(inputs[0], inputs[1], outputs[0], get_autob());
+    return power::evaluate_power(inputs[0], inputs[1], outputs[0], get_autob());
 }
index 357b3d2..cf45679 100644 (file)
@@ -96,37 +96,42 @@ shared_ptr<Node> op::PRelu::clone_with_new_inputs(const OutputVector& new_args)
     return make_shared<PRelu>(new_args.at(0), new_args.at(1));
 }
 
-template <element::Type_t ET>
-bool evaluate(const HostTensorPtr& arg, const HostTensorPtr& slope, const HostTensorPtr& out)
+namespace prelu
 {
-    runtime::reference::prelu(arg->get_data_ptr<ET>(),
-                              slope->get_data_ptr<ET>(),
-                              out->get_data_ptr<ET>(),
-                              arg->get_shape(),
-                              slope->get_shape());
-    return true;
-}
+    template <element::Type_t ET>
+    bool evaluate(const HostTensorPtr& arg, const HostTensorPtr& slope, const HostTensorPtr& out)
+    {
+        runtime::reference::prelu(arg->get_data_ptr<ET>(),
+                                  slope->get_data_ptr<ET>(),
+                                  out->get_data_ptr<ET>(),
+                                  arg->get_shape(),
+                                  slope->get_shape());
+        return true;
+    }
 
-bool evaluate_prelu(const HostTensorPtr& arg, const HostTensorPtr& slope, const HostTensorPtr& out)
-{
-    bool rc = true;
-    switch (arg->get_element_type())
+    bool evaluate_prelu(const HostTensorPtr& arg,
+                        const HostTensorPtr& slope,
+                        const HostTensorPtr& out)
     {
-        TYPE_CASE(i8)(arg, slope, out);
-        break;
-        TYPE_CASE(bf16)(arg, slope, out);
-        break;
-        TYPE_CASE(f16)(arg, slope, out);
-        break;
-        TYPE_CASE(f32)(arg, slope, out);
-        break;
-    default: rc = false; break;
+        bool rc = true;
+        switch (arg->get_element_type())
+        {
+            TYPE_CASE(i8)(arg, slope, out);
+            break;
+            TYPE_CASE(bf16)(arg, slope, out);
+            break;
+            TYPE_CASE(f16)(arg, slope, out);
+            break;
+            TYPE_CASE(f32)(arg, slope, out);
+            break;
+        default: rc = false; break;
+        }
+        return rc;
     }
-    return rc;
 }
 
 bool op::PRelu::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::PRelu::evaluate");
-    return evaluate_prelu(inputs[0], inputs[1], outputs[0]);
+    return prelu::evaluate_prelu(inputs[0], inputs[1], outputs[0]);
 }
index 22854d7..4376788 100644 (file)
@@ -151,7 +151,7 @@ bool op::PriorBox::visit_attributes(AttributeVisitor& visitor)
     return true;
 }
 
-namespace
+namespace prior_box
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0,
index c142ec7..4b173c6 100644 (file)
@@ -106,7 +106,7 @@ bool op::PriorBoxClustered::visit_attributes(AttributeVisitor& visitor)
     return true;
 }
 
-namespace
+namespace prior_box_clustered
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0,
index 51e24ad..9dbd3a0 100644 (file)
@@ -51,7 +51,7 @@ shared_ptr<Node> op::v0::Product::get_default_value() const
     return ngraph::make_constant_from_string("1", get_element_type(), get_shape());
 }
 
-namespace
+namespace product
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg,
@@ -95,5 +95,5 @@ bool op::v0::Product::evaluate(const HostTensorVector& outputs,
                                const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::Product::evaluate");
-    return evaluate_product(inputs[0], outputs[0], get_reduction_axes(), false);
+    return product::evaluate_product(inputs[0], outputs[0], get_reduction_axes(), false);
 }
index 0840c8e..b0a1b0f 100644 (file)
@@ -45,7 +45,7 @@ shared_ptr<Node> op::v4::ReduceL1::clone_with_new_inputs(const OutputVector& new
     return make_shared<op::v4::ReduceL1>(new_args.at(0), new_args.at(1), get_keep_dims());
 }
 
-namespace
+namespace reduce_l1
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg,
@@ -87,5 +87,5 @@ bool op::v4::ReduceL1::evaluate(const HostTensorVector& outputs,
                                 const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v4::ReduceL1::evaluate");
-    return evaluate_sum(inputs[0], outputs[0], get_reduction_axes(), get_keep_dims());
+    return reduce_l1::evaluate_sum(inputs[0], outputs[0], get_reduction_axes(), get_keep_dims());
 }
index 7f036aa..066f72e 100644 (file)
@@ -45,7 +45,7 @@ shared_ptr<Node> op::v4::ReduceL2::clone_with_new_inputs(const OutputVector& new
     return make_shared<op::v4::ReduceL2>(new_args.at(0), new_args.at(1), get_keep_dims());
 }
 
-namespace
+namespace reduce_l2
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg,
@@ -83,5 +83,6 @@ bool op::v4::ReduceL2::evaluate(const HostTensorVector& outputs,
                                 const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v4::ReduceL2::evaluate");
-    return evaluate_reduce_l2(inputs[0], outputs[0], get_reduction_axes(), get_keep_dims());
+    return reduce_l2::evaluate_reduce_l2(
+        inputs[0], outputs[0], get_reduction_axes(), get_keep_dims());
 }
index ac9fa10..8758bff 100644 (file)
@@ -41,7 +41,7 @@ shared_ptr<Node> op::v1::ReduceMean::clone_with_new_inputs(const OutputVector& n
     return make_shared<op::v1::ReduceMean>(new_args.at(0), new_args.at(1), get_keep_dims());
 }
 
-namespace
+namespace mean
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg,
@@ -85,5 +85,5 @@ bool op::v1::ReduceMean::evaluate(const HostTensorVector& outputs,
                                   const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::ReduceMean::evaluate");
-    return evaluate_mean(inputs[0], outputs[0], get_reduction_axes(), get_keep_dims());
+    return mean::evaluate_mean(inputs[0], outputs[0], get_reduction_axes(), get_keep_dims());
 }
index ccddbfc..f6a5a67 100644 (file)
@@ -45,7 +45,7 @@ shared_ptr<Node> op::v1::ReduceProd::clone_with_new_inputs(const OutputVector& n
     return make_shared<ReduceProd>(new_args.at(0), new_args.at(1), get_keep_dims());
 }
 
-namespace
+namespace reduce_prod
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg,
@@ -89,5 +89,6 @@ bool op::v1::ReduceProd::evaluate(const HostTensorVector& outputs,
                                   const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::ReduceProd::evaluate");
-    return evaluate_product(inputs[0], outputs[0], get_reduction_axes(), get_keep_dims());
+    return reduce_prod::evaluate_product(
+        inputs[0], outputs[0], get_reduction_axes(), get_keep_dims());
 }
index 7ea978d..9e30634 100644 (file)
@@ -46,7 +46,7 @@ shared_ptr<Node> op::v1::ReduceSum::clone_with_new_inputs(const OutputVector& ne
     return make_shared<ReduceSum>(new_args.at(0), new_args.at(1), get_keep_dims());
 }
 
-namespace
+namespace reduce_sum
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg,
@@ -90,5 +90,5 @@ bool op::v1::ReduceSum::evaluate(const HostTensorVector& outputs,
                                  const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::ReduceSum::evaluate");
-    return evaluate_sum(inputs[0], outputs[0], get_reduction_axes(), get_keep_dims());
+    return reduce_sum::evaluate_sum(inputs[0], outputs[0], get_reduction_axes(), get_keep_dims());
 }
index bf16f8f..634d654 100644 (file)
@@ -39,7 +39,7 @@ shared_ptr<Node> op::Relu::clone_with_new_inputs(const OutputVector& new_args) c
     return make_shared<Relu>(new_args.at(0));
 }
 
-namespace
+namespace relu
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out, const size_t count)
@@ -79,5 +79,5 @@ namespace
 bool op::Relu::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::Relu::evaluate");
-    return evaluate_relu(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return relu::evaluate_relu(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index 7e57673..7bf920c 100644 (file)
@@ -40,7 +40,7 @@ shared_ptr<Node> op::Round::clone_with_new_inputs(const OutputVector& new_args)
     return make_shared<Round>(new_args.at(0));
 }
 
-namespace
+namespace roundop
 {
     // function used by TYPE_CASE
     template <element::Type_t ET>
@@ -97,5 +97,5 @@ namespace
 bool op::Round::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::Round::evaluate");
-    return evaluate_round(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return roundop::evaluate_round(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index c1ed7ea..0d8bf70 100644 (file)
@@ -136,7 +136,7 @@ shared_ptr<Node>
         inputs.at(0), inputs.at(1), inputs.at(2), inputs.at(3));
 }
 
-namespace
+namespace scatter_element_update
 {
     template <element::Type_t DT, element::Type_t IT, element::Type_t AT>
     bool evaluate(const HostTensorPtr& data,
@@ -294,6 +294,6 @@ bool op::v3::ScatterElementsUpdate::evaluate(const HostTensorVector& outputs,
         }
     }
 
-    return evaluate_scatter_element_update(
+    return scatter_element_update::evaluate_scatter_element_update(
         inputs[0], inputs[1], inputs[2], inputs[3], outputs[0], normalized_axis);
 }
index 851ddd9..6bd6a78 100644 (file)
@@ -62,7 +62,7 @@ shared_ptr<Node> op::v3::ShapeOf::clone_with_new_inputs(const OutputVector& new_
     return new_shape_of;
 }
 
-namespace
+namespace shape_of
 {
     template <element::Type_t ET>
     inline bool evaluate(const Shape& shape, const HostTensorPtr& output_value)
@@ -160,13 +160,13 @@ bool op::v3::ShapeOf::evaluate(const HostTensorVector& output_values,
                                const HostTensorVector& input_values) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v3::ShapeOf::evaluate");
-    return evaluate_shape_of(output_values[0], input_values[0]);
+    return shape_of::evaluate_shape_of(output_values[0], input_values[0]);
 }
 
 bool op::v3::ShapeOf::constant_fold(OutputVector& output_values, const OutputVector& input_values)
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraph, "op::v3::ShapeOf::constant_fold");
-    return constant_fold_shape_of(this, output_values[0], input_values[0], m_is_foldable);
+    return shape_of::constant_fold_shape_of(this, output_values[0], input_values[0], m_is_foldable);
 }
 
 // op::v0::ShapeOf
@@ -207,11 +207,11 @@ bool op::v0::ShapeOf::evaluate(const HostTensorVector& output_values,
                                const HostTensorVector& input_values) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::ShapeOf::evaluate");
-    return evaluate_shape_of(output_values[0], input_values[0]);
+    return shape_of::evaluate_shape_of(output_values[0], input_values[0]);
 }
 
 bool op::v0::ShapeOf::constant_fold(OutputVector& output_values, const OutputVector& input_values)
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraph, "op::v0::ShapeOf::constant_fold");
-    return constant_fold_shape_of(this, output_values[0], input_values[0], m_is_foldable);
+    return shape_of::constant_fold_shape_of(this, output_values[0], input_values[0], m_is_foldable);
 }
index 72affdc..b27cab0 100644 (file)
@@ -40,7 +40,7 @@ op::Sigmoid::Sigmoid(const Output<Node>& arg)
     constructor_validate_and_infer_types();
 }
 
-namespace
+namespace sigmoid
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out, const size_t count)
@@ -80,5 +80,5 @@ namespace
 bool op::Sigmoid::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::Sigmoid::evaluate");
-    return evaluate_sigmoid(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return sigmoid::evaluate_sigmoid(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index 727fa54..07a8297 100644 (file)
@@ -43,7 +43,7 @@ shared_ptr<Node> op::Sign::clone_with_new_inputs(const OutputVector& new_args) c
     return make_shared<Sign>(new_args.at(0));
 }
 
-namespace
+namespace signop
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out, const size_t count)
@@ -83,5 +83,5 @@ namespace
 bool op::Sign::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::Sign::evaluate");
-    return evaluate_sign(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return signop::evaluate_sign(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index 219dee9..6d6e4a5 100644 (file)
@@ -45,7 +45,7 @@ shared_ptr<Node> op::Sin::clone_with_new_inputs(const OutputVector& new_args) co
     return make_shared<Sin>(new_args.at(0));
 }
 
-namespace
+namespace sinop
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out, const size_t count)
@@ -85,5 +85,5 @@ namespace
 bool op::Sin::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::Sin::evaluate");
-    return evaluate_sin(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return sinop::evaluate_sin(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index 06d7af1..6c646f1 100644 (file)
@@ -45,7 +45,7 @@ shared_ptr<Node> op::Sinh::clone_with_new_inputs(const OutputVector& new_args) c
     return make_shared<Sinh>(new_args.at(0));
 }
 
-namespace
+namespace sinhop
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out, const size_t count)
@@ -85,5 +85,5 @@ namespace
 bool op::Sinh::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::Sinh::evaluate");
-    return evaluate_sinh(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return sinhop::evaluate_sinh(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index fc63ed4..e8362f8 100644 (file)
@@ -48,7 +48,7 @@ shared_ptr<Node> op::v4::SoftPlus::clone_with_new_inputs(const OutputVector& new
     return make_shared<op::v4::SoftPlus>(new_args.at(0));
 }
 
-namespace
+namespace softplus
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg, const HostTensorPtr& out, const size_t count)
@@ -81,5 +81,5 @@ bool op::v4::SoftPlus::evaluate(const HostTensorVector& outputs,
                                 const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::SoftPlus::evaluate");
-    return evaluate_softplus(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return softplus::evaluate_softplus(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index 0e95fdd..4922659 100644 (file)
@@ -198,7 +198,7 @@ shared_ptr<Node> op::v1::Split::clone_with_new_inputs(const OutputVector& new_ar
     return make_shared<v1::Split>(new_args.at(0), new_args.at(1), m_num_splits);
 }
 
-namespace
+namespace split
 {
     inline bool evaluate(const HostTensorPtr& data_tensor,
                          const HostTensorVector& outputs,
@@ -244,5 +244,5 @@ bool op::v1::Split::evaluate(const HostTensorVector& outputs, const HostTensorVe
     const auto& data = inputs[0];
     const auto& axis = inputs[1];
 
-    return evaluate_split(data, axis, outputs, m_num_splits, this);
+    return split::evaluate_split(data, axis, outputs, m_num_splits, this);
 }
index d3c0bde..2cb1507 100644 (file)
@@ -45,7 +45,7 @@ shared_ptr<Node> op::Sqrt::clone_with_new_inputs(const OutputVector& new_args) c
     return make_shared<Sqrt>(new_args.at(0));
 }
 
-namespace
+namespace sqrtop
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out, const size_t count)
@@ -82,5 +82,5 @@ namespace
 bool op::Sqrt::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::Sqrt::evaluate");
-    return evaluate_sqrt(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return sqrtop::evaluate_sqrt(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index 1fa2667..558561b 100644 (file)
@@ -137,7 +137,7 @@ shared_ptr<Node> op::Squeeze::clone_with_new_inputs(const OutputVector& new_args
     return make_shared<Squeeze>(new_args.at(0), new_args.at(1));
 }
 
-namespace
+namespace squeeze
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out)
@@ -210,5 +210,5 @@ bool op::v0::Squeeze::evaluate(const HostTensorVector& outputs,
                                const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::Squeeze::evaluate");
-    return evaluate_squeeze(inputs[0], inputs[1], outputs[0]);
+    return squeeze::evaluate_squeeze(inputs[0], inputs[1], outputs[0]);
 }
index 5c49c09..ee9a9fc 100644 (file)
@@ -228,7 +228,7 @@ shared_ptr<Node> op::v1::StridedSlice::clone_with_new_inputs(const OutputVector&
                                          m_ellipsis_mask);
 }
 
-namespace
+namespace strided_slice
 {
     inline bool evaluate(const HostTensorPtr& in, const SlicePlan& sp, const HostTensorPtr& out)
 
@@ -274,14 +274,14 @@ bool op::v1::StridedSlice::evaluate(const HostTensorVector& output_values,
                                     const HostTensorVector& input_values) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::StridedSlice::evaluate");
-    return evaluate_strided_slice(input_values[0],
-                                  input_values[1],
-                                  input_values[2],
-                                  input_values[3],
-                                  convert_mask_to_axis_set(get_begin_mask()),
-                                  convert_mask_to_axis_set(get_end_mask()),
-                                  convert_mask_to_axis_set(get_new_axis_mask()),
-                                  convert_mask_to_axis_set(get_shrink_axis_mask()),
-                                  convert_mask_to_axis_set(get_ellipsis_mask()),
-                                  output_values[0]);
+    return strided_slice::evaluate_strided_slice(input_values[0],
+                                                 input_values[1],
+                                                 input_values[2],
+                                                 input_values[3],
+                                                 convert_mask_to_axis_set(get_begin_mask()),
+                                                 convert_mask_to_axis_set(get_end_mask()),
+                                                 convert_mask_to_axis_set(get_new_axis_mask()),
+                                                 convert_mask_to_axis_set(get_shrink_axis_mask()),
+                                                 convert_mask_to_axis_set(get_ellipsis_mask()),
+                                                 output_values[0]);
 }
index dc68cfb..79ccaaa 100644 (file)
@@ -48,7 +48,7 @@ shared_ptr<ngraph::Node> ngraph::operator-(const Output<Node> arg0, const Output
     return make_shared<op::v0::Subtract>(arg0, arg1);
 }
 
-namespace
+namespace subtract
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0,
@@ -96,7 +96,7 @@ bool op::v0::Subtract::evaluate(const HostTensorVector& outputs,
                                 const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::Subtract::evaluate");
-    return evaluate_subtract(inputs[0], inputs[1], outputs[0], get_autob());
+    return subtract::evaluate_subtract(inputs[0], inputs[1], outputs[0], get_autob());
 }
 
 // ------------------------------- v1 ------------------------------------------
@@ -121,5 +121,5 @@ bool op::v1::Subtract::evaluate(const HostTensorVector& outputs,
                                 const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::Subtract::evaluate");
-    return evaluate_subtract(inputs[0], inputs[1], outputs[0], get_autob());
+    return subtract::evaluate_subtract(inputs[0], inputs[1], outputs[0], get_autob());
 }
index 446f92f..fc74ed2 100644 (file)
@@ -52,7 +52,7 @@ shared_ptr<Node> op::v0::Sum::get_default_value() const
     return ngraph::make_constant_from_string("0", get_element_type(), get_shape());
 }
 
-namespace
+namespace sum
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg,
@@ -95,5 +95,5 @@ namespace
 bool op::v0::Sum::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::Sum::evaluate");
-    return evaluate_sum(inputs[0], outputs[0], get_reduction_axes(), false);
+    return sum::evaluate_sum(inputs[0], outputs[0], get_reduction_axes(), false);
 }
index e1a8347..5dba649 100644 (file)
@@ -85,7 +85,7 @@ shared_ptr<Node> op::v4::Swish::clone_with_new_inputs(const OutputVector& new_ar
     }
 }
 
-namespace
+namespace swish
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg0,
@@ -131,10 +131,12 @@ bool op::v4::Swish::evaluate(const HostTensorVector& outputs, const HostTensorVe
 {
     if (inputs.size() == 2)
     {
-        return evaluate_swish(inputs[0], inputs[1], outputs[0], shape_size(get_output_shape(0)));
+        return swish::evaluate_swish(
+            inputs[0], inputs[1], outputs[0], shape_size(get_output_shape(0)));
     }
     else
     {
-        return evaluate_swish(inputs[0], nullptr, outputs[0], shape_size(get_output_shape(0)));
+        return swish::evaluate_swish(
+            inputs[0], nullptr, outputs[0], shape_size(get_output_shape(0)));
     }
 }
index 14390c0..455adb2 100644 (file)
@@ -46,7 +46,7 @@ shared_ptr<Node> op::Tan::clone_with_new_inputs(const OutputVector& new_args) co
     return make_shared<Tan>(new_args.at(0));
 }
 
-namespace
+namespace tanop
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out, const size_t count)
@@ -86,5 +86,5 @@ namespace
 bool op::Tan::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::Tan::evaluate");
-    return evaluate_tan(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return tanop::evaluate_tan(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index 4bfa27f..ac7534b 100644 (file)
@@ -45,7 +45,7 @@ shared_ptr<Node> op::Tanh::clone_with_new_inputs(const OutputVector& new_args) c
     return make_shared<Tanh>(new_args.at(0));
 }
 
-namespace
+namespace tanhop
 {
     template <element::Type_t ET>
     inline bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out, const size_t count)
@@ -83,5 +83,5 @@ namespace
 bool op::Tanh::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::Tanh::evaluate");
-    return evaluate_tanh(inputs[0], outputs[0], shape_size(get_output_shape(0)));
+    return tanhop::evaluate_tanh(inputs[0], outputs[0], shape_size(get_output_shape(0)));
 }
index 1353335..830f366 100644 (file)
@@ -226,7 +226,7 @@ shared_ptr<Node> op::v0::TopK::clone_with_new_inputs(const OutputVector& new_arg
                              m_sort);
 }
 
-namespace
+namespace topk
 {
     template <element::Type_t INPUT_ET, element::Type_t INDEX_ET>
     inline bool evaluate_execute(const HostTensorPtr& arg0,
@@ -396,7 +396,7 @@ bool op::v0::TopK::evaluate(const HostTensorVector& outputs, const HostTensorVec
     }
     else
     {
-        axis = read_top_k_axis_from_host_tensor(inputs[2]);
+        axis = topk::read_top_k_axis_from_host_tensor(inputs[2]);
         NGRAPH_CHECK(axis <= arg_shape.size(), "TopK axis is out of bounds");
     }
     bool compute_max = get_compute_max();
@@ -406,7 +406,7 @@ bool op::v0::TopK::evaluate(const HostTensorVector& outputs, const HostTensorVec
     size_t k = get_k();
     if (k == 0)
     {
-        k = read_k_from_host_tensor(inputs[1]);
+        k = topk::read_k_from_host_tensor(inputs[1]);
         if (k == 0)
         {
             // the kernel can't handle k = 0, but output_shape[axis] = arg_shape[axis]
@@ -418,15 +418,15 @@ bool op::v0::TopK::evaluate(const HostTensorVector& outputs, const HostTensorVec
     // 3. Compute output_shape
     auto output_shape = compute_output_shape(inputs[0]->get_shape(), k, axis);
 
-    return evaluate_topk(inputs[0],
-                         outputs[0],
-                         outputs[1],
-                         output_shape,
-                         axis,
-                         k,
-                         compute_max,
-                         sort_type,
-                         get_index_element_type());
+    return topk::evaluate_topk(inputs[0],
+                               outputs[0],
+                               outputs[1],
+                               output_shape,
+                               axis,
+                               k,
+                               compute_max,
+                               sort_type,
+                               get_index_element_type());
 }
 
 // v1 version starts
@@ -683,7 +683,7 @@ bool op::v1::TopK::evaluate(const HostTensorVector& outputs, const HostTensorVec
     }
     else
     {
-        k = read_k_from_host_tensor(inputs[1]);
+        k = topk::read_k_from_host_tensor(inputs[1]);
     }
 
     // 3. Compute output_shape
@@ -696,15 +696,15 @@ bool op::v1::TopK::evaluate(const HostTensorVector& outputs, const HostTensorVec
         k = arg_shape[axis];
     }
 
-    return evaluate_topk(inputs[0],
-                         outputs[1],
-                         outputs[0],
-                         output_shape,
-                         axis,
-                         k,
-                         compute_max,
-                         sort_type,
-                         get_index_element_type());
+    return topk::evaluate_topk(inputs[0],
+                               outputs[1],
+                               outputs[0],
+                               output_shape,
+                               axis,
+                               k,
+                               compute_max,
+                               sort_type,
+                               get_index_element_type());
 }
 
 // v3 version starts
index 084b92f..716f4da 100644 (file)
@@ -86,7 +86,7 @@ shared_ptr<Node> op::v1::Transpose::clone_with_new_inputs(const OutputVector& ne
     return make_shared<v1::Transpose>(new_args[0], new_args[1]);
 }
 
-namespace
+namespace transpose
 {
     template <element::Type_t ET>
     std::vector<int64_t> get_vector(const HostTensorPtr& arg)
@@ -145,5 +145,5 @@ bool op::v1::Transpose::evaluate(const HostTensorVector& output_values,
                                  const HostTensorVector& input_values) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::Transpose::evaluate");
-    return evaluate_transpose(input_values[0], input_values[1], output_values[0]);
+    return transpose::evaluate_transpose(input_values[0], input_values[1], output_values[0]);
 }
index ffb35bb..7b9045b 100644 (file)
@@ -105,7 +105,7 @@ shared_ptr<Node> op::Unsqueeze::clone_with_new_inputs(const OutputVector& new_ar
     return make_shared<Unsqueeze>(new_args.at(0), new_args.at(1));
 }
 
-namespace
+namespace unsqueeze
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0, const HostTensorPtr& out)
@@ -171,5 +171,5 @@ bool op::v0::Unsqueeze::evaluate(const HostTensorVector& outputs,
                                  const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::Unsqueeze::evaluate");
-    return evaluate_unsqueeze(inputs[0], inputs[1], outputs[0]);
+    return unsqueeze::evaluate_unsqueeze(inputs[0], inputs[1], outputs[0]);
 }
index 5312638..59cea0e 100644 (file)
@@ -146,7 +146,7 @@ shared_ptr<Node> op::v1::VariadicSplit::clone_with_new_inputs(const OutputVector
     return make_shared<v1::VariadicSplit>(new_args.at(0), new_args.at(1), new_args.at(2));
 }
 
-namespace
+namespace variadic_split
 {
     inline bool evaluate(const HostTensorPtr& in,
                          const HostTensorPtr& out,
@@ -220,5 +220,5 @@ bool op::v1::VariadicSplit::evaluate(const HostTensorVector& outputs,
     const auto& axis = inputs[1];
     const auto& split_lengths = inputs[2];
 
-    return evaluate_variadic_split(data, axis, split_lengths, outputs, this);
+    return variadic_split::evaluate_variadic_split(data, axis, split_lengths, outputs, this);
 }
index 34a06b0..cafc230 100644 (file)
@@ -44,7 +44,7 @@ bool ngraph::op::v1::LogicalXor::visit_attributes(AttributeVisitor& visitor)
     return true;
 }
 
-namespace
+namespace logxor
 {
     template <element::Type_t ET>
     bool evaluate(const HostTensorPtr& arg0,
@@ -94,7 +94,7 @@ bool op::v1::LogicalXor::evaluate(const HostTensorVector& outputs,
                                   const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v1::LogicalXor::evaluate");
-    return evaluate_logxor(inputs[0], inputs[1], outputs[0], get_autob());
+    return logxor::evaluate_logxor(inputs[0], inputs[1], outputs[0], get_autob());
 }
 
 constexpr NodeTypeInfo op::v0::Xor::type_info;
@@ -116,5 +116,5 @@ shared_ptr<Node> op::v0::Xor::clone_with_new_inputs(const OutputVector& new_args
 bool op::v0::Xor::evaluate(const HostTensorVector& outputs, const HostTensorVector& inputs) const
 {
     OV_ITT_SCOPED_TASK(itt::domains::nGraphOp, "op::v0::Xor::evaluate");
-    return evaluate_logxor(inputs[0], inputs[1], outputs[0], get_autob());
+    return logxor::evaluate_logxor(inputs[0], inputs[1], outputs[0], get_autob());
 }
index e2a8255..3bd7f0f 100644 (file)
@@ -36,10 +36,5 @@ std::shared_ptr<ngraph::Variant> Variant::merge(const ngraph::NodeVector& nodes)
     return nullptr;
 }
 
-template <typename T>
-VariantImpl<T>::~VariantImpl()
-{
-}
-
 template class ngraph::VariantImpl<std::string>;
 template class ngraph::VariantImpl<int64_t>;
index 6377c77..6594408 100644 (file)
@@ -45,6 +45,7 @@ add_library(ngraph::onnx_importer ALIAS onnx_importer)
 
 if(COMMAND ie_faster_build)
     ie_faster_build(onnx_importer
+        UNITY
         PCH PRIVATE "src/precomp.hpp"
     )
 endif()
index e243537..be66730 100644 (file)
@@ -25,7 +25,7 @@ namespace ngraph
     {
         constexpr NodeTypeInfo NullNode::type_info;
 
-        std::shared_ptr<Node>
+        std::shared_ptr<ngraph::Node>
             NullNode::clone_with_new_inputs(const OutputVector& /* new_args */) const
         {
             return std::make_shared<NullNode>();
index 174fba3..766120d 100644 (file)
@@ -52,7 +52,7 @@ namespace ngraph
                                                                  m_padding_above,
                                                                  m_kernel_shape,
                                                                  !count_include_pad,
-                                                                 op::RoundingType::FLOOR,
+                                                                 ngraph::op::RoundingType::FLOOR,
                                                                  m_auto_pad)};
             }
 
@@ -63,7 +63,7 @@ namespace ngraph
                                                                  m_padding_below,
                                                                  m_padding_above,
                                                                  m_kernel_shape,
-                                                                 op::RoundingType::FLOOR,
+                                                                 ngraph::op::RoundingType::FLOOR,
                                                                  m_auto_pad)};
             }
 
index 4d2bd49..96e5e8d 100644 (file)
@@ -71,11 +71,6 @@ struct Ship
 
 namespace ngraph
 {
-    template <typename T>
-    VariantImpl<T>::~VariantImpl()
-    {
-    }
-
     template <>
     class VariantWrapper<Ship> : public VariantImpl<Ship>
     {
index 27cf6b0..36b1a45 100644 (file)
@@ -54,6 +54,13 @@ set (SRC
 disable_deprecated_warnings()
 
 add_library(ngraph_backend SHARED ${SRC})
+
+if(COMMAND ie_faster_build)
+    ie_faster_build(ngraph_backend
+        UNITY
+    )
+endif()
+
 target_compile_definitions(ngraph_backend
     PRIVATE
         SHARED_LIB_PREFIX="${CMAKE_SHARED_LIBRARY_PREFIX}"
index 2c60662..f26fef7 100644 (file)
@@ -27,6 +27,13 @@ set(SRC
 )
 
 add_library(ie_backend ${LIBRARY_TYPE} ${SRC})
+
+if(COMMAND ie_faster_build)
+    ie_faster_build(ie_backend
+        UNITY
+    )
+endif()
+
 add_dependencies(ie_backend inference_engine)
 target_compile_definitions(ie_backend PRIVATE IE_BACKEND_DLL_EXPORTS)
 target_include_directories(ie_backend PUBLIC ${IE_MAIN_SOURCE_DIR}/include)
index ee3c0c8..63c4d83 100644 (file)
@@ -18,6 +18,13 @@ set(LIBRARY_TYPE SHARED)
 
 if (NGRAPH_INTERPRETER_ENABLE)
     add_library(interpreter_backend ${LIBRARY_TYPE} int_backend.cpp int_executable.cpp)
+
+    if(COMMAND ie_faster_build)
+        ie_faster_build(interpreter_backend
+            UNITY
+        )
+    endif()
+
     target_compile_definitions(interpreter_backend PRIVATE INTERPRETER_BACKEND_EXPORTS)
     if(NGRAPH_LIB_VERSIONING_ENABLE)
         set_target_properties(interpreter_backend PROPERTIES
index 664f5ee..c9cc553 100644 (file)
@@ -41,7 +41,7 @@ NGRAPH_SUPPRESS_DEPRECATED_START
 using namespace std;
 using namespace ngraph;
 
-namespace
+namespace opset0_downgrade
 {
     template <typename OpV0, typename OpV1>
     shared_ptr<Node> op_cast_binary_elementwise_node(const shared_ptr<OpV1>& node)
@@ -767,12 +767,12 @@ namespace
         };
         return dispatch_map;
     }
-} // namespace
+} // namespace opset0_downgrade
 
 bool pass::Opset0Downgrade::run_on_node(shared_ptr<Node> node)
 {
     bool modified = false;
-    auto& dispatch_map = get_dispatch_map();
+    auto& dispatch_map = opset0_downgrade::get_dispatch_map();
     auto it = dispatch_map.find(node->get_type_info());
     if (it != dispatch_map.end())
     {
index 82308b1..d9d4bdf 100644 (file)
@@ -25,7 +25,7 @@
 using namespace std;
 using namespace ngraph;
 
-namespace
+namespace opset1_downgrade
 {
     shared_ptr<Node> op_cast(shared_ptr<op::v3::Broadcast> node)
     {
@@ -118,12 +118,12 @@ namespace
         };
         return dispatch_map;
     }
-} // namespace
+} // namespace opset1_downgrade
 
 bool pass::Opset1Downgrade::run_on_node(shared_ptr<Node> node)
 {
     bool modified = false;
-    auto& dispatch_map = get_dispatch_map();
+    auto& dispatch_map = opset1_downgrade::get_dispatch_map();
     auto it = dispatch_map.find(node->get_type_info());
     if (it != dispatch_map.end())
     {
index 8b20cfb..f0f6b6c 100644 (file)
@@ -35,7 +35,7 @@ NGRAPH_SUPPRESS_DEPRECATED_START
 using namespace std;
 using namespace ngraph;
 
-namespace
+namespace opset1_upgrade
 {
     template <typename OpV0, typename OpV1>
     shared_ptr<Node> op_cast_binary_elementwise_node(const shared_ptr<OpV0>& node)
@@ -547,12 +547,12 @@ namespace
         return dispatch_map;
         NGRAPH_SUPPRESS_DEPRECATED_END
     }
-} // namespace
+} // namespace opset1_upgrade
 
 bool pass::Opset1Upgrade::run_on_node(shared_ptr<Node> node)
 {
     bool modified = false;
-    auto& dispatch_map = get_dispatch_map();
+    auto& dispatch_map = opset1_upgrade::get_dispatch_map();
     auto it = dispatch_map.find(node->get_type_info());
     if (it != dispatch_map.end())
     {
index 2f7164f..e744e04 100644 (file)
@@ -30,6 +30,13 @@ set (SRC
 )
 
 add_library(ngraph_test_util STATIC ${SRC})
+
+if(COMMAND ie_faster_build)
+    ie_faster_build(ngraph_test_util
+        UNITY
+    )
+endif()
+
 if(NGRAPH_LIB_VERSIONING_ENABLE)
     set_target_properties(ngraph_test_util PROPERTIES
         VERSION ${NGRAPH_VERSION})