[neurun] Change namespace of kernels (#2126)
author김수진/동작제어Lab(SR)/Engineer/삼성전자 <sjsujin.kim@samsung.com>
Tue, 31 Jul 2018 09:45:56 +0000 (18:45 +0900)
committer박세희/동작제어Lab(SR)/Principal Engineer/삼성전자 <saehie.park@samsung.com>
Tue, 31 Jul 2018 09:45:56 +0000 (18:45 +0900)
This commit changes namespace of kernels from internal::kernel to neurun::kernel.

Signed-off-by: sjsujinkim <sjsujin.kim@samsung.com>
28 files changed:
runtimes/neurun/src/backend/acl_cl/StageGenerator.cc
runtimes/neurun/src/backend/cpu/StageGenerator.cc
runtimes/neurun/src/kernel/acl_cl/ConcatLayer.cc
runtimes/neurun/src/kernel/acl_cl/ConcatLayer.h
runtimes/neurun/src/kernel/acl_cl/TensorConvertFromCommonLayer.cc
runtimes/neurun/src/kernel/acl_cl/TensorConvertFromCommonLayer.h
runtimes/neurun/src/kernel/acl_cl/TensorConvertToCommonLayer.cc
runtimes/neurun/src/kernel/acl_cl/TensorConvertToCommonLayer.h
runtimes/neurun/src/kernel/cpufallback/AvgPoolLayer.cc
runtimes/neurun/src/kernel/cpufallback/AvgPoolLayer.h
runtimes/neurun/src/kernel/cpufallback/ConcatLayer.cc
runtimes/neurun/src/kernel/cpufallback/ConcatLayer.h
runtimes/neurun/src/kernel/cpufallback/ConvolutionLayer.cc
runtimes/neurun/src/kernel/cpufallback/ConvolutionLayer.h
runtimes/neurun/src/kernel/cpufallback/FullyConnectedLayer.cc
runtimes/neurun/src/kernel/cpufallback/FullyConnectedLayer.h
runtimes/neurun/src/kernel/cpufallback/MaxPoolLayer.cc
runtimes/neurun/src/kernel/cpufallback/MaxPoolLayer.h
runtimes/neurun/src/kernel/cpufallback/OperationUtils.cc
runtimes/neurun/src/kernel/cpufallback/OperationUtils.h
runtimes/neurun/src/kernel/cpufallback/ReshapeLayer.cc
runtimes/neurun/src/kernel/cpufallback/ReshapeLayer.h
runtimes/neurun/src/kernel/cpufallback/SoftMaxLayer.cc
runtimes/neurun/src/kernel/cpufallback/SoftMaxLayer.h
runtimes/neurun/src/kernel/cpufallback/TensorConvertFromCommonLayer.cc
runtimes/neurun/src/kernel/cpufallback/TensorConvertFromCommonLayer.h
runtimes/neurun/src/kernel/cpufallback/TensorConvertToCommonLayer.cc
runtimes/neurun/src/kernel/cpufallback/TensorConvertToCommonLayer.h

index c69ad69..52a63aa 100644 (file)
@@ -389,8 +389,8 @@ Stage StageGenerator::generate(const ::internal::tflite::op::Concat::Node &node)
       input_allocs.emplace_back(tensors->at(::internal::tflite::operand::Index{ifm_ind}).get());
     }
 
-    std::unique_ptr<::internal::kernel::acl_cl::ConcatLayer> fn{
-        new ::internal::kernel::acl_cl::ConcatLayer};
+    std::unique_ptr<::neurun::kernel::acl_cl::ConcatLayer> fn{
+        new ::neurun::kernel::acl_cl::ConcatLayer};
 
     fn->configure(input_allocs, param.axis, output_alloc);
 
index 769c3fb..2cb5e69 100644 (file)
@@ -106,8 +106,8 @@ Stage StageGenerator::generate(const ::internal::tflite::op::Conv2D::implicit::N
     auto ker_alloc = tensors->at(::internal::tflite::operand::Index{param.ker_index});
     auto bias_alloc = tensors->at(::internal::tflite::operand::Index{param.bias_index});
 
-    std::unique_ptr<::internal::kernel::cpu::ConvolutionLayer> fn{
-        new ::internal::kernel::cpu::ConvolutionLayer};
+    std::unique_ptr<::neurun::kernel::cpu::ConvolutionLayer> fn{
+        new ::neurun::kernel::cpu::ConvolutionLayer};
 
     fn->configure(ifm_alloc->buffer(), param.ifm_shape, ker_alloc->buffer(), param.ker_shape,
                   bias_alloc->buffer(), param.bias_shape, param.padding.left, param.padding.right,
@@ -201,8 +201,8 @@ Stage StageGenerator::generate(const ::internal::tflite::op::MaxPool2D::implicit
     auto ofm_alloc = tensors->at(::internal::tflite::operand::Index{param.ofm_index}).get();
     auto ifm_alloc = tensors->at(::internal::tflite::operand::Index{param.ifm_index}).get();
 
-    std::unique_ptr<::internal::kernel::cpu::MaxPoolLayer> fn{
-        new ::internal::kernel::cpu::MaxPoolLayer};
+    std::unique_ptr<::neurun::kernel::cpu::MaxPoolLayer> fn{
+        new ::neurun::kernel::cpu::MaxPoolLayer};
 
     fn->configure(ifm_alloc->buffer(), param.ifm_shape, param.padding.left, param.padding.right,
                   param.padding.top, param.padding.bottom, param.stride.horizontal,
@@ -300,8 +300,8 @@ Stage StageGenerator::generate(const ::internal::tflite::op::AvgPool2D::implicit
     auto ofm_alloc = tensors->at(::internal::tflite::operand::Index{param.ofm_index}).get();
     auto ifm_alloc = tensors->at(::internal::tflite::operand::Index{param.ifm_index}).get();
 
-    std::unique_ptr<::internal::kernel::cpu::AvgPoolLayer> fn{
-        new ::internal::kernel::cpu::AvgPoolLayer};
+    std::unique_ptr<::neurun::kernel::cpu::AvgPoolLayer> fn{
+        new ::neurun::kernel::cpu::AvgPoolLayer};
 
     fn->configure(ifm_alloc->buffer(), param.ifm_shape, param.padding.left, param.padding.right,
                   param.padding.top, param.padding.bottom, param.stride.horizontal,
@@ -356,8 +356,7 @@ Stage StageGenerator::generate(const ::internal::tflite::op::Concat::Node &node)
           tensors->at(::internal::tflite::operand::Index{ifm_ind}).get()->buffer());
     }
 
-    std::unique_ptr<::internal::kernel::cpu::ConcatLayer> fn{
-        new ::internal::kernel::cpu::ConcatLayer};
+    std::unique_ptr<::neurun::kernel::cpu::ConcatLayer> fn{new ::neurun::kernel::cpu::ConcatLayer};
 
     fn->configure(input_buffers, param.ifm_shapes, param.axis, output_alloc->buffer(),
                   param.ofm_shape);
@@ -414,8 +413,8 @@ Stage StageGenerator::generate(const ::internal::tflite::op::FullyConnected::Nod
     auto weight_alloc = tensors->at(::internal::tflite::operand::Index{param.weight_index}).get();
     auto bias_alloc = tensors->at(::internal::tflite::operand::Index{param.bias_index}).get();
 
-    std::unique_ptr<::internal::kernel::cpu::FullyConnectedLayer> fn{
-        new ::internal::kernel::cpu::FullyConnectedLayer};
+    std::unique_ptr<::neurun::kernel::cpu::FullyConnectedLayer> fn{
+        new ::neurun::kernel::cpu::FullyConnectedLayer};
 
     fn->configure(input_alloc->buffer(), param.ifm_shape, weight_alloc->buffer(),
                   param.weight_shape, bias_alloc->buffer(), param.bias_shape, param.activation,
@@ -453,8 +452,8 @@ Stage StageGenerator::generate(const ::internal::tflite::op::Reshape::Node &node
     auto output_alloc = tensors->at(::internal::tflite::operand::Index{param.output_index}).get();
     auto input_alloc = tensors->at(::internal::tflite::operand::Index{param.input_index}).get();
 
-    std::unique_ptr<::internal::kernel::cpu::ReshapeLayer> fn{
-        new ::internal::kernel::cpu::ReshapeLayer};
+    std::unique_ptr<::neurun::kernel::cpu::ReshapeLayer> fn{
+        new ::neurun::kernel::cpu::ReshapeLayer};
 
     fn->configure(input_alloc->buffer(), param.ifm_shape, output_alloc->buffer(), param.ofm_shape);
 
@@ -497,8 +496,8 @@ Stage StageGenerator::generate(const ::internal::tflite::op::Softmax::Node &node
     auto output_alloc = tensors->at(::internal::tflite::operand::Index{param.output_index}).get();
     auto input_alloc = tensors->at(::internal::tflite::operand::Index{param.input_index}).get();
 
-    std::unique_ptr<::internal::kernel::cpu::SoftMaxLayer> fn{
-        new ::internal::kernel::cpu::SoftMaxLayer};
+    std::unique_ptr<::neurun::kernel::cpu::SoftMaxLayer> fn{
+        new ::neurun::kernel::cpu::SoftMaxLayer};
 
     fn->configure(input_alloc->buffer(), param.ifm_shape, param.scale, output_alloc->buffer(),
                   param.ofm_shape);
index cce28bb..f71c8af 100644 (file)
@@ -42,7 +42,7 @@ bool matchSizeExceptAxis(const ::arm_compute::ICLTensor *t1, const ::arm_compute
 
 } // namespace {anonymous}
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -149,4 +149,4 @@ void ConcatLayer::run()
 
 } // namespace acl_cl
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
index bf12f46..abbea71 100644 (file)
@@ -28,9 +28,9 @@
 // If we remove this, we can also remove cpu kernel library dependency
 #include "kernel/cpufallback/OperationUtils.h"
 
-using namespace internal::kernel::cpu;
+using namespace neurun::kernel::cpu;
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -38,7 +38,7 @@ namespace acl_cl
 {
 
 //
-// internal::kernel::acl_cl::ConcatLayer
+// neurun::kernel::acl_cl::ConcatLayer
 // A naive implementation of ConcatLayer for ACL
 //
 
@@ -66,6 +66,6 @@ private:
 
 } // namespace acl_cl
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
 
 #endif // __INTERNAL_KERNEL_ACL_CL_CONCAT_LAYER_H__
index 6885817..87165fd 100644 (file)
@@ -18,7 +18,7 @@
 
 #include "logging.h"
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -43,4 +43,4 @@ void TensorConvertFromCommonLayer::run() { convert(); }
 
 } // namespace acl_cl
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
index 3b79ca1..fb509c6 100644 (file)
@@ -25,7 +25,7 @@
 #include "internal/Model.h"
 #include "internal/common/Tensor.h"
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -51,6 +51,6 @@ private:
 
 } // namespace acl_cl
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
 
 #endif // __INTERNAL_KERNELS_ACL_CL_TENSOR_CONVERT_FROM_COMMON_LAYER_H__
index 45781e8..a9538ac 100644 (file)
@@ -18,7 +18,7 @@
 
 #include "logging.h"
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -43,4 +43,4 @@ void TensorConvertToCommonLayer::run() { convert(); }
 
 } // namespace acl_cl
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
index 1214afa..07fe06e 100644 (file)
@@ -25,7 +25,7 @@
 #include "internal/Model.h"
 #include "internal/common/Tensor.h"
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -51,6 +51,6 @@ private:
 
 } // namespace acl_cl
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
 
 #endif // __INTERNAL_KERNELS_ACL_CL_TENSOR_CONVERT_TO_COMMON_LAYER_H__
index dbf0889..1955d76 100644 (file)
@@ -20,7 +20,7 @@
 #include "tensorflow/contrib/lite/kernels/internal/optimized/optimized_ops.h"
 #include "kernel/cpufallback/OperationUtils.h"
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -106,4 +106,4 @@ void AvgPoolLayer::run()
 
 } // namespace cpu
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
index fac6603..d888fad 100644 (file)
@@ -1,5 +1,5 @@
-#ifndef __INTERNAL_KERNELS_CPU_AVGPOOLLAYER_H__
-#define __INTERNAL_KERNELS_CPU_AVGPOOLLAYER_H__
+#ifndef __NEURUN_KERNEL_CPU_AVGPOOLLAYER_H__
+#define __NEURUN_KERNEL_CPU_AVGPOOLLAYER_H__
 
 #include <NeuralNetworks.h>
 
@@ -8,9 +8,9 @@
 #include "internal/Model.h"
 #include "kernel/cpufallback/OperationUtils.h"
 
-using namespace internal::kernel::cpu;
+using namespace neurun::kernel::cpu;
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -60,6 +60,6 @@ private:
 
 } // namespace cpu
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
 
-#endif // __INTERNAL_KERNELS_CPU_AVGPOOLLAYER_H__
+#endif // __NEURUN_KERNEL_CPU_AVGPOOLLAYER_H__
index dced4bd..29e4791 100644 (file)
@@ -20,7 +20,7 @@
 #include "tensorflow/contrib/lite/kernels/internal/optimized/optimized_ops.h"
 #include "kernel/cpufallback/OperationUtils.h"
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -99,4 +99,4 @@ void ConcatLayer::run()
 
 } // namespace cpu
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
index af819b5..251279a 100644 (file)
@@ -15,8 +15,8 @@
  * limitations under the License.
  */
 
-#ifndef __INTERNAL_KERNELS_CPU_CONCATLAYER_H__
-#define __INTERNAL_KERNELS_CPU_CONCATLAYER_H__
+#ifndef __NEURUN_KERNEL_CPU_CONCATLAYER_H__
+#define __NEURUN_KERNEL_CPU_CONCATLAYER_H__
 
 #include <NeuralNetworks.h>
 
@@ -25,9 +25,9 @@
 #include "internal/Model.h"
 #include "kernel/cpufallback/OperationUtils.h"
 
-using namespace internal::kernel::cpu;
+using namespace neurun::kernel::cpu;
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -64,6 +64,6 @@ private:
 
 } // namespace cpu
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
 
-#endif // __INTERNAL_KERNELS_CPU_CONCATLAYER_H__
+#endif // __NEURUN_KERNEL_CPU_CONCATLAYER_H__
index 0cb2110..7e4e464 100644 (file)
@@ -3,7 +3,7 @@
 #include "tensorflow/contrib/lite/kernels/internal/optimized/optimized_ops.h"
 #include "kernel/cpufallback/OperationUtils.h"
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -175,4 +175,4 @@ void ConvolutionLayer::run()
 
 } // namespace cpu
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
index fd614c8..db1b3f2 100644 (file)
@@ -1,5 +1,5 @@
-#ifndef __INTERNAL_KERNELS_CPU_CONVOLUTIONLAYER_H__
-#define __INTERNAL_KERNELS_CPU_CONVOLUTIONLAYER_H__
+#ifndef __NEURUN_KERNEL_CPU_CONVOLUTIONLAYER_H__
+#define __NEURUN_KERNEL_CPU_CONVOLUTIONLAYER_H__
 
 #include <NeuralNetworks.h>
 
@@ -8,9 +8,9 @@
 #include "internal/Model.h"
 #include "kernel/cpufallback/OperationUtils.h"
 
-using namespace internal::kernel::cpu;
+using namespace neurun::kernel::cpu;
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -61,6 +61,6 @@ private:
 
 } // namespace cpu
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
 
-#endif // __INTERNAL_KERNELS_CPU_CONVOLUTIONLAYER_H__
+#endif // __NEURUN_KERNEL_CPU_CONVOLUTIONLAYER_H__
index 920d3a6..6d7069c 100644 (file)
@@ -23,7 +23,7 @@
 
 #include <mutex>
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -128,4 +128,4 @@ void FullyConnectedLayer::run()
 
 } // namespace cpu
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
index 6ac7a94..0c66ab9 100644 (file)
@@ -1,5 +1,5 @@
-#ifndef __INTERNAL_KERNELS_CPU_FULLYCONNECTEDLAYER_H__
-#define __INTERNAL_KERNELS_CPU_FULLYCONNECTEDLAYER_H__
+#ifndef __NEURUN_KERNEL_CPU_FULLYCONNECTEDLAYER_H__
+#define __NEURUN_KERNEL_CPU_FULLYCONNECTEDLAYER_H__
 
 #include <NeuralNetworks.h>
 
@@ -8,9 +8,9 @@
 #include "internal/Model.h"
 #include "kernel/cpufallback/OperationUtils.h"
 
-using namespace internal::kernel::cpu;
+using namespace neurun::kernel::cpu;
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -53,6 +53,6 @@ private:
 
 } // namespace cpu
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
 
-#endif // __INTERNAL_KERNELS_CPU_FULLYCONNECTEDLAYER_H__
+#endif // __NEURUN_KERNEL_CPU_FULLYCONNECTEDLAYER_H__
index 73e8278..92e813c 100644 (file)
@@ -3,7 +3,7 @@
 #include "tensorflow/contrib/lite/kernels/internal/optimized/optimized_ops.h"
 #include "kernel/cpufallback/OperationUtils.h"
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -89,4 +89,4 @@ void MaxPoolLayer::run()
 
 } // namespace cpu
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
index facf221..470870a 100644 (file)
@@ -1,5 +1,5 @@
-#ifndef __INTERNAL_KERNELS_CPU_MAXPOOLLAYER_H__
-#define __INTERNAL_KERNELS_CPU_MAXPOOLLAYER_H__
+#ifndef __NEURUN_KERNEL_CPU_MAXPOOLLAYER_H__
+#define __NEURUN_KERNEL_CPU_MAXPOOLLAYER_H__
 
 #include <NeuralNetworks.h>
 
@@ -8,9 +8,9 @@
 #include "internal/Model.h"
 #include "kernel/cpufallback/OperationUtils.h"
 
-using namespace internal::kernel::cpu;
+using namespace neurun::kernel::cpu;
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -60,6 +60,6 @@ private:
 
 } // namespace cpu
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
 
-#endif // __INTERNAL_KERNELS_CPU_MAXPOOLLAYER_H__
+#endif // __NEURUN_KERNEL_CPU_MAXPOOLLAYER_H__
index 623261f..ca25bb1 100644 (file)
@@ -4,7 +4,7 @@
 #include <algorithm>
 #include <cassert>
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -211,4 +211,4 @@ size_t sizeOfData(OperandType type, const std::vector<uint32_t> &dimensions)
 
 } // namespace cpu
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
index f5880b3..8ba0df6 100644 (file)
@@ -10,7 +10,7 @@
 #include "internal/Model.h"
 #include "tensorflow/contrib/lite/kernels/internal/types.h"
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -91,6 +91,6 @@ uint32_t sizeOfData(OperandType type, const std::vector<uint32_t> &dimensions);
 
 } // namespace cpu
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
 
 #endif // __NNFW_SUPPORT_NNAPI_OPERATION_UTILS_H__
index f4e1bee..2a02a21 100644 (file)
@@ -21,7 +21,7 @@
 #include "tensorflow/contrib/lite/kernels/internal/reference/reference_ops.h"
 #include "kernel/cpufallback/OperationUtils.h"
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -49,4 +49,4 @@ void ReshapeLayer::run() { reshapeGeneric(); }
 
 } // namespace cpu
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
index 10cd08a..d683b25 100644 (file)
@@ -1,5 +1,5 @@
-#ifndef __INTERNAL_KERNELS_CPU_RESHAPELAYER_H__
-#define __INTERNAL_KERNELS_CPU_RESHAPELAYER_H__
+#ifndef __NEURUN_KERNEL_CPU_RESHAPELAYER_H__
+#define __NEURUN_KERNEL_CPU_RESHAPELAYER_H__
 
 #include <NeuralNetworks.h>
 
@@ -8,9 +8,9 @@
 #include "internal/Model.h"
 #include "kernel/cpufallback/OperationUtils.h"
 
-using namespace internal::kernel::cpu;
+using namespace neurun::kernel::cpu;
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -40,6 +40,6 @@ private:
 
 } // namespace cpu
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
 
-#endif // __INTERNAL_KERNELS_CPU_RESHAPELAYER_H__
+#endif // __NEURUN_KERNEL_CPU_RESHAPELAYER_H__
index fbd4f02..f713fb0 100644 (file)
@@ -3,7 +3,7 @@
 #include "tensorflow/contrib/lite/kernels/internal/optimized/optimized_ops.h"
 #include "kernel/cpufallback/OperationUtils.h"
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -103,4 +103,4 @@ void SoftMaxLayer::run()
 
 } // namespace cpu
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
index 316937a..913c1a9 100644 (file)
@@ -1,5 +1,5 @@
-#ifndef __INTERNAL_KERNELS_CPU_SOFTMAXLAYER_H__
-#define __INTERNAL_KERNELS_CPU_SOFTMAXLAYER_H__
+#ifndef __NEURUN_KERNEL_CPU_SOFTMAXLAYER_H__
+#define __NEURUN_KERNEL_CPU_SOFTMAXLAYER_H__
 
 #include <NeuralNetworks.h>
 
@@ -8,9 +8,9 @@
 #include "internal/Model.h"
 #include "kernel/cpufallback/OperationUtils.h"
 
-using namespace internal::kernel::cpu;
+using namespace neurun::kernel::cpu;
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -47,6 +47,6 @@ private:
 
 } // namespace cpu
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
 
-#endif // __INTERNAL_KERNELS_CPU_SOFTMAXLAYER_H__
+#endif // __NEURUN_KERNEL_CPU_SOFTMAXLAYER_H__
index 8264d7f..5835256 100644 (file)
@@ -18,7 +18,7 @@
 
 #include "logging.h"
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -43,4 +43,4 @@ void TensorConvertFromCommonLayer::run() { convert(); }
 
 } // namespace cpu
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
index fd745bb..9b4e6a3 100644 (file)
@@ -14,8 +14,8 @@
  * limitations under the License.
  */
 
-#ifndef __INTERNAL_KERNELS_CPU_TENSOR_CONVERT_FROM_COMMON_LAYER_H__
-#define __INTERNAL_KERNELS_CPU_TENSOR_CONVERT_FROM_COMMON_LAYER_H__
+#ifndef __NEURUN_KERNEL_CPU_TENSOR_CONVERT_FROM_COMMON_LAYER_H__
+#define __NEURUN_KERNEL_CPU_TENSOR_CONVERT_FROM_COMMON_LAYER_H__
 
 #include <NeuralNetworks.h>
 
@@ -24,7 +24,7 @@
 #include "internal/Model.h"
 #include "internal/common/Tensor.h"
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -50,6 +50,6 @@ private:
 
 } // namespace cpu
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
 
-#endif // __INTERNAL_KERNELS_CPU_TENSOR_CONVERT_FROM_COMMON_LAYER_H__
+#endif // __NEURUN_KERNEL_CPU_TENSOR_CONVERT_FROM_COMMON_LAYER_H__
index 7408561..5fa3453 100644 (file)
@@ -18,7 +18,7 @@
 
 #include "logging.h"
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -43,4 +43,4 @@ void TensorConvertToCommonLayer::run() { convert(); }
 
 } // namespace cpu
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
index 738ffa5..0e4dc2b 100644 (file)
@@ -14,8 +14,8 @@
  * limitations under the License.
  */
 
-#ifndef __INTERNAL_KERNELS_CPU_TENSOR_CONVERT_TO_COMMON_LAYER_H__
-#define __INTERNAL_KERNELS_CPU_TENSOR_CONVERT_TO_COMMON_LAYER_H__
+#ifndef __NEURUN_KERNEL_CPU_TENSOR_CONVERT_TO_COMMON_LAYER_H__
+#define __NEURUN_KERNEL_CPU_TENSOR_CONVERT_TO_COMMON_LAYER_H__
 
 #include <NeuralNetworks.h>
 
@@ -24,7 +24,7 @@
 #include "internal/Model.h"
 #include "internal/common/Tensor.h"
 
-namespace internal
+namespace neurun
 {
 namespace kernel
 {
@@ -50,6 +50,6 @@ private:
 
 } // namespace cpu
 } // namespace kernel
-} // namespace internal
+} // namespace neurun
 
-#endif // __INTERNAL_KERNELS_CPU_TENSOR_CONVERT_TO_COMMON_LAYER_H__
+#endif // __NEURUN_KERNEL_CPU_TENSOR_CONVERT_TO_COMMON_LAYER_H__