Use ARMNN internal data type instead of specific one
authorInki Dae <inki.dae@samsung.com>
Wed, 19 Feb 2020 08:01:56 +0000 (17:01 +0900)
committerInki Dae <inki.dae@samsung.com>
Wed, 19 Feb 2020 08:01:56 +0000 (17:01 +0900)
Change-Id: I75393f94465b2d3638f66ccc2207cb60655751db
Signed-off-by: Inki Dae <inki.dae@samsung.com>
src/inference_engine_armnn.cpp

index e1d62c18284c4f1088f2e9edba48eb2a08220ded..a9947a2781ab2048442b3d43eb79ef3ba13ff4eb 100644 (file)
 namespace InferenceEngineImpl {
 namespace ARMNNImpl {
 
-enum {
-    ARMNN_DATA_TYPE_FLOAT32 = 1,
-    ARMNN_DATA_TYPE_INT32 = 2,
-    ARMNN_DATA_TYPE_UINT8 = 3,
-    ARMNN_DATA_TYPE_INT64 = 4,
-    ARMNN_DATA_TYPE_STRING = 5,
-    ARMNN_DATA_TYPE_BOOL = 6,
-    ARMNN_DATA_TYPE_MAX
-};
-
 InferenceARMNN::InferenceARMNN(void) :
     mRuntime(nullptr, &armnn::IRuntime::Destroy),
     mNetwork(armnn::INetworkPtr(nullptr, nullptr))
@@ -66,11 +56,15 @@ inference_tensor_data_type_e InferenceARMNN::ConvertDataType(armnn::DataType typ
 {
     inference_tensor_data_type_e data_type;
 
-    switch ((int)type) {
-    case ARMNN_DATA_TYPE_FLOAT32:
+    LOGI("ENTER");
+
+    LOGI("data type = %d", (int)type);
+
+    switch (type) {
+    case armnn::DataType::Float32:
         data_type = TENSOR_DATA_TYPE_FLOAT32;
         break;
-    case ARMNN_DATA_TYPE_UINT8:
+    case armnn::DataType::QuantisedAsymm8:
         data_type = TENSOR_DATA_TYPE_UINT8;
         break;
     default:
@@ -79,6 +73,8 @@ inference_tensor_data_type_e InferenceARMNN::ConvertDataType(armnn::DataType typ
         break;
     }
 
+    LOGI("LEAVE");
+
     return data_type;
 }