[CodeClean] set valid error code accepted/tizen/unified/20250319.072547 accepted/tizen/unified/x/20250319.090609
authorJaeyun Jung <jy1210.jung@samsung.com>
Tue, 18 Mar 2025 07:56:19 +0000 (16:56 +0900)
committerjaeyun-jung <39614140+jaeyun-jung@users.noreply.github.com>
Tue, 18 Mar 2025 09:40:16 +0000 (18:40 +0900)
Code clean, check invalid ptr and return valid error code in each callbacks.

Signed-off-by: Jaeyun Jung <jy1210.jung@samsung.com>
src/hal-backend-ml-snpe.cc
src/hal-backend-ml-vivante.cc

index 0f38c2805e5f0dd9f24a2792d6d36476a402b492..ab6d12fb69df8e312fe1ef09f232b389a0eaf799 100644 (file)
@@ -41,13 +41,14 @@ ml_snpe_init (void **backend_private)
   gst_tensors_info_init (&snpe->outputInfo);
 
   *backend_private = snpe;
-  return 0;
+  return HAL_ML_ERROR_NONE;
 }
 
 static int
 ml_snpe_deinit (void *backend_private)
 {
   snpe_handle_s *snpe = (snpe_handle_s *) backend_private;
+
   if (!snpe) {
     g_critical ("[snpe backend] ml_snpe_deinit called with invalid backend_private");
     return HAL_ML_ERROR_INVALID_PARAMETER;
@@ -75,7 +76,7 @@ ml_snpe_deinit (void *backend_private)
   gst_tensors_info_free (&snpe->outputInfo);
 
   g_free (snpe);
-  return 0;
+  return HAL_ML_ERROR_NONE;
 }
 
 static int
@@ -83,6 +84,7 @@ ml_snpe_configure_instance (void *backend_private, const void *prop_)
 {
   const GstTensorFilterProperties *prop = (const GstTensorFilterProperties *) prop_;
   snpe_handle_s *snpe = (snpe_handle_s *) backend_private;
+
   if (!snpe) {
     g_critical ("[snpe backend] ml_snpe_configure_instance called with invalid backend_private");
     return HAL_ML_ERROR_INVALID_PARAMETER;
@@ -414,6 +416,12 @@ ml_snpe_invoke (void *backend_private, const void *input_, void *output_)
   const GstTensorMemory *input = (const GstTensorMemory *) input_;
   GstTensorMemory *output = (GstTensorMemory *) output_;
   snpe_handle_s *snpe = (snpe_handle_s *) backend_private;
+
+  if (!snpe) {
+    g_critical ("[snpe backend] ml_snpe_invoke called with invalid backend_private");
+    return HAL_ML_ERROR_INVALID_PARAMETER;
+  }
+
   for (unsigned int i = 0; i < snpe->inputInfo.num_tensors; i++) {
     GstTensorInfo *info
         = gst_tensors_info_get_nth_info (std::addressof (snpe->inputInfo), i);
@@ -437,6 +445,7 @@ static int
 ml_snpe_get_framework_info (void *backend_private, void *fw_info)
 {
   GstTensorFilterFrameworkInfo *info = (GstTensorFilterFrameworkInfo *) fw_info;
+
   info->name = "snpe";
   info->allow_in_place = FALSE;
   info->allocate_in_invoke = FALSE;
@@ -453,6 +462,12 @@ ml_snpe_get_model_info (void *backend_private, int ops_, void *in_info_, void *o
   GstTensorsInfo *in_info = (GstTensorsInfo *) in_info_;
   GstTensorsInfo *out_info = (GstTensorsInfo *) out_info_;
   snpe_handle_s *snpe = (snpe_handle_s *) backend_private;
+
+  if (!snpe) {
+    g_critical ("[snpe backend] ml_snpe_get_model_info called with invalid backend_private");
+    return HAL_ML_ERROR_INVALID_PARAMETER;
+  }
+
   if (ops == GET_IN_OUT_INFO) {
     gst_tensors_info_copy (in_info, &snpe->inputInfo);
     gst_tensors_info_copy (out_info, &snpe->outputInfo);
@@ -460,15 +475,12 @@ ml_snpe_get_model_info (void *backend_private, int ops_, void *in_info_, void *o
     return HAL_ML_ERROR_NONE;
   }
 
-  return -2;
+  return HAL_ML_ERROR_NOT_SUPPORTED;
 }
 
 static int
 ml_snpe_event_handler (void *backend_private, int ops_, void *data_)
 {
-  int ops = (event_ops) ops_;
-  GstTensorFilterFrameworkEventData *data = (GstTensorFilterFrameworkEventData *) data_;
-
   return HAL_ML_ERROR_NOT_SUPPORTED;
 }
 
index 1a4ee61453e18223d2827b41143f750cfe052fe2..c5860dd4d3a92d56da5027fd16fa6f108a970e59 100644 (file)
@@ -57,16 +57,19 @@ static int
 ml_vivante_init (void **backend_private)
 {
   vivante_handle_s *vivante = g_new0 (vivante_handle_s, 1);
+
   gst_tensors_info_init (&vivante->inputInfo);
   gst_tensors_info_init (&vivante->outputInfo);
+
   *backend_private = vivante;
-  return 0;
+  return HAL_ML_ERROR_NONE;
 }
 
 static int
 ml_vivante_deinit (void *backend_private)
 {
   vivante_handle_s *vivante = (vivante_handle_s *) backend_private;
+
   if (!vivante) {
     g_critical ("[vivante backend] invalid backend_private");
     return HAL_ML_ERROR_INVALID_PARAMETER;
@@ -93,6 +96,7 @@ ml_vivante_configure_instance (void *backend_private, const void *prop_)
 {
   const GstTensorFilterProperties *prop = (const GstTensorFilterProperties *) prop_;
   vivante_handle_s *vivante = (vivante_handle_s *) backend_private;
+
   if (!vivante) {
     g_critical ("[vivante backend] invalid backend_private");
     return HAL_ML_ERROR_INVALID_PARAMETER;
@@ -149,7 +153,7 @@ ml_vivante_configure_instance (void *backend_private, const void *prop_)
     }
   }
 
-  return 0;
+  return HAL_ML_ERROR_NONE;
 }
 
 static int
@@ -158,6 +162,7 @@ ml_vivante_invoke (void *backend_private, const void *input_, void *output_)
   const GstTensorMemory *input = (const GstTensorMemory *) input_;
   GstTensorMemory *output = (GstTensorMemory *) output_;
   vivante_handle_s *vivante = (vivante_handle_s *) backend_private;
+
   if (!vivante) {
     g_critical ("[vivante backend] invalid backend_private");
     return HAL_ML_ERROR_INVALID_PARAMETER;
@@ -194,6 +199,7 @@ static int
 ml_vivante_get_framework_info (void *backend_private, void *fw_info)
 {
   GstTensorFilterFrameworkInfo *info = (GstTensorFilterFrameworkInfo *) fw_info;
+
   info->name = "vivante";
   info->allow_in_place = FALSE;
   info->allocate_in_invoke = FALSE;
@@ -209,8 +215,8 @@ ml_vivante_get_model_info (void *backend_private, int ops_, void *in_info_, void
   int ops = (model_info_ops) ops_;
   GstTensorsInfo *in_info = (GstTensorsInfo *) in_info_;
   GstTensorsInfo *out_info = (GstTensorsInfo *) out_info_;
-
   vivante_handle_s *vivante = (vivante_handle_s *) backend_private;
+
   if (!vivante) {
     g_critical ("[vivante backend] invalid backend_private");
     return HAL_ML_ERROR_INVALID_PARAMETER;
@@ -219,15 +225,12 @@ ml_vivante_get_model_info (void *backend_private, int ops_, void *in_info_, void
   gst_tensors_info_copy (in_info, &vivante->inputInfo);
   gst_tensors_info_copy (out_info, &vivante->outputInfo);
 
-  return 0;
+  return HAL_ML_ERROR_NONE;
 }
 
 static int
 ml_vivante_event_handler (void *backend_private, int ops_, void *data_)
 {
-  int ops = (event_ops) ops_;
-  GstTensorFilterFrameworkEventData *data = (GstTensorFilterFrameworkEventData *) data_;
-
   return HAL_ML_ERROR_NOT_SUPPORTED;
 }