[C-Api/Service] update ml-service pipeline
authorJaeyun Jung <jy1210.jung@samsung.com>
Fri, 8 Mar 2024 10:41:53 +0000 (19:41 +0900)
committerjaeyun-jung <39614140+jaeyun-jung@users.noreply.github.com>
Mon, 25 Mar 2024 10:41:12 +0000 (19:41 +0900)
Update API name prefix - ml_service_pipeline.

Signed-off-by: Jaeyun Jung <jy1210.jung@samsung.com>
c/include/ml-api-service.h
c/src/ml-api-service-agent-client.c
c/src/ml-api-service-extension.c
c/src/ml-api-service-remote.c
tests/capi/unittest_capi_remote_service.cc
tests/capi/unittest_capi_service_agent_client.cc

index 5de022e..c602324 100644 (file)
@@ -259,7 +259,7 @@ int ml_service_request (ml_service_h handle, const char *name, const ml_tensors_
 
 /**
  * @brief Destroys the handle for machine learning service.
- * @details If given service handle is created by ml_service_launch_pipeline(), this requests machine learning agent to destroy the pipeline.
+ * @details If given service handle is created by ml_service_pipeline_launch(), this requests machine learning agent to destroy the pipeline.
  * @since_tizen 7.0
  * @param[in] handle The handle of ml-service.
  * @return @c 0 on success. Otherwise a negative error value.
@@ -293,7 +293,7 @@ int ml_service_destroy (ml_service_h handle);
  * ml_pipeline_h handle;
  *
  * // Set pipeline description.
- * status = ml_service_set_pipeline ("my_pipeline", my_pipeline);
+ * status = ml_service_pipeline_set ("my_pipeline", my_pipeline);
  * if (status != ML_ERROR_NONE) {
  *   // handle error case
  *   goto error;
@@ -303,7 +303,7 @@ int ml_service_destroy (ml_service_h handle);
  * // Users may register intelligence pipelines for other processes and fetch such registered pipelines.
  * // For example, a developer adds a pipeline which includes preprocessing and invoking a neural network model,
  * // then an application can fetch and construct this for intelligence service.
- * status = ml_service_get_pipeline ("my_pipeline", &pipeline);
+ * status = ml_service_pipeline_get ("my_pipeline", &pipeline);
  * if (status != ML_ERROR_NONE) {
  *   // handle error case
  *   goto error;
@@ -320,12 +320,12 @@ int ml_service_destroy (ml_service_h handle);
  * g_free (pipeline);
  * @endcode
  */
-int ml_service_set_pipeline (const char *name, const char *pipeline_desc);
+int ml_service_pipeline_set (const char *name, const char *pipeline_desc);
 
 /**
  * @brief Gets the pipeline description with a given name.
  * @since_tizen 7.0
- * @remarks If the function succeeds, @a pipeline_desc must be released using g_free().
+ * @remarks If the function succeeds, @a pipeline_desc must be released using free().
  * @param[in] name The unique name to retrieve.
  * @param[out] pipeline_desc The pipeline corresponding with the given name.
  * @return @c 0 on success. Otherwise a negative error value.
@@ -334,7 +334,7 @@ int ml_service_set_pipeline (const char *name, const char *pipeline_desc);
  * @retval #ML_ERROR_INVALID_PARAMETER Fail. The parameter is invalid.
  * @retval #ML_ERROR_IO_ERROR The operation of DB or filesystem has failed.
  */
-int ml_service_get_pipeline (const char *name, char **pipeline_desc);
+int ml_service_pipeline_get (const char *name, char **pipeline_desc);
 
 /**
  * @brief Deletes the pipeline description with a given name.
@@ -347,7 +347,7 @@ int ml_service_get_pipeline (const char *name, char **pipeline_desc);
  * @retval #ML_ERROR_INVALID_PARAMETER Fail. The parameter is invalid.
  * @retval #ML_ERROR_IO_ERROR The operation of DB or filesystem has failed.
  */
-int ml_service_delete_pipeline (const char *name);
+int ml_service_pipeline_delete (const char *name);
 
 /**
  * @brief Launches the pipeline of given service and gets the service handle.
@@ -364,33 +364,7 @@ int ml_service_delete_pipeline (const char *name);
  * @retval #ML_ERROR_IO_ERROR The operation of DB or filesystem has failed.
  * @retval #ML_ERROR_STREAMS_PIPE Failed to launch the pipeline.
  */
-int ml_service_launch_pipeline (const char *name, ml_service_h *handle);
-
-/**
- * @brief Starts the pipeline of given service handle.
- * @details This requests machine learning agent daemon to start the pipeline.
- * @since_tizen 7.0
- * @param[in] handle The service handle.
- * @return @c 0 on Success. Otherwise a negative error value.
- * @retval #ML_ERROR_NONE Successful.
- * @retval #ML_ERROR_NOT_SUPPORTED Not supported.
- * @retval #ML_ERROR_INVALID_PARAMETER Fail. The parameter is invalid.
- * @retval #ML_ERROR_STREAMS_PIPE Failed to start the pipeline.
- */
-int ml_service_start_pipeline (ml_service_h handle);
-
-/**
- * @brief Stops the pipeline of given service handle.
- * @details This requests machine learning agent daemon to stop the pipeline.
- * @since_tizen 7.0
- * @param[in] handle The service handle.
- * @return @c 0 on Success. Otherwise a negative error value.
- * @retval #ML_ERROR_NONE Successful.
- * @retval #ML_ERROR_NOT_SUPPORTED Not supported.
- * @retval #ML_ERROR_INVALID_PARAMETER Fail. The parameter is invalid.
- * @retval #ML_ERROR_STREAMS_PIPE Failed to stop the pipeline.
- */
-int ml_service_stop_pipeline (ml_service_h handle);
+int ml_service_pipeline_launch (const char *name, ml_service_h *handle);
 
 /**
  * @brief Gets the state of given handle's pipeline.
@@ -403,7 +377,16 @@ int ml_service_stop_pipeline (ml_service_h handle);
  * @retval #ML_ERROR_INVALID_PARAMETER Fail. The parameter is invalid.
  * @retval #ML_ERROR_STREAMS_PIPE Failed to access the pipeline state.
  */
-int ml_service_get_pipeline_state (ml_service_h handle, ml_pipeline_state_e *state);
+int ml_service_pipeline_get_state (ml_service_h handle, ml_pipeline_state_e *state);
+
+/** @todo remove below macros after updating tct. */
+#define ml_service_set_pipeline ml_service_pipeline_set
+#define ml_service_get_pipeline ml_service_pipeline_get
+#define ml_service_delete_pipeline ml_service_pipeline_delete
+#define ml_service_launch_pipeline ml_service_pipeline_launch
+#define ml_service_start_pipeline ml_service_start
+#define ml_service_stop_pipeline ml_service_stop
+#define ml_service_get_pipeline_state ml_service_pipeline_get_state
 
 /****************************************************
  ** API for among-device AI service                **
index d88cc79..2496739 100644 (file)
@@ -287,7 +287,7 @@ _ml_service_check_path (const char *path)
  * @brief Set the pipeline description with a given name.
  */
 int
-ml_service_set_pipeline (const char *name, const char *pipeline_desc)
+ml_service_pipeline_set (const char *name, const char *pipeline_desc)
 {
   int ret = ML_ERROR_NONE;
 
@@ -315,7 +315,7 @@ ml_service_set_pipeline (const char *name, const char *pipeline_desc)
  * @brief Get the pipeline description with a given name.
  */
 int
-ml_service_get_pipeline (const char *name, char **pipeline_desc)
+ml_service_pipeline_get (const char *name, char **pipeline_desc)
 {
   int ret = ML_ERROR_NONE;
 
@@ -348,7 +348,7 @@ ml_service_get_pipeline (const char *name, char **pipeline_desc)
  * @brief Delete the pipeline description with a given name.
  */
 int
-ml_service_delete_pipeline (const char *name)
+ml_service_pipeline_delete (const char *name)
 {
   int ret = ML_ERROR_NONE;
 
@@ -371,7 +371,7 @@ ml_service_delete_pipeline (const char *name)
  * @brief Launch the pipeline of given service.
  */
 int
-ml_service_launch_pipeline (const char *name, ml_service_h * handle)
+ml_service_pipeline_launch (const char *name, ml_service_h * handle)
 {
   int ret = ML_ERROR_NONE;
   ml_service_s *mls;
@@ -416,62 +416,10 @@ ml_service_launch_pipeline (const char *name, ml_service_h * handle)
 }
 
 /**
- * @brief Start the pipeline of given ml_service_h
- */
-int
-ml_service_start_pipeline (ml_service_h handle)
-{
-  int ret = ML_ERROR_NONE;
-  ml_service_s *mls = (ml_service_s *) handle;
-  _ml_service_server_s *server;
-
-  check_feature_state (ML_FEATURE_SERVICE);
-
-  if (!_ml_service_handle_is_valid (mls)) {
-    _ml_error_report_return (ML_ERROR_INVALID_PARAMETER,
-        "The parameter, 'handle' (ml_service_h), is invalid. It should be a valid ml_service_h instance.");
-  }
-
-  server = (_ml_service_server_s *) mls->priv;
-  ret = ml_agent_pipeline_start (server->id);
-  if (ret < 0) {
-    _ml_error_report ("Failed to invoke the method start_pipeline.");
-  }
-
-  return ret;
-}
-
-/**
- * @brief Stop the pipeline of given ml_service_h
- */
-int
-ml_service_stop_pipeline (ml_service_h handle)
-{
-  int ret = ML_ERROR_NONE;
-  ml_service_s *mls = (ml_service_s *) handle;
-  _ml_service_server_s *server;
-
-  check_feature_state (ML_FEATURE_SERVICE);
-
-  if (!_ml_service_handle_is_valid (mls)) {
-    _ml_error_report_return (ML_ERROR_INVALID_PARAMETER,
-        "The parameter, 'handle' (ml_service_h), is invalid. It should be a valid ml_service_h instance.");
-  }
-
-  server = (_ml_service_server_s *) mls->priv;
-  ret = ml_agent_pipeline_stop (server->id);
-  if (ret < 0) {
-    _ml_error_report ("Failed to invoke the method stop_pipeline.");
-  }
-
-  return ret;
-}
-
-/**
  * @brief Return state of given ml_service_h
  */
 int
-ml_service_get_pipeline_state (ml_service_h handle, ml_pipeline_state_e * state)
+ml_service_pipeline_get_state (ml_service_h handle, ml_pipeline_state_e * state)
 {
   int ret = ML_ERROR_NONE;
   gint _state = ML_PIPELINE_STATE_UNKNOWN;
index f59e940..a31f459 100644 (file)
@@ -522,7 +522,7 @@ _ml_extension_conf_parse_pipeline (ml_service_s * mls, JsonObject * pipe)
     const gchar *key = json_object_get_string_member (pipe, "key");
 
     if (STR_IS_VALID (key)) {
-      status = ml_service_get_pipeline (key, &desc);
+      status = ml_service_pipeline_get (key, &desc);
       if (status != ML_ERROR_NONE) {
         _ml_error_report_return (status,
             "Failed to parse configuration file, cannot get the pipeline of '%s'.",
index 3c0c5b9..dd2c242 100644 (file)
@@ -440,7 +440,7 @@ _mlrs_process_remote_service (nns_edge_data_h data_h, void *user_data)
         _ml_error_report_return (ret,
             "Failed to get data from uri: %s.", (gchar *) data);
       }
-      ret = ml_service_set_pipeline (service_key, (gchar *) array->data);
+      ret = ml_service_pipeline_set (service_key, (gchar *) array->data);
       if (ML_ERROR_NONE == ret) {
         event_type = ML_SERVICE_EVENT_PIPELINE_REGISTERED;
       }
@@ -448,7 +448,7 @@ _mlrs_process_remote_service (nns_edge_data_h data_h, void *user_data)
       break;
     }
     case ML_REMOTE_SERVICE_TYPE_PIPELINE_RAW:
-      ret = ml_service_set_pipeline (service_key, (gchar *) data);
+      ret = ml_service_pipeline_set (service_key, (gchar *) data);
       if (ML_ERROR_NONE == ret) {
         event_type = ML_SERVICE_EVENT_PIPELINE_REGISTERED;
       }
index 647d1ce..a4b2aa7 100644 (file)
@@ -101,7 +101,7 @@ _ml_service_event_cb (ml_service_event_e event, ml_information_h event_data, voi
       {
         g_autofree gchar *ret_pipeline = NULL;
         const gchar *service_key = "pipeline_test_key";
-        status = ml_service_get_pipeline (service_key, &ret_pipeline);
+        status = ml_service_pipeline_get (service_key, &ret_pipeline);
         EXPECT_EQ (ML_ERROR_NONE, status);
         EXPECT_STREQ ((gchar *) user_data, ret_pipeline);
         break;
@@ -325,7 +325,7 @@ TEST_F (MLRemoteService, registerPipelineURI)
   /* Wait for the server to register and check the result. */
   g_usleep (1000000);
 
-  status = ml_service_delete_pipeline (service_key);
+  status = ml_service_pipeline_delete (service_key);
   EXPECT_TRUE (status == ML_ERROR_NONE);
 
   status = ml_service_destroy (server_h);
index 627e5a1..9ad825b 100644 (file)
@@ -100,27 +100,27 @@ TEST_F (MLServiceAgentTest, usecase_00)
       "tensor_query_serversrc port=%u num-buffers=10 ! other/tensors,num_tensors=1,dimensions=3:4:4:1,types=uint8,format=static,framerate=0/1 ! tensor_query_serversink async=false",
       port);
 
-  status = ml_service_set_pipeline (service_name, pipeline_desc);
+  status = ml_service_pipeline_set (service_name, pipeline_desc);
   EXPECT_EQ (ML_ERROR_NONE, status);
 
   gchar *ret_pipeline;
-  status = ml_service_get_pipeline (service_name, &ret_pipeline);
+  status = ml_service_pipeline_get (service_name, &ret_pipeline);
   EXPECT_EQ (ML_ERROR_NONE, status);
   EXPECT_STREQ (pipeline_desc, ret_pipeline);
   g_free (ret_pipeline);
 
   ml_service_h service;
   ml_pipeline_state_e state;
-  status = ml_service_launch_pipeline (service_name, &service);
+  status = ml_service_pipeline_launch (service_name, &service);
   EXPECT_EQ (ML_ERROR_NONE, status);
 
-  status = ml_service_get_pipeline_state (service, &state);
+  status = ml_service_pipeline_get_state (service, &state);
   EXPECT_EQ (ML_ERROR_NONE, status);
   EXPECT_EQ (ML_PIPELINE_STATE_PAUSED, state);
 
-  status = ml_service_start_pipeline (service);
+  status = ml_service_start (service);
   EXPECT_EQ (ML_ERROR_NONE, status);
-  status = ml_service_get_pipeline_state (service, &state);
+  status = ml_service_pipeline_get_state (service, &state);
   EXPECT_EQ (ML_ERROR_NONE, status);
   EXPECT_EQ (ML_PIPELINE_STATE_PLAYING, state);
 
@@ -130,21 +130,21 @@ TEST_F (MLServiceAgentTest, usecase_00)
       "videotestsrc num-buffers=10 ! videoconvert ! videoscale ! video/x-raw,width=4,height=4,format=RGB,framerate=10/1 ! tensor_converter ! other/tensors,num_tensors=1,format=static ! tensor_query_client dest-port=%u port=%u ! fakesink sync=true",
       port, sink_port);
 
-  status = ml_service_set_pipeline ("client", client_pipeline_desc);
+  status = ml_service_pipeline_set ("client", client_pipeline_desc);
   EXPECT_EQ (ML_ERROR_NONE, status);
 
   ml_service_h client;
-  status = ml_service_launch_pipeline ("client", &client);
+  status = ml_service_pipeline_launch ("client", &client);
   EXPECT_EQ (ML_ERROR_NONE, status);
 
   g_usleep (1 * 1000 * 1000);
 
-  status = ml_service_start_pipeline (client);
+  status = ml_service_start (client);
   EXPECT_EQ (ML_ERROR_NONE, status);
 
   g_usleep (1 * 1000 * 1000);
 
-  status = ml_service_stop_pipeline (client);
+  status = ml_service_stop (client);
   EXPECT_EQ (ML_ERROR_NONE, status);
 
   g_usleep (1 * 1000 * 1000);
@@ -154,12 +154,12 @@ TEST_F (MLServiceAgentTest, usecase_00)
 
   g_usleep (1 * 1000 * 1000);
 
-  status = ml_service_stop_pipeline (service);
+  status = ml_service_stop (service);
   EXPECT_EQ (ML_ERROR_NONE, status);
 
   g_usleep (1 * 1000 * 1000);
 
-  status = ml_service_get_pipeline_state (service, &state);
+  status = ml_service_pipeline_get_state (service, &state);
   EXPECT_EQ (ML_ERROR_NONE, status);
   EXPECT_EQ (ML_PIPELINE_STATE_PAUSED, state);
 
@@ -168,13 +168,13 @@ TEST_F (MLServiceAgentTest, usecase_00)
   EXPECT_EQ (ML_ERROR_NONE, status);
 
   /* delete finished service */
-  status = ml_service_delete_pipeline (service_name);
+  status = ml_service_pipeline_delete (service_name);
   EXPECT_EQ (ML_ERROR_NONE, status);
-  status = ml_service_delete_pipeline ("client");
+  status = ml_service_pipeline_delete ("client");
   EXPECT_EQ (ML_ERROR_NONE, status);
 
   /* it would fail if get the removed service */
-  status = ml_service_get_pipeline (service_name, &ret_pipeline);
+  status = ml_service_pipeline_get (service_name, &ret_pipeline);
   EXPECT_EQ (ML_ERROR_INVALID_PARAMETER, status);
 
   g_free (pipeline_desc);
@@ -198,27 +198,27 @@ TEST_F (MLServiceAgentTest, usecase_01)
       "tensor_query_serversrc port=%u num-buffers=10 ! other/tensors,num_tensors=1,dimensions=3:4:4:1,types=uint8,format=static,framerate=0/1 ! tensor_query_serversink async=false",
       port);
 
-  status = ml_service_set_pipeline (service_name, pipeline_desc);
+  status = ml_service_pipeline_set (service_name, pipeline_desc);
   EXPECT_EQ (ML_ERROR_NONE, status);
 
   gchar *ret_pipeline;
-  status = ml_service_get_pipeline (service_name, &ret_pipeline);
+  status = ml_service_pipeline_get (service_name, &ret_pipeline);
   EXPECT_EQ (ML_ERROR_NONE, status);
   EXPECT_STREQ (pipeline_desc, ret_pipeline);
   g_free (ret_pipeline);
 
   ml_service_h service;
   ml_pipeline_state_e state;
-  status = ml_service_launch_pipeline (service_name, &service);
+  status = ml_service_pipeline_launch (service_name, &service);
   EXPECT_EQ (ML_ERROR_NONE, status);
 
-  status = ml_service_get_pipeline_state (service, &state);
+  status = ml_service_pipeline_get_state (service, &state);
   EXPECT_EQ (ML_ERROR_NONE, status);
   EXPECT_EQ (ML_PIPELINE_STATE_PAUSED, state);
 
-  status = ml_service_start_pipeline (service);
+  status = ml_service_start (service);
   EXPECT_EQ (ML_ERROR_NONE, status);
-  status = ml_service_get_pipeline_state (service, &state);
+  status = ml_service_pipeline_get_state (service, &state);
   EXPECT_EQ (ML_ERROR_NONE, status);
   EXPECT_EQ (ML_PIPELINE_STATE_PLAYING, state);
 
@@ -249,12 +249,12 @@ TEST_F (MLServiceAgentTest, usecase_01)
 
   g_usleep (1 * 1000 * 1000);
 
-  status = ml_service_stop_pipeline (service);
+  status = ml_service_stop (service);
   EXPECT_EQ (ML_ERROR_NONE, status);
 
   g_usleep (1 * 1000 * 1000);
 
-  status = ml_service_get_pipeline_state (service, &state);
+  status = ml_service_pipeline_get_state (service, &state);
   EXPECT_EQ (ML_ERROR_NONE, status);
   EXPECT_EQ (ML_PIPELINE_STATE_PAUSED, state);
 
@@ -263,11 +263,11 @@ TEST_F (MLServiceAgentTest, usecase_01)
   EXPECT_EQ (ML_ERROR_NONE, status);
 
   /* delete finished service */
-  status = ml_service_delete_pipeline (service_name);
+  status = ml_service_pipeline_delete (service_name);
   EXPECT_EQ (ML_ERROR_NONE, status);
 
   /* it would fail if get the removed service */
-  status = ml_service_get_pipeline (service_name, &ret_pipeline);
+  status = ml_service_pipeline_get (service_name, &ret_pipeline);
   EXPECT_EQ (ML_ERROR_INVALID_PARAMETER, status);
 
   g_free (pipeline_desc);
@@ -275,109 +275,109 @@ TEST_F (MLServiceAgentTest, usecase_01)
 }
 
 /**
- * @brief Test ml_service_set_pipeline with invalid param.
+ * @brief Test ml_service_pipeline_set with invalid param.
  */
 TEST_F (MLServiceAgentTest, set_pipeline_00_n)
 {
   int status;
-  status = ml_service_set_pipeline (NULL, "some pipeline");
+  status = ml_service_pipeline_set (NULL, "some pipeline");
   EXPECT_EQ (ML_ERROR_INVALID_PARAMETER, status);
 }
 
 /**
- * @brief Test ml_service_set_pipeline with invalid param.
+ * @brief Test ml_service_pipeline_set with invalid param.
  */
 TEST_F (MLServiceAgentTest, set_pipeline_01_n)
 {
   int status;
-  status = ml_service_set_pipeline ("some key", NULL);
+  status = ml_service_pipeline_set ("some key", NULL);
   EXPECT_EQ (ML_ERROR_INVALID_PARAMETER, status);
 }
 
 /**
- * @brief Test ml_service_get_pipeline with invalid param.
+ * @brief Test ml_service_pipeline_get with invalid param.
  */
 TEST_F (MLServiceAgentTest, get_pipeline_00_n)
 {
   int status;
   gchar *ret_pipeline = NULL;
-  status = ml_service_get_pipeline (NULL, &ret_pipeline);
+  status = ml_service_pipeline_get (NULL, &ret_pipeline);
   EXPECT_EQ (ML_ERROR_INVALID_PARAMETER, status);
 }
 
 /**
- * @brief Test ml_service_get_pipeline with invalid param.
+ * @brief Test ml_service_pipeline_get with invalid param.
  */
 TEST_F (MLServiceAgentTest, get_pipeline_01_n)
 {
   int status;
-  status = ml_service_get_pipeline ("some key", NULL);
+  status = ml_service_pipeline_get ("some key", NULL);
   EXPECT_EQ (ML_ERROR_INVALID_PARAMETER, status);
 }
 
 /**
- * @brief Test ml_service_delete_pipeline with invalid param.
+ * @brief Test ml_service_pipeline_delete with invalid param.
  */
 TEST_F (MLServiceAgentTest, delete_pipeline_00_n)
 {
   int status;
-  status = ml_service_delete_pipeline (NULL);
+  status = ml_service_pipeline_delete (NULL);
   EXPECT_EQ (ML_ERROR_INVALID_PARAMETER, status);
 }
 
 /**
- * @brief Test ml_service_delete_pipeline with invalid param.
+ * @brief Test ml_service_pipeline_delete with invalid param.
  */
 TEST_F (MLServiceAgentTest, delete_pipeline_01_n)
 {
   int status;
-  status = ml_service_set_pipeline ("some key", "videotestsrc ! fakesink");
+  status = ml_service_pipeline_set ("some key", "videotestsrc ! fakesink");
   EXPECT_EQ (ML_ERROR_NONE, status);
 
-  status = ml_service_delete_pipeline ("invalid key");
+  status = ml_service_pipeline_delete ("invalid key");
   EXPECT_EQ (ML_ERROR_INVALID_PARAMETER, status);
 
-  status = ml_service_delete_pipeline ("some key");
+  status = ml_service_pipeline_delete ("some key");
   EXPECT_EQ (ML_ERROR_NONE, status);
 }
 
 /**
- * @brief Test ml_service_delete_pipeline with invalid param.
+ * @brief Test ml_service_pipeline_delete with invalid param.
  */
 TEST_F (MLServiceAgentTest, delete_pipeline_02_n)
 {
   int status;
-  status = ml_service_set_pipeline ("some key", "videotestsrc ! fakesink");
+  status = ml_service_pipeline_set ("some key", "videotestsrc ! fakesink");
   EXPECT_EQ (ML_ERROR_NONE, status);
 
-  status = ml_service_delete_pipeline ("some key");
+  status = ml_service_pipeline_delete ("some key");
   EXPECT_EQ (ML_ERROR_NONE, status);
 
-  status = ml_service_delete_pipeline ("some key");
+  status = ml_service_pipeline_delete ("some key");
   EXPECT_EQ (ML_ERROR_INVALID_PARAMETER, status);
 }
 
 /**
- * @brief Test ml_service_launch_pipeline with invalid param.
+ * @brief Test ml_service_pipeline_launch with invalid param.
  */
 TEST_F (MLServiceAgentTest, launch_pipeline_00_n)
 {
   int status;
-  status = ml_service_launch_pipeline (NULL, NULL);
+  status = ml_service_pipeline_launch (NULL, NULL);
   EXPECT_EQ (ML_ERROR_INVALID_PARAMETER, status);
 }
 
 /**
- * @brief Test ml_service_launch_pipeline with invalid key.
+ * @brief Test ml_service_pipeline_launch with invalid key.
  */
 TEST_F (MLServiceAgentTest, launch_pipeline_01_n)
 {
   int status;
   ml_service_h service_h = NULL;
-  status = ml_service_launch_pipeline (NULL, &service_h);
+  status = ml_service_pipeline_launch (NULL, &service_h);
   EXPECT_EQ (ML_ERROR_INVALID_PARAMETER, status);
 
-  status = ml_service_launch_pipeline ("invalid key", &service_h);
+  status = ml_service_pipeline_launch ("invalid key", &service_h);
   EXPECT_EQ (ML_ERROR_INVALID_PARAMETER, status);
 
   /* service_h is still NULL */
@@ -386,67 +386,67 @@ TEST_F (MLServiceAgentTest, launch_pipeline_01_n)
 }
 
 /**
- * @brief Test ml_service_launch_pipeline with invalid pipeline.
+ * @brief Test ml_service_pipeline_launch with invalid pipeline.
  */
 TEST_F (MLServiceAgentTest, launch_pipeline_02_n)
 {
   int status;
   ml_service_h h;
 
-  status = ml_service_set_pipeline ("key", "invalid_element ! invalid_element");
+  status = ml_service_pipeline_set ("key", "invalid_element ! invalid_element");
   EXPECT_EQ (ML_ERROR_NONE, status);
 
-  status = ml_service_launch_pipeline ("key", &h);
+  status = ml_service_pipeline_launch ("key", &h);
   EXPECT_EQ (ML_ERROR_STREAMS_PIPE, status);
 
-  status = ml_service_delete_pipeline ("key");
+  status = ml_service_pipeline_delete ("key");
   EXPECT_EQ (ML_ERROR_NONE, status);
 }
 
 /**
- * @brief Test ml_service_launch_pipeline with invalid tensor_filer.
+ * @brief Test ml_service_pipeline_launch with invalid tensor_filer.
  */
 TEST_F (MLServiceAgentTest, launch_pipeline_03_n)
 {
   int status;
   ml_service_h h;
 
-  status = ml_service_set_pipeline ("key",
+  status = ml_service_pipeline_set ("key",
       "appsrc name=appsrc ! "
       "other/tensors,dimensions=(string)1:1:1:1:1:1:1:1,types=(string)float32,framerate=(fraction)0/1 ! "
       "tensor_filter framework=tensorflow-lite model=invalid_path.tflite ! "
       "tensor_sink");
   EXPECT_EQ (ML_ERROR_NONE, status);
 
-  status = ml_service_launch_pipeline ("key", &h);
+  status = ml_service_pipeline_launch ("key", &h);
   EXPECT_EQ (ML_ERROR_STREAMS_PIPE, status);
 
-  status = ml_service_delete_pipeline ("key");
+  status = ml_service_pipeline_delete ("key");
   EXPECT_EQ (ML_ERROR_NONE, status);
 }
 
 /**
- * @brief Test ml_service_start_pipeline with invalid param.
+ * @brief Test ml_service_start with invalid param.
  */
 TEST_F (MLServiceAgentTest, start_pipeline_00_n)
 {
   int status;
-  status = ml_service_start_pipeline (NULL);
+  status = ml_service_start (NULL);
   EXPECT_EQ (ML_ERROR_INVALID_PARAMETER, status);
 }
 
 /**
- * @brief Test ml_service_stop_pipeline with invalid param.
+ * @brief Test ml_service_stop with invalid param.
  */
 TEST_F (MLServiceAgentTest, stop_pipeline_00_n)
 {
   int status;
-  status = ml_service_stop_pipeline (NULL);
+  status = ml_service_stop (NULL);
   EXPECT_EQ (ML_ERROR_INVALID_PARAMETER, status);
 }
 
 /**
- * @brief Test ml_service_get_pipeline_state with invalid param.
+ * @brief Test ml_service_pipeline_get_state with invalid param.
  */
 TEST_F (MLServiceAgentTest, get_pipeline_state_00_n)
 {
@@ -454,22 +454,22 @@ TEST_F (MLServiceAgentTest, get_pipeline_state_00_n)
   ml_service_h h;
   ml_pipeline_state_e state;
 
-  status = ml_service_get_pipeline_state (NULL, &state);
+  status = ml_service_pipeline_get_state (NULL, &state);
   EXPECT_EQ (ML_ERROR_INVALID_PARAMETER, status);
 
-  status = ml_service_set_pipeline ("key", "videotestsrc ! fakesink");
+  status = ml_service_pipeline_set ("key", "videotestsrc ! fakesink");
   EXPECT_EQ (ML_ERROR_NONE, status);
 
-  status = ml_service_launch_pipeline ("key", &h);
+  status = ml_service_pipeline_launch ("key", &h);
   EXPECT_EQ (ML_ERROR_NONE, status);
 
-  status = ml_service_get_pipeline_state (h, NULL);
+  status = ml_service_pipeline_get_state (h, NULL);
   EXPECT_EQ (ML_ERROR_INVALID_PARAMETER, status);
 
   status = ml_service_destroy (h);
   EXPECT_EQ (ML_ERROR_NONE, status);
 
-  status = ml_service_delete_pipeline ("key");
+  status = ml_service_pipeline_delete ("key");
   EXPECT_EQ (ML_ERROR_NONE, status);
 }
 
@@ -491,10 +491,10 @@ TEST_F (MLServiceAgentTest, destroy_01_n)
   int status;
   ml_service_h h;
 
-  status = ml_service_set_pipeline ("key", "videotestsrc ! fakesink");
+  status = ml_service_pipeline_set ("key", "videotestsrc ! fakesink");
   EXPECT_EQ (ML_ERROR_NONE, status);
 
-  status = ml_service_launch_pipeline ("key", &h);
+  status = ml_service_pipeline_launch ("key", &h);
   EXPECT_EQ (ML_ERROR_NONE, status);
 
   ml_service_s *mls = (ml_service_s *) h;
@@ -508,7 +508,7 @@ TEST_F (MLServiceAgentTest, destroy_01_n)
   status = ml_service_destroy (h);
   EXPECT_EQ (ML_ERROR_NONE, status);
 
-  status = ml_service_delete_pipeline ("key");
+  status = ml_service_pipeline_delete ("key");
   EXPECT_EQ (ML_ERROR_NONE, status);
 }
 
@@ -520,10 +520,10 @@ TEST_F (MLServiceAgentTest, explicit_invalid_handle_00_n)
   int status;
   ml_service_h h;
 
-  status = ml_service_set_pipeline ("key", "videotestsrc ! fakesink");
+  status = ml_service_pipeline_set ("key", "videotestsrc ! fakesink");
   EXPECT_EQ (ML_ERROR_NONE, status);
 
-  status = ml_service_launch_pipeline ("key", &h);
+  status = ml_service_pipeline_launch ("key", &h);
   EXPECT_EQ (ML_ERROR_NONE, status);
 
   ml_service_s *mls = (ml_service_s *) h;
@@ -531,14 +531,14 @@ TEST_F (MLServiceAgentTest, explicit_invalid_handle_00_n)
   gint64 _id = server->id;
   server->id = 1; /* explicitly set id as invalid number */
 
-  status = ml_service_start_pipeline (h);
+  status = ml_service_start (h);
   EXPECT_EQ (ML_ERROR_INVALID_PARAMETER, status);
 
-  status = ml_service_stop_pipeline (h);
+  status = ml_service_stop (h);
   EXPECT_EQ (ML_ERROR_INVALID_PARAMETER, status);
 
   ml_pipeline_state_e state;
-  status = ml_service_get_pipeline_state (h, &state);
+  status = ml_service_pipeline_get_state (h, &state);
   EXPECT_EQ (ML_ERROR_INVALID_PARAMETER, status);
 
   status = ml_service_destroy (h);
@@ -548,7 +548,7 @@ TEST_F (MLServiceAgentTest, explicit_invalid_handle_00_n)
   status = ml_service_destroy (h);
   EXPECT_EQ (ML_ERROR_NONE, status);
 
-  status = ml_service_delete_pipeline ("key");
+  status = ml_service_pipeline_delete ("key");
   EXPECT_EQ (ML_ERROR_NONE, status);
 }
 
@@ -567,11 +567,11 @@ TEST_F (MLServiceAgentTest, query_client)
       "tensor_query_serversrc port=%u num-buffers=%d ! other/tensors,num_tensors=1,dimensions=3:4:4:1,types=uint8,format=static,framerate=0/1 ! tensor_query_serversink async=false sync=false",
       server_port, num_buffers);
 
-  status = ml_service_set_pipeline (service_name, server_pipeline_desc);
+  status = ml_service_pipeline_set (service_name, server_pipeline_desc);
   EXPECT_EQ (ML_ERROR_NONE, status);
 
   gchar *ret_pipeline;
-  status = ml_service_get_pipeline (service_name, &ret_pipeline);
+  status = ml_service_pipeline_get (service_name, &ret_pipeline);
   EXPECT_EQ (ML_ERROR_NONE, status);
   EXPECT_STREQ (server_pipeline_desc, ret_pipeline);
   g_free (server_pipeline_desc);
@@ -579,16 +579,16 @@ TEST_F (MLServiceAgentTest, query_client)
 
   ml_service_h service;
   ml_pipeline_state_e state;
-  status = ml_service_launch_pipeline (service_name, &service);
+  status = ml_service_pipeline_launch (service_name, &service);
   EXPECT_EQ (ML_ERROR_NONE, status);
 
-  status = ml_service_get_pipeline_state (service, &state);
+  status = ml_service_pipeline_get_state (service, &state);
   EXPECT_EQ (ML_ERROR_NONE, status);
   EXPECT_EQ (ML_PIPELINE_STATE_PAUSED, state);
 
-  status = ml_service_start_pipeline (service);
+  status = ml_service_start (service);
   EXPECT_EQ (ML_ERROR_NONE, status);
-  status = ml_service_get_pipeline_state (service, &state);
+  status = ml_service_pipeline_get_state (service, &state);
   EXPECT_EQ (ML_ERROR_NONE, status);
   EXPECT_EQ (ML_PIPELINE_STATE_PLAYING, state);
 
@@ -679,10 +679,10 @@ TEST_F (MLServiceAgentTest, query_client)
   EXPECT_EQ (ML_ERROR_NONE, status);
 
   /* destroy server pipeline */
-  status = ml_service_stop_pipeline (service);
+  status = ml_service_stop (service);
   EXPECT_EQ (ML_ERROR_NONE, status);
 
-  status = ml_service_get_pipeline_state (service, &state);
+  status = ml_service_pipeline_get_state (service, &state);
   EXPECT_EQ (ML_ERROR_NONE, status);
   EXPECT_EQ (ML_PIPELINE_STATE_PAUSED, state);
 
@@ -690,11 +690,11 @@ TEST_F (MLServiceAgentTest, query_client)
   EXPECT_EQ (ML_ERROR_NONE, status);
 
   /* delete finished service */
-  status = ml_service_delete_pipeline (service_name);
+  status = ml_service_pipeline_delete (service_name);
   EXPECT_EQ (ML_ERROR_NONE, status);
 
   /* it would fail if get the removed service */
-  status = ml_service_get_pipeline (service_name, &ret_pipeline);
+  status = ml_service_pipeline_get (service_name, &ret_pipeline);
   EXPECT_EQ (ML_ERROR_INVALID_PARAMETER, status);
 
   ml_option_destroy (query_client_option);
@@ -797,8 +797,8 @@ TEST_F (MLServiceAgentTest, query_request_00_n)
   ml_tensors_data_create (in_info, &in_data);
 
   /* temporal condition for ml-service handle */
-  ml_service_set_pipeline ("key", "videotestsrc ! fakesink");
-  status = ml_service_launch_pipeline ("key", &handle);
+  ml_service_pipeline_set ("key", "videotestsrc ! fakesink");
+  status = ml_service_pipeline_launch ("key", &handle);
   EXPECT_EQ (ML_ERROR_NONE, status);
 
   /* testcase for invalid param */
@@ -810,7 +810,7 @@ TEST_F (MLServiceAgentTest, query_request_00_n)
   EXPECT_EQ (ML_ERROR_INVALID_PARAMETER, status);
 
   ml_service_destroy (handle);
-  ml_service_delete_pipeline ("key");
+  ml_service_pipeline_delete ("key");
   ml_tensors_data_destroy (in_data);
   ml_tensors_info_destroy (in_info);
 }
@@ -1478,16 +1478,16 @@ TEST (MLServiceAgentTestDbusUnconnected, pipeline_n)
 {
   int status;
 
-  status = ml_service_set_pipeline ("test", "test");
+  status = ml_service_pipeline_set ("test", "test");
   EXPECT_EQ (ML_ERROR_IO_ERROR, status);
 
   gchar *ret_pipeline;
-  status = ml_service_get_pipeline ("test", &ret_pipeline);
+  status = ml_service_pipeline_get ("test", &ret_pipeline);
   EXPECT_EQ (ML_ERROR_IO_ERROR, status);
 
 
   ml_service_h service;
-  status = ml_service_launch_pipeline ("test", &service);
+  status = ml_service_pipeline_launch ("test", &service);
   EXPECT_EQ (ML_ERROR_IO_ERROR, status);
 
   ml_service_s *mls = _ml_service_create_internal (ML_SERVICE_TYPE_SERVER_PIPELINE);
@@ -1498,14 +1498,14 @@ TEST (MLServiceAgentTestDbusUnconnected, pipeline_n)
   server->id = 1; /* explicitly set id as invalid number */
 
   service = (ml_service_h) mls;
-  status = ml_service_start_pipeline (service);
+  status = ml_service_start (service);
   EXPECT_EQ (ML_ERROR_IO_ERROR, status);
 
-  status = ml_service_stop_pipeline (service);
+  status = ml_service_stop (service);
   EXPECT_EQ (ML_ERROR_IO_ERROR, status);
 
   ml_pipeline_state_e state;
-  status = ml_service_get_pipeline_state (service, &state);
+  status = ml_service_pipeline_get_state (service, &state);
   EXPECT_EQ (ML_ERROR_IO_ERROR, status);
 
   status = ml_service_destroy (service);