mv_machine_learning: change Tizen version of task API 78/304478/1
authorInki Dae <inki.dae@samsung.com>
Wed, 17 Jan 2024 05:55:19 +0000 (14:55 +0900)
committerInki Dae <inki.dae@samsung.com>
Thu, 18 Jan 2024 04:20:21 +0000 (13:20 +0900)
[Issue type] : code cleanup

Change Tizen version of task API. New Task API support is targeted to
Tizen 9.0 so update the version information on header files.

Change-Id: I1d3147d41db47d99a52a6fedfe4559e67e9474d0
Signed-off-by: Inki Dae <inki.dae@samsung.com>
include/mv_facial_landmark_internal.h
include/mv_facial_landmark_type.h
include/mv_image_classification_internal.h
include/mv_image_classification_type.h
include/mv_object_detection_3d_internal.h
include/mv_object_detection_3d_type.h
include/mv_object_detection_type.h
include/mv_pose_landmark_internal.h
include/mv_pose_landmark_type.h
include/mv_selfie_segmentation_internal.h
include/mv_selfie_segmentation_type.h

index df8eaa6..a1f85b5 100644 (file)
@@ -43,7 +43,7 @@ extern "C" {
  *          mv_facial_landmark_prepare() function to prepare a network
  *          for the inference.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @remarks The @a infer should be released using mv_facial_landmark_destroy().
  *
@@ -64,7 +64,7 @@ int mv_facial_landmark_create(mv_facial_landmark_h *handle);
  * @internal
  * @brief Destroys inference handle and releases all its resources.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[in] handle    The handle to the inference to be destroyed.
  *
@@ -84,7 +84,7 @@ int mv_facial_landmark_destroy(mv_facial_landmark_h handle);
  * @brief Sets user-given model information.
  * @details Use this function to change the model information instead of default one after calling @ref mv_facial_landmark_create().
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[in] handle        The handle to the facial landmark object.
  * @param[in] model_name    Model name.
@@ -106,7 +106,7 @@ int mv_facial_landmark_set_model(mv_facial_landmark_h handle, const char *model_
  * @internal
  * @brief Configures the backend for the facial landmark inference.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param [in] handle         The handle to the inference
  *
@@ -124,7 +124,7 @@ int mv_facial_landmark_configure(mv_facial_landmark_h handle);
  * @details Use this function to prepare the facial landmark inference based on
  *          the configured network.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[in] handle         The handle to the inference.
  *
@@ -144,7 +144,7 @@ int mv_facial_landmark_prepare(mv_facial_landmark_h handle);
  * @internal
  * @brief Performs the facial landmark inference on the @a source.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  * @remarks This function is synchronous and may take considerable time to run.
  *
  * @param[in] handle          The handle to the inference
@@ -169,7 +169,7 @@ int mv_facial_landmark_inference(mv_facial_landmark_h handle, mv_source_h source
  * @internal
  * @brief Performs asynchronously the facial landmark inference on the @a source.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  * @remarks This function operates asynchronously, so it returns immediately upon invocation.
  *          The inference results are inserted into the outgoing queue within the framework
  *          in the order of processing, and the results can be obtained through mv_facial_landmark_get_positions().
@@ -196,7 +196,7 @@ int mv_facial_landmark_inference_async(mv_facial_landmark_h handle, mv_source_h
  * @internal
  * @brief Gets the facial landmark positions on the @a source.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  * @remarks pos_x and pos_y arrays are allocated internally by the framework and will remain valid
  *          until the handle is released.
  *          Please do not deallocate them directly, and if you want to use them after the handle is released,
@@ -235,7 +235,7 @@ int mv_facial_landmark_get_positions(mv_facial_landmark_h handle, unsigned int *
  * @brief Sets user-given inference engine and device types for inference.
  * @details Use this function to change the inference engine and device types for inference instead of default ones after calling @ref mv_facial_landmark_create().
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[in] handle        The handle to the facial landmark object.
  * @param[in] engine_type  A string of inference engine type.
@@ -255,7 +255,7 @@ int mv_facial_landmark_set_engine(mv_facial_landmark_h handle, const char *engin
  * @brief Gets a number of inference engines available for facial landmark task API.
  * @details Use this function to get how many inference engines are supported for facial landmark after calling @ref mv_facial_landmark_create().
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[in] handle         The handle to the facial landmark object.
  * @param[out] engine_count  A number of inference engines available for facial landmark API.
@@ -274,7 +274,7 @@ int mv_facial_landmark_get_engine_count(mv_facial_landmark_h handle, unsigned in
  * @brief Gets engine type to a given inference engine index.
  * @details Use this function to get inference engine type with a given engine index after calling @ref mv_facial_landmark_get_engine_count().
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[in] handle        The handle to the facial landmark object.
  * @param[in] engine_index  A inference engine index for getting the inference engine type.
@@ -295,7 +295,7 @@ int mv_facial_landmark_get_engine_type(mv_facial_landmark_h handle, const unsign
  * @brief Gets a number of device types available to a given inference engine.
  * @details Use this function to get how many device types are supported for a given inference engine after calling @ref mv_facial_landmark_create().
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[in] handle         The handle to the facial landmark object.
  * @param[in] engine_type    A inference engine string.
@@ -316,7 +316,7 @@ int mv_facial_landmark_get_device_count(mv_facial_landmark_h handle, const char
  * @brief Gets device type list available.
  * @details Use this function to get what device types are supported for current inference engine type after calling @ref mv_facial_landmark_configure().
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[in] handle         The handle to the facial landmark object.
  * @param[in] engine_type    A inference engine string.
index 8aeefc0..f978c13 100644 (file)
@@ -36,7 +36,7 @@ extern "C" {
 /**
  * @brief The facial landmark object handle.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  */
 typedef void *mv_facial_landmark_h;
 
index f369586..f81bc54 100644 (file)
@@ -31,7 +31,7 @@ extern "C" {
         *          @ref mv_image_classification_prepare() function to prepare
         *               an image classification object.
         *
-        * @since_tizen 8.0
+        * @since_tizen 9.0
         *
         * @param[out] out_handle    The handle to the image classification object to be created
         *
@@ -51,7 +51,7 @@ int mv_image_classification_create(mv_image_classification_h *out_handle);
 /**
         * @brief Destroy image classification handle and releases all its resources.
         *
-        * @since_tizen 8.0
+        * @since_tizen 9.0
         *
         * @param[in] handle    The handle to the image classification object to be destroyed.
         *
@@ -68,7 +68,7 @@ int mv_image_classification_destroy(mv_image_classification_h handle);
 /**
         * @brief Configure the backend to the inference handle
         *
-        * @since_tizen 8.0
+        * @since_tizen 9.0
         *
         * @param [in] handle         The handle to the inference
         *
@@ -84,7 +84,7 @@ int mv_image_classification_configure(mv_image_classification_h handle);
         * @details Use this function to prepare inference based on
         *          the configured network.
         *
-        * @since_tizen 8.0
+        * @since_tizen 9.0
         *
         * @param [in] handle         The handle to the inference
         *
@@ -101,7 +101,7 @@ int mv_image_classification_prepare(mv_image_classification_h handle);
         * @details Use this function to inference with a given source.
         *
         *
-        * @since_tizen 8.0
+        * @since_tizen 9.0
         *
         * @param[in] handle         The handle to the image classification object.
         * @param[in] source         The handle to the source of the media.
@@ -123,7 +123,7 @@ int mv_image_classification_inference(mv_image_classification_h handle, mv_sourc
  * @internal
  * @brief Performs asynchronously the image classification inference on the @a source.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  * @remarks This function operates asynchronously, so it returns immediately upon invocation.
  *          The inference results are inserted into the outgoing queue within the framework
  *          in the order of processing, and the results can be obtained through mv_image_classification_get_label().
@@ -150,7 +150,7 @@ int mv_image_classification_inference_async(mv_image_classification_h handle, mv
         * @brief Gets the label value as a image classification inference result.
         * @details Use this function to get the label value after calling @ref mv_image_classification_inference().
         *
-        * @since_tizen 8.0
+        * @since_tizen 9.0
         *
         * @remarks The @a result must NOT be released using free()
         *
@@ -170,7 +170,7 @@ int mv_image_classification_get_label(mv_image_classification_h handle, const ch
         * @brief Set user-given model information.
         * @details Use this function to change the model information instead of default one after calling @ref mv_image_classification_create().
         *
-        * @since_tizen 8.0
+        * @since_tizen 9.0
         *
         * @param[in] handle        The handle to the image classification object.
         * @param[in] model_file    Model file name.
@@ -191,7 +191,7 @@ int mv_image_classification_set_model(mv_image_classification_h handle, const ch
         * @brief Set user-given inference engine and device types for inference.
         * @details Use this function to change the inference engine and device types for inference instead of default ones after calling @ref mv_image_classification_create().
         *
-        * @since_tizen 8.0
+        * @since_tizen 9.0
         *
         * @param[in] handle        The handle to the image classification object.
         * @param[in] engine_type  A string of inference engine type.
@@ -211,7 +211,7 @@ int mv_image_classification_set_engine(mv_image_classification_h handle, const c
         * @brief Get a number of inference engines available for image classification task API.
         * @details Use this function to get how many inference engines are supported for image classification after calling @ref mv_image_classification_create().
         *
-        * @since_tizen 8.0
+        * @since_tizen 9.0
         *
         * @param[in] handle         The handle to the image classification object.
         * @param[out] engine_count  A number of inference engines available for image classification API.
@@ -229,7 +229,7 @@ int mv_image_classification_get_engine_count(mv_image_classification_h handle, u
         * @brief Get engine type to a given inference engine index.
         * @details Use this function to get inference engine type with a given engine index after calling @ref mv_image_classification_get_engine_count().
         *
-        * @since_tizen 8.0
+        * @since_tizen 9.0
         *
         * @param[in] handle        The handle to the image classification object.
         * @param[in] engine_index  A inference engine index for getting the inference engine type.
@@ -249,7 +249,7 @@ int mv_image_classification_get_engine_type(mv_image_classification_h handle, co
         * @brief Get a number of device types available to a given inference engine.
         * @details Use this function to get how many device types are supported for a given inference engine after calling @ref mv_image_classification_create().
         *
-        * @since_tizen 8.0
+        * @since_tizen 9.0
         *
         * @param[in] handle         The handle to the image classification object.
         * @param[in] engine_type    A inference engine string.
@@ -269,7 +269,7 @@ int mv_image_classification_get_device_count(mv_image_classification_h handle, c
         * @brief Get device type list available.
         * @details Use this function to get what device types are supported for current inference engine type after calling @ref mv_image_classification_configure().
         *
-        * @since_tizen 8.0
+        * @since_tizen 9.0
         *
         * @param[in] handle         The handle to the image classification object.
         * @param[in] engine_type    A inference engine string.
index f0bfd00..a17d395 100644 (file)
@@ -36,7 +36,7 @@ extern "C" {
 /**
  * @brief The object detection 3d object handle.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  */
 typedef void *mv_image_classification_h;
 
index 19d3429..68697a1 100644 (file)
@@ -41,7 +41,7 @@ extern "C" {
  *          mv_object_detection_3d_prepare() function to prepare a network
  *          for the inference.
  *
- * @since_tizen 7.0
+ * @since_tizen 9.0
  *
  * @remarks The @a infer should be released using mv_object_detection_3d_destroy().
  *
@@ -61,7 +61,7 @@ int mv_object_detection_3d_create(mv_object_detection_3d_h *handle);
 /**
  * @brief Destroys inference handle and releases all its resources.
  *
- * @since_tizen 7.0
+ * @since_tizen 9.0
  *
  * @param[in] handle    The handle to the inference to be destroyed.
  *
@@ -80,7 +80,7 @@ int mv_object_detection_3d_destroy(mv_object_detection_3d_h handle);
         * @brief Set user-given model information.
         * @details Use this function to change the model information instead of default one after calling @ref mv_object_detection_3d_create().
         *
-        * @since_tizen 8.0
+        * @since_tizen 9.0
         *
         * @param[in] handle        The handle to the object detection 3d object.
         * @param[in] model_name    Model name.
@@ -101,7 +101,7 @@ int mv_object_detection_3d_set_model(mv_object_detection_3d_h handle, const char
 /**
  * @brief Configures the backend for the object detection inference.
  *
- * @since_tizen 7.0
+ * @since_tizen 9.0
  *
  * @param [in] handle         The handle to the inference
  *
@@ -118,7 +118,7 @@ int mv_object_detection_3d_configure(mv_object_detection_3d_h handle);
  * @details Use this function to prepare the object detection inference based on
  *          the configured network.
  *
- * @since_tizen 7.0
+ * @since_tizen 9.0
  *
  * @param[in] handle         The handle to the inference.
  *
@@ -137,7 +137,7 @@ int mv_object_detection_3d_prepare(mv_object_detection_3d_h handle);
 /**
  * @brief Performs the object detection 3d inference on the @a source.
  *
- * @since_tizen 7.0
+ * @since_tizen 9.0
  * @remarks This function is synchronous and may take considerable time to run.
  *
  * @param[in] handle          The handle to the inference
@@ -164,7 +164,7 @@ int mv_object_detection_3d_inference(mv_object_detection_3d_h handle, mv_source_
  * @brief Gets the probability value to the detected object.
  * @details Use this function to get the probability value after calling @ref mv_object_detection_3d_inference().
  *
- * @since_tizen 7.0
+ * @since_tizen 9.0
  *
  * @remarks The @a result must NOT be released using free()
  *
@@ -184,7 +184,7 @@ int mv_object_detection_3d_get_probability(mv_object_detection_3d_h handle, unsi
  * @brief Gets the number of points to the 3D bounding box of the detected object.
  * @details Use this function to get the number of points after calling @ref mv_object_detection_3d_inference().
  *
- * @since_tizen 7.0
+ * @since_tizen 9.0
  *
  * @remarks The @a result must NOT be released using free()
  *
@@ -204,7 +204,7 @@ int mv_object_detection_3d_get_num_of_points(mv_object_detection_3d_h handle, un
  * @brief Gets the x and y coordinates values to the 3D bounding box of the detected object.
  * @details Use this function to get the coordinates values after calling @ref mv_object_detection_3d_inference().
  *
- * @since_tizen 7.0
+ * @since_tizen 9.0
  *
  * @remarks The @a result must NOT be released using free()
  *
@@ -225,7 +225,7 @@ int mv_object_detection_3d_get_points(mv_object_detection_3d_h handle, unsigned
         * @brief Set user-given inference engine and device types for inference.
         * @details Use this function to change the inference engine and device types for inference instead of default ones after calling @ref mv_object_detection_3d_create().
         *
-        * @since_tizen 8.0
+        * @since_tizen 9.0
         *
         * @param[in] handle        The handle to the object detection 3d object.
         * @param[in] engine_type  A string of inference engine type.
@@ -245,7 +245,7 @@ int mv_object_detection_3d_set_engine(mv_object_detection_3d_h handle, const cha
         * @brief Get a number of inference engines available for object detection 3d task API.
         * @details Use this function to get how many inference engines are supported for object detection 3d after calling @ref mv_object_detection_3d_create().
         *
-        * @since_tizen 8.0
+        * @since_tizen 9.0
         *
         * @param[in] handle         The handle to the object detection 3d object.
         * @param[out] engine_count  A number of inference engines available for object detection 3d API.
@@ -263,7 +263,7 @@ int mv_object_detection_3d_get_engine_count(mv_object_detection_3d_h handle, uns
         * @brief Get engine type to a given inference engine index.
         * @details Use this function to get inference engine type with a given engine index after calling @ref mv_object_detection_3d_get_engine_count().
         *
-        * @since_tizen 8.0
+        * @since_tizen 9.0
         *
         * @param[in] handle        The handle to the object detection 3d object.
         * @param[in] engine_index  A inference engine index for getting the inference engine type.
@@ -283,7 +283,7 @@ int mv_object_detection_3d_get_engine_type(mv_object_detection_3d_h handle, cons
         * @brief Get a number of device types available to a given inference engine.
         * @details Use this function to get how many device types are supported for a given inference engine after calling @ref mv_object_detection_3d_create().
         *
-        * @since_tizen 8.0
+        * @since_tizen 9.0
         *
         * @param[in] handle         The handle to the object detection 3d object.
         * @param[in] engine_type    A inference engine string.
@@ -303,7 +303,7 @@ int mv_object_detection_3d_get_device_count(mv_object_detection_3d_h handle, con
         * @brief Get device type list available.
         * @details Use this function to get what device types are supported for current inference engine type after calling @ref mv_object_detection_3d_configure().
         *
-        * @since_tizen 8.0
+        * @since_tizen 9.0
         *
         * @param[in] handle         The handle to the object detection 3d object.
         * @param[in] engine_type    A inference engine string.
index 22b4eee..313e13e 100644 (file)
@@ -36,7 +36,7 @@ extern "C" {
 /**
  * @brief The object detection 3d handle.
  *
- * @since_tizen 7.0
+ * @since_tizen 9.0
  */
 typedef void *mv_object_detection_3d_h;
 
index dbb0267..a9490a5 100644 (file)
@@ -36,7 +36,7 @@ extern "C" {
 /**
  * @brief The object detection object handle.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  */
 typedef void *mv_object_detection_h;
 
index 6c27517..6c33ee2 100644 (file)
@@ -31,7 +31,7 @@ extern "C" {
  *          @ref mv_pose_landmark_prepare() function to prepare
  *               an pose landmark object.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[out] out_handle    The handle to the pose landmark object to be created
  *
@@ -51,7 +51,7 @@ int mv_pose_landmark_create(mv_pose_landmark_h *out_handle);
 /**
  * @brief Destroys pose landmark handle and releases all its resources.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[in] handle    The handle to the pose landmark object to be destroyed.
  *
@@ -69,7 +69,7 @@ int mv_pose_landmark_destroy(mv_pose_landmark_h handle);
  * @brief Set user-given model information.
  * @details Use this function to change the model information instead of default one after calling @ref mv_pose_landmark_create().
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[in] handle        The handle to the pose landmark object.
  * @param[in] model_name    Model name.
@@ -90,7 +90,7 @@ int mv_pose_landmark_set_model(mv_pose_landmark_h handle, const char *model_name
 /**
  * @brief Configures the backend to the inference handle
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param [in] handle         The handle to the inference
  *
@@ -106,7 +106,7 @@ int mv_pose_landmark_configure(mv_pose_landmark_h handle);
  * @details Use this function to prepare inference based on
  *          the configured network.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param [in] handle         The handle to the inference
  *
@@ -123,7 +123,7 @@ int mv_pose_landmark_prepare(mv_pose_landmark_h handle);
  * @details Use this function to inference with a given source.
  *
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[in] handle         The handle to the pose landmark object.
  * @param[in] source         The handle to the source of the media.
@@ -146,7 +146,7 @@ int mv_pose_landmark_inference(mv_pose_landmark_h handle, mv_source_h source);
  * @internal
  * @brief Performs asynchronously the pose landmark inference on the @a source.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  * @remarks This function operates asynchronously, so it returns immediately upon invocation.
  *          The inference results are inserted into the outgoing queue within the framework
  *          in the order of processing, and the results can be obtained through mv_pose_landmark_get_pos().
@@ -172,7 +172,7 @@ int mv_pose_landmark_inference_async(mv_pose_landmark_h handle, mv_source_h sour
 /**
  * @brief Gets the pose landmark positions on the @a source.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  * @remarks pos_x and pos_y arrays are allocated internally by the framework and will remain valid
  *          until the handle is released.
  *          Please do not deallocate them directly, and if you want to use them after the handle is released,
@@ -210,7 +210,7 @@ int mv_pose_landmark_get_pos(mv_pose_landmark_h handle, unsigned int *number_of_
  * @brief Set user-given backend and device types for inference.
  * @details Use this function to change the backend and device types for inference instead of default ones after calling @ref mv_pose_landmark_create().
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[in] handle        The handle to the image classification object.
  * @param[in] backend_type  A string of backend type.
@@ -229,7 +229,7 @@ int mv_pose_landmark_set_engine(mv_pose_landmark_h handle, const char *backend_t
  * @brief Get a number of inference engines available for image classification task API.
  * @details Use this function to get how many inference engines are supported for image classification after calling @ref mv_pose_landmark_create().
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[in] handle         The handle to the image classification object.
  * @param[out] engine_count  A number of inference engines available for image classification API.
@@ -247,7 +247,7 @@ int mv_pose_landmark_get_engine_count(mv_pose_landmark_h handle, unsigned int *e
  * @brief Gets engine type to a given inference engine index.
  * @details Use this function to get inference engine type with a given engine index after calling @ref mv_pose_landmark_get_engine_count().
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  * @remarks engine_type array is allocated internally by the framework and will remain valid
  *          until the handle is returned.
  *          Please do not deallocate it directly, and if you want to use it after the handle is returned,
@@ -269,7 +269,7 @@ int mv_pose_landmark_get_engine_type(mv_pose_landmark_h handle, const unsigned i
  * @brief Gets a number of device types available to a given inference engine.
  * @details Use this function to get how many device types are supported for a given inference engine after calling @ref mv_pose_landmark_create().
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[in] handle         The handle to the image classification object.
  * @param[in] engine_type    A inference engine string.
@@ -288,7 +288,7 @@ int mv_pose_landmark_get_device_count(mv_pose_landmark_h handle, const char *eng
  * @brief Gets device type list available.
  * @details Use this function to get what device types are supported for current inference engine type after calling @ref mv_pose_landmark_configure().
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  * @remarks device_type array is allocated internally by the framework and will remain valid
  *          until the handle is returned.
  *          Please do not deallocate it directly, and if you want to use it after the handle is returned,
index c5f53da..5f6132f 100644 (file)
@@ -36,7 +36,7 @@ extern "C" {
 /**
  * @brief The pose landmark object handle.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  */
 typedef void *mv_pose_landmark_h;
 
index 5508e96..e83508e 100644 (file)
@@ -43,7 +43,7 @@ extern "C" {
  *          mv_selfie_segmentation_prepare() function to prepare a network
  *          for the inference.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @remarks The @a handle should be released using mv_selfie_segmentation_destroy().
  *
@@ -64,7 +64,7 @@ int mv_selfie_segmentation_create(mv_selfie_segmentation_h *handle);
  * @internal
  * @brief Destroys inference handle and releases all its resources.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[in] handle    The handle to the inference to be destroyed.
  *
@@ -84,7 +84,7 @@ int mv_selfie_segmentation_destroy(mv_selfie_segmentation_h handle);
  * @brief Set user-given model information.
  * @details Use this function to change the model information instead of default one after calling @ref mv_selfie_segmentation_create().
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[in] handle        The handle to the selfie segmentation object.
  * @param[in] model_name    Model name.
@@ -106,7 +106,7 @@ int mv_selfie_segmentation_set_model(mv_selfie_segmentation_h handle, const char
  * @internal
  * @brief Configures the backend for the selfie segmentation inference.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param [in] handle         The handle to the inference
  *
@@ -124,7 +124,7 @@ int mv_selfie_segmentation_configure(mv_selfie_segmentation_h handle);
  * @details Use this function to prepare the selfie segmentation inference based on
  *          the configured network.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[in] handle         The handle to the inference.
  *
@@ -144,7 +144,7 @@ int mv_selfie_segmentation_prepare(mv_selfie_segmentation_h handle);
  * @internal
  * @brief Performs the selfie segmentation inference on the @a source.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  * @remarks This function is synchronous and may take considerable time to run.
  *
  * @param[in] source         The handle to the source of the media
@@ -169,7 +169,7 @@ int mv_selfie_segmentation_inference(mv_selfie_segmentation_h handle, mv_source_
  * @internal
  * @brief Performs asynchronously the selfie segmentation inference on the @a source.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  * @remarks This function operates asynchronously, so it returns immediately upon invocation.
  *          The inference results are inserted into the outgoing queue within the framework
  *          in the order of processing, and the results can be obtained through mv_selfie_segmentation_get_result()
@@ -197,7 +197,7 @@ int mv_selfie_segmentation_inference_async(mv_selfie_segmentation_h handle, mv_s
  * @internal
  * @brief Gets the selfie segmentation inference result on the @a source.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[in] infer         The handle to the inference
  * @param[out] width        Width size of output image.
@@ -225,7 +225,7 @@ int mv_selfie_segmentation_get_result(mv_selfie_segmentation_h handle, unsigned
  * @brief Set user-given inference engine and device types for inference.
  * @details Use this function to change the inference engine and device types for inference instead of default ones after calling @ref mv_selfie_segmentation_create().
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[in] handle        The handle to the selfie segmentation object.
  * @param[in] engine_type  A string of inference engine type.
@@ -246,7 +246,7 @@ int mv_selfie_segmentation_set_engine(mv_selfie_segmentation_h handle, const cha
  * @brief Get a number of inference engines available for selfie segmentation task API.
  * @details Use this function to get how many inference engines are supported for selfie segmentation after calling @ref mv_selfie_segmentation_create().
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[in] handle         The handle to the selfie segmentation object.
  * @param[out] engine_count  A number of inference engines available for selfie segmentation API.
@@ -265,7 +265,7 @@ int mv_selfie_segmentation_get_engine_count(mv_selfie_segmentation_h handle, uns
  * @brief Get engine type to a given inference engine index.
  * @details Use this function to get inference engine type with a given engine index after calling @ref mv_selfie_segmentation_get_engine_count().
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[in] handle        The handle to the selfie segmentation object.
  * @param[in] engine_index  A inference engine index for getting the inference engine type.
@@ -286,7 +286,7 @@ int mv_selfie_segmentation_get_engine_type(mv_selfie_segmentation_h handle, cons
  * @brief Get a number of device types available to a given inference engine.
  * @details Use this function to get how many device types are supported for a given inference engine after calling @ref mv_selfie_segmentation_create().
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[in] handle         The handle to the selfie segmentation object.
  * @param[in] engine_type    A inference engine string.
@@ -307,7 +307,7 @@ int mv_selfie_segmentation_get_device_count(mv_selfie_segmentation_h handle, con
  * @brief Get device type list available.
  * @details Use this function to get what device types are supported for current inference engine type after calling @ref mv_selfie_segmentation_configure().
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  *
  * @param[in] handle         The handle to the selfie segmentation object.
  * @param[in] engine_type    A inference engine string.
index a96dda0..63b9c42 100644 (file)
@@ -36,7 +36,7 @@ extern "C" {
 /**
  * @brief The selfie segmentation object handle.
  *
- * @since_tizen 8.0
+ * @since_tizen 9.0
  */
 typedef void *mv_selfie_segmentation_h;