[MediaVision] Remove deprecated API - InferenceTargetType (#5520)
authorHaesu Gwon <haesu.gwon@samsung.com>
Sun, 3 Sep 2023 22:34:12 +0000 (07:34 +0900)
committerGitHub <noreply@github.com>
Sun, 3 Sep 2023 22:34:12 +0000 (07:34 +0900)
src/Tizen.Multimedia.Vision/MediaVision/InferenceModelConfiguration.cs
src/Tizen.Multimedia.Vision/MediaVision/InferenceType.cs

index 702132c..e12c60a 100755 (executable)
@@ -361,31 +361,6 @@ namespace Tizen.Multimedia.Vision
         }
 
         /// <summary>
-        /// Gets or sets the inference model's target.
-        /// </summary>
-        /// <remarks>
-        /// The default target is <see cref="InferenceTargetType.CPU"/>.<br/>
-        /// If target doesn't support <see cref="InferenceTargetType.GPU"/> and <see cref="InferenceTargetType.Custom"/>,
-        /// <see cref="InferenceTargetType.CPU"/> will be used internally, despite the user's choice.
-        /// </remarks>
-        /// <exception cref="ArgumentException"><paramref name="value"/> is not valid.</exception>
-        /// <since_tizen> 6 </since_tizen>
-        [Obsolete("Deprecated since API8. Will be removed in API10. Please use Device instead.")]
-        public InferenceTargetType Target
-        {
-            get
-            {
-                return (InferenceTargetType)GetInt(_keyTargetType);
-            }
-            set
-            {
-                ValidationUtil.ValidateEnum(typeof(InferenceTargetType), value, nameof(Target));
-
-                Set(_keyTargetType, (int)value);
-            }
-        }
-
-        /// <summary>
         /// Gets or sets the processor type for inference models.
         /// </summary>
         /// <remarks>
index 89cabc7..29b844b 100755 (executable)
@@ -74,29 +74,6 @@ namespace Tizen.Multimedia.Vision
     }
 
     /// <summary>
-    /// Specifies the type of target. It's used for running inference backend.
-    /// </summary>
-    /// <since_tizen> 6 </since_tizen>
-    [Obsolete("Deprecated since API8; Will be removed in API10. Please use InferenceTargetDevice instead.")]
-    public enum InferenceTargetType
-    {
-        /// <summary>
-        /// CPU target
-        /// </summary>
-        CPU,
-
-        /// <summary>
-        /// GPU target
-        /// </summary>
-        GPU,
-
-        /// <summary>
-        /// Custom target
-        /// </summary>
-        Custom
-    }
-
-    /// <summary>
     /// Specifies the target device which is used for running <see cref="InferenceModelConfiguration.Backend"/>.
     /// </summary>
     /// <since_tizen> 8 </since_tizen>