[C-API] Use ML_NNFW_TYPE_TRIX_ENGINE instead of ML_NNFW_TYPE_TRIx_ENGINE accepted/tizen/unified/20210810.135355 submit/tizen/20210809.021120
authorSangjung Woo <sangjung.woo@samsung.com>
Fri, 6 Aug 2021 06:51:40 +0000 (15:51 +0900)
committerjaeyun-jung <39614140+jaeyun-jung@users.noreply.github.com>
Fri, 6 Aug 2021 07:01:12 +0000 (16:01 +0900)
According to the Tizen naming convention, the names of the entities must
be composed of upper case letters. This patch fixes this issue.

Signed-off-by: Sangjung Woo <sangjung.woo@samsung.com>
c/include/nnstreamer.h
c/src/nnstreamer-capi-single.c
c/src/nnstreamer-capi-util.c

index fb49f93..29f5aee 100644 (file)
@@ -141,7 +141,7 @@ typedef enum {
   ML_NNFW_TYPE_PYTORCH = 11,          /**< PyTorch (.pt). (Since 6.5) */
   ML_NNFW_TYPE_NNTR_INF = 12,         /**< Inference supported from NNTrainer, SR On-device Training Framework (Since 6.5) */
   ML_NNFW_TYPE_VD_AIFW = 13,          /**< Inference framework for Samsung Tizen TV (Since 6.5) */
-  ML_NNFW_TYPE_TRIx_ENGINE = 14,      /**< TRIxENGINE accesses TRIV/TRIA NPU low-level drivers directly (.tvn). (Since 6.5) You may need to use high-level drivers wrapping this low-level driver in some devices: e.g., AIFW */
+  ML_NNFW_TYPE_TRIX_ENGINE = 14,      /**< TRIxENGINE accesses TRIV/TRIA NPU low-level drivers directly (.tvn). (Since 6.5) You may need to use high-level drivers wrapping this low-level driver in some devices: e.g., AIFW */
   ML_NNFW_TYPE_SNAP = 0x2001,         /**< SNAP (Samsung Neural Acceleration Platform), only for Android. (Since 6.0) */
 } ml_nnfw_type_e;
 
index 05f8fdd..b6e0775 100644 (file)
@@ -718,7 +718,7 @@ ml_single_open_custom (ml_single_h * single, ml_single_preset * info)
    * Set the pipeline desc with nnfw.
    */
   if (nnfw == ML_NNFW_TYPE_TENSORFLOW || nnfw == ML_NNFW_TYPE_SNAP ||
-      nnfw == ML_NNFW_TYPE_PYTORCH || nnfw == ML_NNFW_TYPE_TRIx_ENGINE) {
+      nnfw == ML_NNFW_TYPE_PYTORCH || nnfw == ML_NNFW_TYPE_TRIX_ENGINE) {
     /* set input and output tensors information */
     if (in_tensors_info && out_tensors_info) {
       status =
index 28a185e..3b36b5a 100644 (file)
@@ -37,7 +37,7 @@ static const char *ml_nnfw_subplugin_name[] = {
   [ML_NNFW_TYPE_PYTORCH] = "pytorch",
   [ML_NNFW_TYPE_NNTR_INF] = "nntrainer",
   [ML_NNFW_TYPE_VD_AIFW] = "vd_aifw",
-  [ML_NNFW_TYPE_TRIx_ENGINE] = "trix-engine",
+  [ML_NNFW_TYPE_TRIX_ENGINE] = "trix-engine",
   NULL
 };