Fix typos
authorgichan2-jang <gichan2.jang@samsung.com>
Mon, 1 Jul 2024 01:30:04 +0000 (10:30 +0900)
committerMyungJoo Ham <myungjoo.ham@samsung.com>
Wed, 3 Jul 2024 01:36:31 +0000 (10:36 +0900)
Fix typos and skip checking typo for user defined words.

Signed-off-by: gichan2-jang <gichan2.jang@samsung.com>
117 files changed:
CHANGES
CONTRIBUTING.md
Documentation/component-description.md
Documentation/doxygen-documentation.md
Documentation/writing-subplugin-tensor-filter.md
_typos.toml
debian/rules
ext/nnstreamer/android_source/gstamcsrc.c
ext/nnstreamer/android_source/gstamcsrc_looper.cc
ext/nnstreamer/extra/nnstreamer_python3_helper.cc
ext/nnstreamer/tensor_converter/tensor_converter_python3.cc
ext/nnstreamer/tensor_decoder/box_properties/mobilenetssd.cc
ext/nnstreamer/tensor_decoder/box_properties/ovdetection.cc
ext/nnstreamer/tensor_decoder/tensordec-boundingbox.cc
ext/nnstreamer/tensor_decoder/tensordec-directvideo.c
ext/nnstreamer/tensor_decoder/tensordec-imagesegment.c
ext/nnstreamer/tensor_decoder/tensordec-pose.c
ext/nnstreamer/tensor_decoder/tensordec-python3.cc
ext/nnstreamer/tensor_decoder/tensordec-tensor_region.c
ext/nnstreamer/tensor_filter/README.md
ext/nnstreamer/tensor_filter/meson.build
ext/nnstreamer/tensor_filter/tensor_filter_armnn.cc
ext/nnstreamer/tensor_filter/tensor_filter_caffe2.cc
ext/nnstreamer/tensor_filter/tensor_filter_cpp.hh
ext/nnstreamer/tensor_filter/tensor_filter_deepview_rt.cc
ext/nnstreamer/tensor_filter/tensor_filter_edgetpu.cc
ext/nnstreamer/tensor_filter/tensor_filter_movidius_ncsdk2.c
ext/nnstreamer/tensor_filter/tensor_filter_mxnet.cc
ext/nnstreamer/tensor_filter/tensor_filter_ncnn.cc
ext/nnstreamer/tensor_filter/tensor_filter_nnfw.c
ext/nnstreamer/tensor_filter/tensor_filter_onnxruntime.cc
ext/nnstreamer/tensor_filter/tensor_filter_openvino.cc
ext/nnstreamer/tensor_filter/tensor_filter_python3.cc
ext/nnstreamer/tensor_filter/tensor_filter_pytorch.cc
ext/nnstreamer/tensor_filter/tensor_filter_tensorflow.cc
ext/nnstreamer/tensor_filter/tensor_filter_tensorflow_lite.cc
ext/nnstreamer/tensor_filter/tensor_filter_tensorrt.cc
ext/nnstreamer/tensor_filter/vivante/README.md
ext/nnstreamer/tensor_filter/vivante/build_run.sh
ext/nnstreamer/tensor_filter/vivante/tensor_filter_vivante.c
ext/nnstreamer/tensor_source/tensor_src_grpc.c
ext/nnstreamer/tensor_source/tensor_src_tizensensor.c
gst/datarepo/gstdatareposink.c
gst/datarepo/gstdatareposrc.h
gst/edge/edge_elements.c
gst/edge/edge_sink.c
gst/mqtt/mqttsrc.c
gst/mqtt/ntputil.c
gst/nnstreamer/elements/gsttensor_converter.c
gst/nnstreamer/elements/gsttensor_decoder.c
gst/nnstreamer/elements/gsttensor_decoder.h
gst/nnstreamer/elements/gsttensor_decoder.md
gst/nnstreamer/elements/gsttensor_demux.c
gst/nnstreamer/elements/gsttensor_if.c
gst/nnstreamer/elements/gsttensor_merge.c
gst/nnstreamer/elements/gsttensor_mux.c
gst/nnstreamer/elements/gsttensor_repo.c
gst/nnstreamer/elements/gsttensor_reposink.c
gst/nnstreamer/elements/gsttensor_reposrc.c
gst/nnstreamer/elements/gsttensor_sparseutil.c
gst/nnstreamer/elements/gsttensor_split.c
gst/nnstreamer/elements/gsttensor_srciio.c
gst/nnstreamer/elements/gsttensor_srciio.h
gst/nnstreamer/elements/gsttensor_trainer.c
gst/nnstreamer/elements/gsttensor_transform.c
gst/nnstreamer/elements/gsttensor_transform.h
gst/nnstreamer/include/nnstreamer_cppplugin_api_filter.hh
gst/nnstreamer/include/nnstreamer_plugin_api_filter.h
gst/nnstreamer/nnstreamer_conf.c
gst/nnstreamer/tensor_allocator.c
gst/nnstreamer/tensor_filter/README.md
gst/nnstreamer/tensor_filter/tensor_filter.c
gst/nnstreamer/tensor_filter/tensor_filter.h
gst/nnstreamer/tensor_filter/tensor_filter_common.c
gst/nnstreamer/tensor_filter/tensor_filter_common.h
gst/nnstreamer/tensor_filter/tensor_filter_single.c
jni/Android-app.mk
jni/README.md
jni/prepare_tflite.sh
meson.build
tests/common/unittest_common.cc
tests/cpp_methods/unittest_cpp_methods.cc
tests/gstreamer_mqtt/GstMqttTestHelper.hh
tests/gstreamer_mqtt/unittest_ntp_util_mock.cc
tests/meson.build
tests/nnstreamer_converter/unittest_converter.cc
tests/nnstreamer_converter_python3/runTest.sh
tests/nnstreamer_datarepo/unittest_datareposink.cc
tests/nnstreamer_datarepo/unittest_datareposrc.cc
tests/nnstreamer_decoder/runTest.sh
tests/nnstreamer_decoder/unittest_decoder.cc
tests/nnstreamer_decoder_python3/runTest.sh
tests/nnstreamer_edge/query/runTest.sh
tests/nnstreamer_example/custom_example_opencv/nnstreamer_customfilter_opencv_scaler.cc
tests/nnstreamer_filter_extensions_common/unittest_tizen_template.cc.in
tests/nnstreamer_filter_lua/runTest.sh
tests/nnstreamer_filter_mvncsdk2/NCSDKTensorFilterTestHelper.cc
tests/nnstreamer_filter_mvncsdk2/NCSDKTensorFilterTestHelper.hh
tests/nnstreamer_filter_mxnet/Predictor.hh
tests/nnstreamer_filter_openvino/unittest_openvino.cc
tests/nnstreamer_filter_python3/runTest.sh
tests/nnstreamer_filter_reload/tensor_filter_reload_test.c
tests/nnstreamer_filter_tvm/unittest_filter_tvm.cc
tests/nnstreamer_merge/runTest.sh
tests/nnstreamer_plugins/unittest_plugins.cc
tests/nnstreamer_rate/unittest_rate.cc
tests/nnstreamer_repo_dynamicity/tensor_repo_dynamic_test.c
tests/nnstreamer_sink/unittest_sink.cc
tests/nnstreamer_trainer/unittest_trainer.cc
tests/unittest_mlagent/mock_mlagent.h
tools/development/gstPrototxt.py
tools/development/meson.build
tools/development/nnstreamerCodeGenCustomFilter.py
tools/development/parser/toplevel.c
tools/development/parser/types.h
tools/profiling/README.md
tools/tracing/README.md

diff --git a/CHANGES b/CHANGES
index 7e232fb..b236362 100644 (file)
--- a/CHANGES
+++ b/CHANGES
                - Join, a new element. It merges output sinks from src pads of different elements with the same GST-Cap.
                - Tensor-rate, a new element. It allows throttling by generating QoS messages.
                - TensorRT support
-               - TF1-lite and TF2-lite coexistance
+               - TF1-lite and TF2-lite coexistence
                - TFx-lite NNAPI, GPU Delegation
 
        - Minor features
        - Semantics of hardware-acceleration options for tensor-filter re-worked.
        - API/Android: nnfw-runtime (neurun) and SNPE support
        - API/Android: usability update.
-       - API/Android: less invokation latency. (more optimization coming in next versions)
+       - API/Android: less invocation latency. (more optimization coming in next versions)
        - API/C: bugfixes, architectural upgrade, latency reduction.
        - tensor-filter has latency and throughput performance monitors.
        - tensor-sink is by default "sync=false". If appsink or tensor_sink in NNStreamer Pipeline API's pipeline has sync=true, emit warning messages.
        - Updated env-var handling logic for non-Tizen devices.
        - Unit test: higher visibility & behavior correctness fixes.
        - Auto-generated test cases for tensor-filter sub-plugins (extensions).
-       - Android/Java support with more convinient methods.
+       - Android/Java support with more convenient methods.
        - Support gcc9.
        - Support openVino as a tensor-filter, allowing to accelerate with Intel NCS/Myriad.
        - Support NCSDK as a tensor-filter.
 0.1.0 -> 0.1.1:
        - Full "Plug & Play" capability of subplugins. (tensor_filter, tensor_filter::custom, tensor_decoder)
                - Fully configurable subplugin locations.
-               - Capability to build subplungins wihtout the dependencies on nnstreamer sources.
+               - Capability to build subplungins without the dependencies on nnstreamer sources.
        - Revert Tensorflow input-memcpy-less-ness for multi-tensor support. (Will support memcpy-less-ness later)
        - Support "String" type of tensors.
        - API sets updated. (still not "stable")
index 70f7627..f22658a 100644 (file)
@@ -31,11 +31,11 @@ The TSC voting members are:
 ## TSC Meeting
 
 
-A TSC meeting is required to be publically announced (at least 10 days before the meeting) and publically accessible. A chairperson or its deputy, who is designated by a chairperson or the former chairperson, may announce and hold a TSC meeting. A deputy designated by a former resigning chairperson should hold a TSC meeting to elect a new chairperson and is relieved automatically by electing a new chairperson.
+A TSC meeting is required to be publicly announced (at least 10 days before the meeting) and publicly accessible. A chairperson or its deputy, who is designated by a chairperson or the former chairperson, may announce and hold a TSC meeting. A deputy designated by a former resigning chairperson should hold a TSC meeting to elect a new chairperson and is relieved automatically by electing a new chairperson.
 
 A TSC meeting should be announced via the nnstreamer-announce LFAI mailing list (the mailing list). Other media (GitHub issues, gitter.im, social media, LFAI event calendar, and so on) may also be used along with the mailing list.
 
-A TSC meeting should be held at a publically accessible place. A TSC meeting is, by default, held conventionally (offline meeting) in a place where the chairperson or its deputy has announced. However, alternatively, a TSC meeting may be held virtually (audio or video conference) with publically available media that are declared with the meeting announcement. A conventionally-held TSC meeting may include audio or video conferences to help those who cannot present physically.
+A TSC meeting should be held at a publicly accessible place. A TSC meeting is, by default, held conventionally (offline meeting) in a place where the chairperson or its deputy has announced. However, alternatively, a TSC meeting may be held virtually (audio or video conference) with publicly available media that are declared with the meeting announcement. A conventionally-held TSC meeting may include audio or video conferences to help those who cannot present physically.
 
 A TSC meeting is, by default, recorded or scripted for the general public. The URLs or the contents of the recordings or scripts should be available via the mailing list. Alternatively, a live video stream may be broadcasted via methods declared by the mailing list.
 
index d69d93f..734627c 100644 (file)
@@ -96,7 +96,7 @@ In this page, we focus on the status of each elements. For requirements and desi
 - [tensor\_sink](https://github.com/nnstreamer/nnstreamer/tree/main/gst/nnstreamer/elements/gsttensor_sink.md) (stable)
   - ```appsink```-like element, which is specialized for ```other/tensors```. You may use appsink with capsfilter instead.
 - [tensor\_merge](https://github.com/nnstreamer/nnstreamer/tree/main/gst/nnstreamer/elements/gsttensor_merge.c) (stable)
-  - This combines muiltiple single-tensored (```other/tensors,num_tensors=1```) streams into a single-tensored stream by merging dimensions of incoming tensor streams. For example, it may merge two ```dimensions=640:480``` streams into ```dimensons=1280:480```, ```dimensions=640:960```, or ```dimensions=640:480:2```, according to a given configuration.
+  - This combines multiple single-tensored (```other/tensors,num_tensors=1```) streams into a single-tensored stream by merging dimensions of incoming tensor streams. For example, it may merge two ```dimensions=640:480``` streams into ```dimensons=1280:480```, ```dimensions=640:960```, or ```dimensions=640:480:2```, according to a given configuration.
   - Users can adjust sync-mode and sync-option to change its behaviors of when to create output tensors and how to choose input tensors.
   - Users can adjust how dimensions are merged (the rank merged, the order of merged streams).
 - [tensor\_split](https://github.com/nnstreamer/nnstreamer/tree/main/gst/nnstreamer/elements/gsttensor_split.c) (stable)
index 11b12c6..b94bb74 100644 (file)
@@ -110,7 +110,7 @@ int RingBuffer_Init(RINGBUFF_T *RingBuff, void *buffer, int itemSize, int count)
 typedef struct {
     void *memBuf; /**<A void * pointing to memory of size bufSize.*/
     size_t filePos; /**<Current position inside the file.*/
-    size_t bufPos; /**<Curent position inside the buffer.*/
+    size_t bufPos; /**<Current position inside the buffer.*/
     size_t bufSize; /**<The size of the buffer.*/
     size_t bufLen; /**<The actual size of the buffer used.*/
     enum bigWigFile_type_enum type; /**<The connection type*/
index b1069bb..e119fcf 100644 (file)
@@ -88,7 +88,7 @@ List of variables that needs to be provided are provided below...
 
 You can change the provided each variable on the go using a script, for example...
 ```sh
-$ sed s/@EXT_ABBRV@/cutom_plugin/g subplugin_unittest_template.cc.in > subplugin_unittest.cc
+$ sed s/@EXT_ABBRV@/custom_plugin/g subplugin_unittest_template.cc.in > subplugin_unittest.cc
 ```
 
 but preferably, using meson through `configure_data` and `configure_file`
index 127d935..bc48c0c 100644 (file)
@@ -3,3 +3,13 @@ extend-exclude = ["tests/test_models/models/*", "tests/test_models/labels/*", "t
 
 [default.extend-words]
 mosquitto = "mosquitto"
+iy = "iy"
+addd = "addd"
+ND = "ND"
+thr = "thr"
+wth = "wth"
+ot = "ot"
+FORAMT = "FORAMT" # Fix later (This is related with flatbuf and protobuf schema)
+Seeked = "Seeked"
+ba = "ba"
+splitted = "splitted"
index fb46727..e350deb 100755 (executable)
@@ -56,7 +56,7 @@ endif
 
 override_dh_auto_build:
        ninja -C ${BUILDDIR}
-       # A few modules are not avaiable in Ubuntu 22.04. Don't try to create them if not available.
+       # A few modules are not available in Ubuntu 22.04. Don't try to create them if not available.
        if [ -f './build/ext/nnstreamer/tensor_filter/libnnstreamer_filter_nnfw.so' ]; then echo "NNFW exists" ; else rm debian/nnstreamer-nnfw.install; fi
        if [ -f './build/ext/nnstreamer/tensor_filter/libnnstreamer_filter_pytorch.so' ]; then echo "pytorch exists" ; else rm debian/nnstreamer-pytorch.install; fi
        if [ -f './build/ext/nnstreamer/tensor_filter/libnnstreamer_filter_caffe2.so' ]; then echo "caffe2 exists" ; else rm debian/nnstreamer-caffe2.install; fi
index fa04522..9579480 100644 (file)
@@ -162,7 +162,7 @@ static GstStateChangeReturn gst_amc_src_change_state (GstElement * element,
     GstStateChange transition);
 
 /**
- * @brief enum for propery
+ * @brief enum for property
  */
 typedef enum
 {
index 0868f1f..ff9d4d1 100644 (file)
@@ -56,7 +56,7 @@ Looper::Looper ()
 }
 
 /**
- * @brief Looper desctructor
+ * @brief Looper destructor
  */
 Looper::~Looper ()
 {
index 659e370..cbe9761 100644 (file)
@@ -390,7 +390,7 @@ addToSysPath (const gchar *path)
 
 /**
  * @brief parse the converting result to feed output tensors
- * @param[result] Python object retunred by convert
+ * @param[result] Python object returned by convert
  * @param[info] info Structure for output tensors info
  * @return 0 if no error, otherwise negative errno
  */
index da79d33..df18865 100644 (file)
@@ -10,7 +10,7 @@
  *         which converts to tensors using python.
  * @see                https://github.com/nnstreamer/nnstreamer
  * @author     Gichan Jang <gichan2.jang@samsung.com>
- * @bug                python converter with Python3.9.10 is stucked during Py_Finalize().
+ * @bug                python converter with Python3.9.10 is stuck during Py_Finalize().
  */
 
 #include <nnstreamer_plugin_api.h>
@@ -297,7 +297,7 @@ py_open (const gchar *path, void **priv_data)
 
   if (core->init () != 0) {
     delete core;
-    Py_ERRMSG ("failed to initailize the object or the python script is invalid: Python\n");
+    Py_ERRMSG ("failed to initialize the object or the python script is invalid: Python\n");
     ret = -EINVAL;
     goto done;
   }
index 43ac717..03099a1 100644 (file)
@@ -61,7 +61,7 @@ class MobilenetSSD : public BoxProperties
 
 /**
  * @brief C++-Template-like box location calculation for box-priors
- * @bug This is not macro-argument safe. Use paranthesis!
+ * @bug This is not macro-argument safe. Use parenthesis!
  * @param[in] bb The configuration, "bounding_boxes"
  * @param[in] index The index (3rd dimension of BOX_SIZE:1:DETECTION_MAX:1)
  * @param[in] total_labels The count of total labels. We can get this from input tensor info. (1st dimension of LABEL_SIZE:DETECTION_MAX:1:1)
index bce2a99..675627f 100644 (file)
@@ -122,7 +122,7 @@ OVDetection::checkCompatible (const GstTensorsConfig *config)
     return FALSE;
 
   /**
-   * The shape of the ouput tensor is [7, N, 1, 1], where N is the maximum
+   * The shape of the output tensor is [7, N, 1, 1], where N is the maximum
    * number (i.e., 200) of detected bounding boxes.
    */
   dim = config->info.info[0].dimension;
index 0d70e11..ab79bc3 100644 (file)
@@ -383,7 +383,7 @@ check_tensors (const GstTensorsConfig *config, const unsigned int limit)
         limit, config->info.num_tensors);
   }
 
-  /* tensor-type of the tensors shoule be the same */
+  /* tensor-type of the tensors should be the same */
   for (i = 1; i < config->info.num_tensors; ++i) {
     g_return_val_if_fail (config->info.info[i - 1].type == config->info.info[i].type, FALSE);
   }
@@ -669,7 +669,7 @@ BoundingBox::draw (GstMapInfo *out_info, GArray *results)
           pos2 += width;
         }
         x1 += 9;
-        pos1 += 9; /* charater width + 1px */
+        pos1 += 9; /* character width + 1px */
       }
     }
   }
index 4fbb5cd..6972bf9 100644 (file)
@@ -22,7 +22,7 @@
  *
  * @see                https://github.com/nnstreamer/nnstreamer
  * @author     Jijoong Moon <jijoong.moon@samsung.com>
- * @bug                If the elment size is 2 or larger, padding won't work.
+ * @bug                If the element size is 2 or larger, padding won't work.
  *              GRAY16 types has size of 2 and if you have padding, it won't work.
  *              To correct this, dv_decode() should be fixed.
  */
index b94729e..98ec87d 100644 (file)
@@ -62,7 +62,7 @@
  *
  * - Used model is deeplabv3_257_mv_gpu.tflite.
  * - Resize image into 257:257 at the first videoscale.
- * - Transfrom RGB value into float32 in range [0,1] at tensor_transform.
+ * - Transform RGB value into float32 in range [0,1] at tensor_transform.
  *
  * gst-launch-1.0 -v \
  *    filesrc location=cat.png ! decodebin ! videoconvert ! videoscale ! imagefreeze !\
@@ -239,7 +239,7 @@ is_setOption (void **pdata, int op_num, const char *param)
       idata->max_labels = (guint) max_labels_64;
   }
 
-  GST_WARNING ("mode-option-\"%d\" is not definded.", op_num);
+  GST_WARNING ("mode-option-\"%d\" is not defined.", op_num);
   return TRUE;
 }
 
index 3d2a21c..c6a7e8f 100644 (file)
@@ -197,7 +197,7 @@ typedef struct pose_metadata_s pose_metadata_t;
 static singleLineSprite_t singleLineSprite;
 
 /**
- * @brief Data structure for boundig box info.
+ * @brief Data structure for pose-estimation info.
  */
 typedef struct
 {
@@ -517,7 +517,7 @@ typedef struct
  * @brief Check if a value is within lower and upper bounds
  * @param value the value to check
  * @param lower_b the lower bound (inclusive)
- * @param upper_b the uppoer bound (exlcusive)
+ * @param upper_b the uppoer bound (exclusive)
  * @return TRUE if the value is within the bounds, otherwise FALSE
  */
 static gboolean
@@ -535,7 +535,7 @@ is_value_within(int value, int lower_b, int upper_b)
 /**
  * @brief Fill in pixel with PIXEL_VALUE at x,y position. Make thicker (x+1, y+1)
  * @param[out] out_info The output buffer (RGBA plain)
- * @param[in] bdata The bouding-box internal data.
+ * @param[in] bdata The pose-estimation internal data.
  * @param[in] coordinate of pixel
  */
 static void
@@ -559,7 +559,7 @@ setpixel (uint32_t * frame, pose_data * data, int x, int y)
 /**
  * @brief Draw line with dot at the end of line
  * @param[out] out_info The output buffer (RGBA plain)
- * @param[in] bdata The bouding-box internal data.
+ * @param[in] bdata The pose-estimation internal data.
  * @param[in] coordinate of two end point of line
  */
 static void
@@ -626,9 +626,9 @@ draw_line_with_dot (uint32_t * frame, pose_data * data, int x1, int y1, int x2,
 }
 
 /**
- * @brief Draw lable with the given results (pose) to the output buffer
+ * @brief Draw label with the given results (pose) to the output buffer
  * @param[out] out_info The output buffer (RGBA plain)
- * @param[in] bdata The bouding-box internal data.
+ * @param[in] bdata The pose-estimation internal data.
  * @param[in] results The final results to be drawn.
  */
 static void
@@ -674,7 +674,7 @@ draw_label (uint32_t * frame, pose_data * data, pose * xydata)
 /**
  * @brief Draw with the given results (pose) to the output buffer
  * @param[out] out_info The output buffer (RGBA plain)
- * @param[in] bdata The bouding-box internal data.
+ * @param[in] bdata The pose-estimation internal data.
  * @param[in] results The final results to be drawn.
  */
 static void
index 5ba54c0..16aabfa 100644 (file)
@@ -213,7 +213,7 @@ PYDecoderCore::getOutCaps (const GstTensorsConfig *config)
   Py_LOCK ();
   if (!PyObject_HasAttrString (core_obj, (char *) "getOutCaps")) {
     ml_loge ("Cannot find 'getOutCaps'");
-    ml_loge ("defualt caps is `application/octet-stream`");
+    ml_loge ("default caps is `application/octet-stream`");
     caps = gst_caps_from_string ("application/octet-stream");
     goto done;
   }
@@ -324,7 +324,7 @@ decoder_py_setOption (void **pdata, int opNum, const char *param)
 
     if (core->init () != 0) {
       delete core;
-      ml_loge ("failed to initailize the object: Python3\n");
+      ml_loge ("failed to initialize the object: Python3\n");
       goto done;
     }
 
index 920d06d..009b918 100644 (file)
@@ -397,7 +397,7 @@ typedef struct {
  * @brief transfer crop region info with the given results to the output buffer
  * @param[out] out_info The output buffer
  * @param[in] data The Tensor_region internal data.
- * @param[in] results The final results to be transfered.
+ * @param[in] results The final results to be transferred.
  */
 static void
 gst_tensor_top_detectedObjects_cropInfo (GstMapInfo *out_info, const tensor_region *data, GArray *results)
@@ -424,7 +424,7 @@ gst_tensor_top_detectedObjects_cropInfo (GstMapInfo *out_info, const tensor_regi
 
 /**
  * @brief C++-Template-like box location calculation for box-priors
- * @bug This is not macro-argument safe. Use paranthesis!
+ * @bug This is not macro-argument safe. Use parenthesis!
  * @param[in] bb The configuration, "tensor region"
  * @param[in] index The index (3rd dimension of BOX_SIZE:1:MOBILENET_SSD_DETECTION_MAX:1)
  * @param[in] total_labels The count of total labels. We can get this from input tensor info. (1st dimension of LABEL_SIZE:MOBILENET_SSD_DETECTION_MAX:1:1)
index eeea70f..a3132fe 100644 (file)
@@ -63,10 +63,10 @@ Interface: [/gst/nnstreamer/include/nnstreamer_plugin_api_filter.h]
 If the framework or backend/runtime library has C APIs and you want to write the subplugin in C, use ```#include <nnstreamer_plugin_api_filter.h>```.
 Your C subplugin is supposed to fill in ```GstTensorFilterFramework``` struct and register the struct with ```nnstreamer_filter_probe (GstTensorFilterFrameworkEventData *)``` function, which is supposed to be called with ```((constructor))``` initializer (```init_filter_nnfw (void)``` function in the reference).
 If your subplugin has custom properties to be supplied by users, describe their usages with ```nnstreamer_filter_set_custom_property_desc ()``` function.
-Then, call ```nnstreamer_filter_exit ()``` function with ```((desctructor))``` terminator (```fini_filter_nnfw (void)``` function in the reference).
+Then, call ```nnstreamer_filter_exit ()``` function with ```((destructor))``` terminator (```fini_filter_nnfw (void)``` function in the reference).
 
 
-In ```GstTensorFilterFramework```, there are two different ways, ```v0 (version == GST_TENSOR_FILTER_FRAMEWORK_V0)``` and ```v1 (version == GST_TENSOR_FILTER_FRAMEWORK_V1)```. In the struct, there is a ```union``` of ```v0``` and ```v1```, and it is recommended to use ```v1``` and ```set version = GST_TENSOR_FILTER_FRAMEWORK_V1``` (v1). ```v0``` is supposed to be used by old subplugins for backward compatibilty and any new subplugins should use ```v1```, which is simpler and richers in features.
+In ```GstTensorFilterFramework```, there are two different ways, ```v0 (version == GST_TENSOR_FILTER_FRAMEWORK_V0)``` and ```v1 (version == GST_TENSOR_FILTER_FRAMEWORK_V1)```. In the struct, there is a ```union``` of ```v0``` and ```v1```, and it is recommended to use ```v1``` and ```set version = GST_TENSOR_FILTER_FRAMEWORK_V1``` (v1). ```v0``` is supposed to be used by old subplugins for backward compatibility and any new subplugins should use ```v1```, which is simpler and richers in features.
 
 
 However, note that if you are going to use framework/library with C++ APIs, please do not use ```nnstreamer_plugin_api_filter.h```, but use the base tensor-filter-subplugin C++ class as in the next section.
index c87acc7..d63de8e 100644 (file)
@@ -483,7 +483,7 @@ if get_option('enable-edgetpu')
 
   edgetpu_dep = dependency('edgetpu', required: false)
   if not edgetpu_dep.found()
-    # Since the developement package for Ubuntu does not have pkgconfig file,
+    # Since the development package for Ubuntu does not have pkgconfig file,
     # check that the required header and library files exist in the system
     # include and lib directories.
     if cxx.has_header('edgetpu.h')
index fe337a8..ff0ee36 100644 (file)
@@ -732,7 +732,7 @@ armnn_invoke (const GstTensorFilterProperties *prop, void **private_data,
  * @brief The optional callback for GstTensorFilterFramework
  * @param prop property of tensor_filter instance
  * @param private_data : armnn plugin's private data
- * @param[out] info The dimesions and types of input tensors
+ * @param[out] info The dimensions and types of input tensors
  */
 static int
 armnn_getInputDim (const GstTensorFilterProperties *prop, void **private_data,
@@ -753,7 +753,7 @@ armnn_getInputDim (const GstTensorFilterProperties *prop, void **private_data,
  * @brief The optional callback for GstTensorFilterFramework
  * @param prop property of tensor_filter instance
  * @param private_data : armnn plugin's private data
- * @param[out] info The dimesions and types of output tensors
+ * @param[out] info The dimensions and types of output tensors
  */
 static int
 armnn_getOutputDim (const GstTensorFilterProperties *prop, void **private_data,
index fe3323c..0128a52 100644 (file)
@@ -548,7 +548,7 @@ caffe2_run (const GstTensorFilterProperties *prop, void **private_data,
  * @brief The optional callback for GstTensorFilterFramework
  * @param prop property of tensor_filter instance
  * @param private_data : caffe2 plugin's private data
- * @param[out] info The dimesions and types of input tensors
+ * @param[out] info The dimensions and types of input tensors
  */
 static int
 caffe2_getInputDim (const GstTensorFilterProperties *prop, void **private_data,
@@ -565,7 +565,7 @@ caffe2_getInputDim (const GstTensorFilterProperties *prop, void **private_data,
  * @brief The optional callback for GstTensorFilterFramework
  * @param prop property of tensor_filter instance
  * @param private_data : caffe2 plugin's private data
- * @param[out] info The dimesions and types of output tensors
+ * @param[out] info The dimensions and types of output tensors
  */
 static int
 caffe2_getOutputDim (const GstTensorFilterProperties *prop, void **private_data,
index 17a4793..9879f9d 100644 (file)
@@ -62,8 +62,8 @@
  *     "Already registered (-EINVAL)" may occur.
  *
  */
-#ifndef __NNS_TENSOR_FITLER_CPP_H__
-#define __NNS_TENSOR_FITLER_CPP_H__
+#ifndef __NNS_TENSOR_FILTER_CPP_H__
+#define __NNS_TENSOR_FILTER_CPP_H__
 
 #ifdef __cplusplus
 
@@ -156,4 +156,4 @@ class tensor_filter_cpp
 
 #endif /* __cplusplus */
 
-#endif /* __NNS_TENSOR_FITLER_CPP_H__ */
+#endif /* __NNS_TENSOR_FILTER_CPP_H__ */
index 111ebc7..e4bfef3 100644 (file)
@@ -71,7 +71,7 @@ class dvrt_subplugin final : public tensor_filter_subplugin
 
   GstTensorsInfo inputInfo; /**< The tensor info of input tensors */
   GstTensorsInfo outputInfo; /**< The tensor info of output tensors */
-  GMappedFile *modelMap; /**< Model file mmaped to memory */
+  GMappedFile *modelMap; /**< Model file mapped to memory */
 
   NNContext *context; /**< Context for model load and runtime */
   NNEngine *engine; /**< Engine path for context acceleration */
@@ -310,7 +310,7 @@ dvrt_subplugin::getTensorDim (gsize index, tensor_dim dim)
 }
 
 /**
- * @brief fetch and setup input/ouput tensors metadata
+ * @brief fetch and setup input/output tensors metadata
  * @return 0 if OK. non-zero if error.
  */
 int
@@ -367,7 +367,7 @@ dvrt_subplugin::setTensorProp (gint isInput)
 }
 
 /**
- * @brief fetch and setup ouput tensors metadata
+ * @brief fetch and setup output tensors metadata
  * @return 0 if OK. non-zero if error.
  */
 int
index 738a1f5..374d2ab 100644 (file)
@@ -408,7 +408,7 @@ edgetpu_subplugin::invoke (const GstTensorMemory *input, GstTensorMemory *output
     }
 
     std::cerr << "Failed to invoke tensorflow-lite + edge-tpu." << std::endl;
-    throw std::runtime_error ("Invoking tensorflow-lite with edge-tpu delgation failed.");
+    throw std::runtime_error ("Invoking tensorflow-lite with edge-tpu delegation failed.");
   }
 }
 
index bc22555..385ed7b 100644 (file)
@@ -204,7 +204,7 @@ _mvncsdk2_open (const GstTensorFilterProperties * prop, void **private_data)
   }
 
   /**
-   * 5. Get the tensor desciptions for input and output form allocated model
+   * 5. Get the tensor descriptions for input and output form allocated model
    */
   len = (guint32) sizeof (tensor_desc_input);
   ret_code =
index 4c5ae55..b8e0184 100644 (file)
@@ -59,7 +59,7 @@
  *     Supported props:
  *       input_rank: (mandatory)
  *            Rank of each input tensors.
- *            Each ranks are separeted by ':'.
+ *            Each ranks are separated by ':'.
  *            The number of ranks must be the same as the number of input
  *            tensors.
  *       enable_tensorrt: (optional)
@@ -105,8 +105,8 @@ namespace tensorfilter_mxnet
 {
 extern "C" {
 void init_filter_mxnet (void)
-    __attribute__ ((constructor)); /**< Dynamic library contstructor */
-void fini_filter_mxnet (void) __attribute__ ((destructor)); /**< Dynamic library desctructor */
+    __attribute__ ((constructor)); /**< Dynamic library constructor */
+void fini_filter_mxnet (void) __attribute__ ((destructor)); /**< Dynamic library destructor */
 }
 
 /**
@@ -115,8 +115,8 @@ void fini_filter_mxnet (void) __attribute__ ((destructor)); /**< Dynamic library
 class TensorFilterMXNet final : public tensor_filter_subplugin
 {
   public:
-  static void init_filter (); /**< Dynamic library contstructor helper */
-  static void fini_filter (); /**< Dynamic library desctructor helper */
+  static void init_filter (); /**< Dynamic library constructor helper */
+  static void fini_filter (); /**< Dynamic library destructor helper */
 
   TensorFilterMXNet ();
   ~TensorFilterMXNet ();
@@ -152,7 +152,7 @@ class TensorFilterMXNet final : public tensor_filter_subplugin
   int output_ranks_[NNS_TENSOR_RANK_LIMIT]; /**< Rank info of output tensor */
 
   std::string model_symbol_path_; /**< The model symbol .json file */
-  std::string model_params_path_; /**< The model paremeters .params file */
+  std::string model_params_path_; /**< The model parameters .params file */
 
   Symbol net_; /**< Model symbol */
   std::unique_ptr<Executor> executor_; /**< Model executor */
index 9c16e33..73b8cfb 100644 (file)
@@ -71,8 +71,8 @@ G_END_DECLS
 class ncnn_subplugin final : public tensor_filter_subplugin
 {
   public:
-  static void init_filter_ncnn (); /**< Dynamic library contstructor helper */
-  static void fini_filter_ncnn (); /**< Dynamic library desctructor helper */
+  static void init_filter_ncnn (); /**< Dynamic library constructor helper */
+  static void fini_filter_ncnn (); /**< Dynamic library destructor helper */
 
   ncnn_subplugin ();
   ~ncnn_subplugin ();
index f56bd8d..c21fe1f 100644 (file)
@@ -315,7 +315,7 @@ nnfw_close (const GstTensorFilterProperties * prop, void **private_data)
  * @brief Convert from nnfw type to gst tensor type
  * @param[in] nnfw_type type given in nnfw format
  * @param[out] type container to receive type in gst tensor format
- * @return 0 on sucess, errno on error
+ * @return 0 on success, negative errno on error
  */
 static int
 nnfw_tensor_type_to_gst (const NNFW_TYPE nnfw_type, tensor_type * type)
@@ -348,7 +348,7 @@ nnfw_tensor_type_to_gst (const NNFW_TYPE nnfw_type, tensor_type * type)
  * @brief Convert from gst tensor type to NNFW type
  * @param[in] type type given in gst format
  * @param[out] nnfw_type container to receive type in nnfw tensor format
- * @return 0 on sucess, negative errno on error
+ * @return 0 on success, negative errno on error
  */
 static int
 nnfw_tensor_type_from_gst (const tensor_type type, NNFW_TYPE * nnfw_type)
@@ -697,7 +697,7 @@ error:
  * @param[in] mem Tensor memory containing input/output information
  * @param[in] info Tensor information in nnfw format
  * @param[in] is_input given memory is for input or output
- * @return 0 on sucess, negative errno on error
+ * @return 0 on success, negative errno on error
  */
 static int
 nnfw_tensor_memory_set (const nnfw_pdata * pdata, const GstTensorMemory * mem,
index 291511b..16cf97b 100644 (file)
@@ -179,7 +179,7 @@ onnxruntime_subplugin::convertTensorDim (std::vector<int64_t> &shapes, tensor_di
 
   /* the order of dimension is reversed at CAPS negotiation */
   for (i = 0; i < rank; i++) {
-    /* free dimensions are treated as 1 if not overriden */
+    /* free dimensions are treated as 1 if not overridden */
     shapes[rank - i - 1] = (shapes[rank - i - 1] > 0) ? shapes[rank - i - 1] : 1;
     dim[i] = shapes[rank - i - 1];
   }
index 94dc479..698dba0 100644 (file)
@@ -95,7 +95,7 @@ TensorFilterOpenvino::convertFromIETypeStr (std::string type)
 /**
  * @brief Convert a tensor container in NNS to a tensor container in IE
  * @param tensorDesc the class that defines a Tensor description to be converted from a GstTensorMemory
- * @param gstTensor the container of a tensor in NNS to be coverted to a tensor container in IE
+ * @param gstTensor the container of a tensor in NNS to be converted to a tensor container in IE
  * @return a pointer to the Blob which is a container of a tensor in IE if OK, otherwise nullptr
  */
 InferenceEngine::Blob::Ptr
@@ -253,7 +253,7 @@ TensorFilterOpenvino::isModelLoaded ()
 
 /**
  * @brief      Get the information about the dimensions of input tensors from the given model
- * @param[out] info metadata containing the dimesions and types information of the input tensors
+ * @param[out] info metadata containing the dimensions and types information of the input tensors
  * @return 0 (TensorFilterOpenvino::RetSuccess) if OK, negative values if error
  */
 int
@@ -327,7 +327,7 @@ failed:
 
 /**
  * @brief      Get the information about the dimensions of output tensors from the given model
- * @param[out] info metadata containing the dimesions and types information of the output tensors
+ * @param[out] info metadata containing the dimensions and types information of the output tensors
  * @return 0 (TensorFilterOpenvino::RetSuccess) if OK, negative values if error
  */
 int
@@ -470,7 +470,7 @@ ov_invoke (const GstTensorFilterProperties *prop, void **private_data,
  * @brief The optional callback for GstTensorFilterFramework
  * @param prop property of tensor_filter instance
  * @param private_data TensorFilterOpenvino plugin's private data
- * @param[out] info the dimesions and types of input tensors
+ * @param[out] info the dimensions and types of input tensors
  * @return 0 (TensorFilterOpenvino::RetSuccess) if OK, negative values if error
  */
 static int
@@ -488,7 +488,7 @@ ov_getInputDim (const GstTensorFilterProperties *prop, void **private_data, GstT
  * @brief The optional callback for GstTensorFilterFramework
  * @param prop property of tensor_filter instance
  * @param private_data TensorFilterOpenvino plugin's private data
- * @param[out] info The dimesions and types of output tensors
+ * @param[out] info The dimensions and types of output tensors
  * @return 0 (TensorFilterOpenvino::RetSuccess) if OK, negative values if error
  */
 static int
index e8db6a0..c56ac8e 100644 (file)
@@ -213,7 +213,7 @@ PYCore::init (const GstTensorFilterProperties *prop)
   Py_LOCK ();
   PyObject *api_module = PyImport_ImportModule ("nnstreamer_python");
   if (api_module == NULL) {
-    Py_ERRMSG ("Cannt find `nnstreamer_python` module");
+    Py_ERRMSG ("Cannot find `nnstreamer_python` module");
     goto exit;
   }
 
@@ -293,7 +293,7 @@ PYCore::loadScript ()
         core_obj = PyObject_CallObject (cls, NULL);
 
       if (core_obj) {
-        /** check whther either setInputDim or getInputDim/getOutputDim are
+        /** check whether either setInputDim or getInputDim/getOutputDim are
          * defined */
         if (PyObject_HasAttrString (core_obj, (char *) "setInputDim"))
           callback_type = cb_type::CB_SETDIM;
@@ -693,7 +693,7 @@ TensorFilterPython::configure_instance (const GstTensorFilterProperties *prop)
 
   /**
    * prop->model_files[0] contains the path of a python script
-   * prop->custom contains its arguments seperated by ' '
+   * prop->custom contains its arguments separated by ' '
    */
   script_path = prop->model_files[0];
 
@@ -716,7 +716,7 @@ TensorFilterPython::configure_instance (const GstTensorFilterProperties *prop)
 
   if (core->init (prop) != 0) {
     delete core;
-    g_printerr ("failed to initailize the object: Python\n");
+    g_printerr ("failed to initialize the object: Python\n");
     PyGILState_Release (gstate);
     throw std::runtime_error ("Python is not initialize");
   }
index b6362a9..a439e13 100644 (file)
@@ -692,7 +692,7 @@ torch_invoke (const GstTensorFilterProperties *prop, void **private_data,
  * @brief The optional callback for GstTensorFilterFramework
  * @param prop property of tensor_filter instance
  * @param private_data : pytorch plugin's private data
- * @param[out] info The dimesions and types of input tensors
+ * @param[out] info The dimensions and types of input tensors
  */
 static gint
 torch_getInputDim (const GstTensorFilterProperties *prop, void **private_data,
@@ -709,7 +709,7 @@ torch_getInputDim (const GstTensorFilterProperties *prop, void **private_data,
  * @brief The optional callback for GstTensorFilterFramework
  * @param prop property of tensor_filter instance
  * @param private_data : pytorch plugin's private data
- * @param[out] info The dimesions and types of output tensors
+ * @param[out] info The dimensions and types of output tensors
  */
 static gint
 torch_getOutputDim (const GstTensorFilterProperties *prop, void **private_data,
index e6add13..84bf241 100644 (file)
@@ -665,7 +665,7 @@ tf_loadModelFile (const GstTensorFilterProperties *prop, void **private_data)
     *private_data = NULL;
     delete core;
 
-    g_printerr ("failed to initailize the object: tensorflow\n");
+    g_printerr ("failed to initialize the object: tensorflow\n");
     return -2;
   }
 
@@ -709,7 +709,7 @@ tf_run (const GstTensorFilterProperties *prop, void **private_data,
  * @brief The optional callback for GstTensorFilterFramework
  * @param prop: property of tensor_filter instance
  * @param private_data : tensorflow plugin's private data
- * @param[out] info The dimesions and types of input tensors
+ * @param[out] info The dimensions and types of input tensors
  */
 static int
 tf_getInputDim (const GstTensorFilterProperties *prop, void **private_data, GstTensorsInfo *info)
@@ -725,7 +725,7 @@ tf_getInputDim (const GstTensorFilterProperties *prop, void **private_data, GstT
  * @brief The optional callback for GstTensorFilterFramework
  * @param prop: property of tensor_filter instance
  * @param private_data : tensorflow plugin's private data
- * @param[out] info The dimesions and types of output tensors
+ * @param[out] info The dimensions and types of output tensors
  */
 static int
 tf_getOutputDim (const GstTensorFilterProperties *prop, void **private_data,
index b4c3253..83a517f 100644 (file)
@@ -259,7 +259,7 @@ class TFLiteCore
   /** @brief callback method to delete interpreter for shared model */
   friend void free_interpreter (void *instance);
   /** @brief callback method to replace interpreter for shared model */
-  friend void replace_interpreter (void *instance, void *interperter);
+  friend void replace_interpreter (void *instance, void *interpreter);
 
   private:
   int num_threads;
@@ -304,7 +304,7 @@ TFLiteInterpreter::TFLiteInterpreter ()
 }
 
 /**
- * @brief TFLiteInterpreter desctructor
+ * @brief TFLiteInterpreter destructor
  */
 TFLiteInterpreter::~TFLiteInterpreter ()
 {
@@ -1162,10 +1162,10 @@ TFLiteCore::reloadInterpreter (TFLiteInterpreter *new_interpreter)
  * @brief callback method to replace interpreter for shared model
  */
 void
-replace_interpreter (void *instance, void *interperter)
+replace_interpreter (void *instance, void *interpreter)
 {
   TFLiteCore *core = reinterpret_cast<TFLiteCore *> (instance);
-  TFLiteInterpreter *interpreter_new = reinterpret_cast<TFLiteInterpreter *> (interperter);
+  TFLiteInterpreter *interpreter_new = reinterpret_cast<TFLiteInterpreter *> (interpreter);
   if (core->reloadInterpreter (interpreter_new) != 0)
     nns_loge ("Failed to replace interpreter");
 }
@@ -1470,7 +1470,7 @@ tflite_invoke (const GstTensorFilterProperties *prop, void **private_data,
  * @brief The optional callback for GstTensorFilterFramework
  * @param prop property of tensor_filter instance
  * @param private_data : tensorflow lite plugin's private data
- * @param[out] info The dimesions and types of input tensors
+ * @param[out] info The dimensions and types of input tensors
  */
 static int
 tflite_getInputDim (const GstTensorFilterProperties *prop, void **private_data,
@@ -1487,7 +1487,7 @@ tflite_getInputDim (const GstTensorFilterProperties *prop, void **private_data,
  * @brief The optional callback for GstTensorFilterFramework
  * @param prop property of tensor_filter instance
  * @param private_data : tensorflow lite plugin's private data
- * @param[out] info The dimesions and types of output tensors
+ * @param[out] info The dimensions and types of output tensors
  */
 static int
 tflite_getOutputDim (const GstTensorFilterProperties *prop, void **private_data,
@@ -1537,8 +1537,8 @@ recovery_fail:
  * @brief The optional callback for GstTensorFilterFramework
  * @param prop property of tensor_filter instance
  * @param private_data : tensorflow lite plugin's private data
- * @param in_info The dimesions and types of input tensors
- * @param[out] out_info The dimesions and types of output tensors
+ * @param in_info The dimensions and types of input tensors
+ * @param[out] out_info The dimensions and types of output tensors
  * @detail Output Tensor info is recalculated based on the set Input Tensor Info
  */
 static int
@@ -1590,7 +1590,7 @@ tflite_setInputDim (const GstTensorFilterProperties *prop, void **private_data,
   status = core->getOutputTensorDim (out_info);
   if (status != 0) {
     tflite_setInputDim_recovery (
-        core, &cur_in_info, "while retreiving update output tensor info", 2);
+        core, &cur_in_info, "while retrieving update output tensor info", 2);
     goto exit;
   }
 
index 6ef1c42..17f3937 100644 (file)
@@ -214,7 +214,7 @@ tensorrt_subplugin::configure_instance (const GstTensorFilterProperties *prop)
 void
 tensorrt_subplugin::invoke (const GstTensorMemory *input, GstTensorMemory *output)
 {
-  /* If internal _inputBuffer is nullptr, tne allocate GPU memory */
+  /* If internal _inputBuffer is nullptr, then allocate GPU memory */
   if (!_inputBuffer) {
     if (allocBuffer (&_inputBuffer, input->size) != 0) {
       ml_loge ("Failed to allocate GPU memory for input");
@@ -352,7 +352,7 @@ tensorrt_subplugin::loadModel (const GstTensorFilterProperties *prop)
     return -1;
   }
 
-  /* Create ExecutionContext obejct */
+  /* Create ExecutionContext object */
   _Context = makeUnique (_Engine->createExecutionContext ());
   if (!_Context) {
     ml_loge ("Failed to create the TensorRT ExecutionContext object");
index f4ecf68..3945a60 100644 (file)
@@ -19,7 +19,7 @@ The entire procedure is as follows:
  * http://www.vivantecorp.com/
  * https://www.khadas.com/product-page/vim3 (Amlogic A311D with 5.0 TOPS NPU)
 
-## How to buid
+## How to build
 First of all, you must generate a library of a model (e.g., libvivantev3.so, libyolov3.so) to use NNStreamer tensor filter.
 For more details, please refer to the below repository.
  * https://www.github.com/nnstreamer/reference-models (TODO) - Press 'models' folder.
index 5c4b38a..89ce48c 100755 (executable)
@@ -30,7 +30,7 @@ export VSI_NN_LOG_LEVEL=5
 
 #################### Build ################################################
 if [[ $BUILD == 1 ]]; then
-    echo -e "Compling source .........."
+    echo -e "Compiling source .........."
     rm -rf ./build 
     meson  -Denable-vivante=true  build 
     ninja -C build  
@@ -79,7 +79,7 @@ if [[ $RUN_TEST == 1 ]]; then
         start_time=$( date +%s.%N )
         $CMD
         if [[ $? != 0 ]]; then
-            echo -e "Oooops. The exectuion is failed. Pleasse fix a bug."
+            echo -e "Oooops. The execution is failed. Please fix a bug."
             exit 1
         fi
         elapsed_time=$( date +%s.%N --date="$start_time seconds ago" )
index 4b0a94d..c933b04 100644 (file)
@@ -336,7 +336,7 @@ vivante_open (const GstTensorFilterProperties * prop, void **private_data)
   gst_tensors_info_init (&pdata->output_tensor);
 
   /** Note that we must use vsi_nn_GetTensor() to get a meta data
-   * (e.g., input tensor and outout tensor).
+   * (e.g., input tensor and output tensor).
    * ./linux_sdk/acuity-ovxlib-dev/lib/libovxlib.so
    * ./linux_sdk/acuity-ovxlib-dev/include/vsi_nn_graph.h
    * ./linux_sdk/acuity-ovxlib-dev/include/vsi_nn_tensor.h
index 7f451fa..3f9e472 100644 (file)
@@ -179,7 +179,7 @@ gst_tensor_src_grpc_class_init (GstTensorSrcGRPCClass * klass)
 
   gst_element_class_set_static_metadata (gstelement_class,
       "TensorSrcGRPC", "Source/Network",
-      "Receive nnstreamer protocal buffers as a gRPC server/client",
+      "Receive nnstreamer protocol buffers as a gRPC server/client",
       "Dongju Chae <dongju.chae@samsung.com>");
 
   /* GstBasrSrcClass */
@@ -194,7 +194,7 @@ gst_tensor_src_grpc_class_init (GstTensorSrcGRPCClass * klass)
 
   GST_DEBUG_CATEGORY_INIT (gst_tensor_src_grpc_debug,
       "tensor_src_grpc", 0,
-      "src element to support protocal buffers as a gRPC server/client");
+      "src element to support protocol buffers as a gRPC server/client");
 }
 
 /**
index 2d59c75..604cc03 100644 (file)
@@ -180,7 +180,7 @@ G_DEFINE_TYPE (GstTensorSrcTIZENSENSOR, gst_tensor_src_tizensensor,
 #define GST_TYPE_TIZEN_SENSOR_TYPE (tizen_sensor_get_type ())
 /**
  * @brief Support GEnumValue array for Tizen sensor framework's sensor_type_e (sensor.h)
- * @todo We need an automated maintanence system for sensor.h's sensor_type_e, which makes a build error if it has been changed.
+ * @todo We need an automated maintenance system for sensor.h's sensor_type_e, which makes a build error if it has been changed.
  */
 static GType
 tizen_sensor_get_type (void)
index df21163..7406863 100644 (file)
@@ -463,7 +463,7 @@ gst_data_repo_sink_write_multi_images (GstDataRepoSink * sink,
 }
 
 /**
- * @brief Called when a buffer should be presented or ouput.
+ * @brief Called when a buffer should be presented or output.
  */
 static GstFlowReturn
 gst_data_repo_sink_render (GstBaseSink * bsink, GstBuffer * buffer)
index 97cdc35..634a3c0 100644 (file)
@@ -96,7 +96,7 @@ struct _GstDataRepoSrc {
  * @brief GstDataRepoSrcClass data structure.
  */
 struct _GstDataRepoSrcClass {
-  GstPushSrcClass parent_calss;
+  GstPushSrcClass parent_class;
 };
 
 GType gst_data_repo_src_get_type (void);
index b34aa05..c2d9058 100644 (file)
@@ -39,6 +39,6 @@ plugin_init (GstPlugin * plugin)
 #endif
 
 GST_PLUGIN_DEFINE (GST_VERSION_MAJOR, GST_VERSION_MINOR, edge,
-    "A collcetion of GStreamer plugins to support Edge",
+    "A collection of GStreamer plugins to support NNStreamer edge feature",
     plugin_init, VERSION, "LGPL", PACKAGE,
     "https://github.com/nnstreamer/nnstreamer")
index d355a53..2a9f895 100644 (file)
@@ -125,7 +125,7 @@ gst_edgesink_class_init (GstEdgeSinkClass * klass)
           FALSE, G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
   g_object_class_install_property (gobject_class, PROP_CONNECTION_TIMEOUT,
       g_param_spec_uint64 ("connection-timeout",
-          "Timeout for wating a connection",
+          "Timeout for waiting a connection",
           "The timeout (in milliseconds) for waiting a connection to receiver. "
           "0 timeout (default) means infinite wait.", 0, G_MAXUINT64, 0,
           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
index fa84f9d..da8f9d1 100644 (file)
@@ -161,7 +161,7 @@ _is_gst_buffer_timestamp_valid (GstBuffer * buf)
   return TRUE;
 }
 
-/** Function defintions */
+/** Function definitions */
 /**
  * @brief Initialize GstMqttSrc object
  */
@@ -748,7 +748,7 @@ gst_mqtt_src_create (GstBaseSrc * basesrc, guint64 offset, guint size,
       GstClockTime ulatency = GST_CLOCK_TIME_NONE;
       GstClock *clock;
 
-      /** This buffer is comming from the past. Drop it */
+      /** This buffer is coming from the past. Drop it. */
       if (!_is_gst_buffer_timestamp_valid (*buf)) {
         if (self->debug) {
           GST_DEBUG_OBJECT (self,
index 072fa61..1d55fd1 100644 (file)
@@ -9,7 +9,7 @@
  * @see     https://github.com/nnstreamer/nnstreamer
  * @author  Wook Song <wook16.song@samsung.com>
  * @bug     No known bugs except for NYI items
- * @todo    Need to support cacheing and polling timer mechanism
+ * @todo    Need to support caching and polling timer mechanism
  */
 
 #include <errno.h>
@@ -202,7 +202,7 @@ ntputil_get_epoch (uint32_t hnums, char **hnames, uint16_t * ports)
       goto ret_close_sockfd;
     }
 
-    /* Recieve */
+    /* Receive */
     n = read (sockfd, &packet, sizeof (packet));
     if (n < 0) {
       ret = -errno;
index 87d65a6..b11c4d4 100644 (file)
@@ -1272,7 +1272,7 @@ gst_tensor_converter_chain (GstPad * pad, GstObject * parent, GstBuffer * buf)
       } else {
         /** @todo identify and printout the given input stream caps. */
         GST_ERROR_OBJECT (self,
-            "Tensor converter has an undefined behavior with type _NNS_MEDIA_ANY. It should've been custom-code or custom-script mode or a corrsponding external converter should've been registered (tensor_converter subplugin). However, nothing is available for the given input stream.");
+            "Tensor converter has an undefined behavior with type _NNS_MEDIA_ANY. It should've been custom-code or custom-script mode or a corresponding external converter should've been registered (tensor_converter subplugin). However, nothing is available for the given input stream.");
         goto error;
       }
       self->do_not_append_header =
index 0fed748..e9df79c 100644 (file)
@@ -373,7 +373,7 @@ gst_tensordec_class_init (GstTensorDecoderClass * klass)
 
   g_object_class_install_property (gobject_class, PROP_CONFIG,
       g_param_spec_string ("config-file", "Configuration-file",
-          "Path to configuraion file which contains plugins properties", "",
+          "Path to configuration file which contains plugins properties", "",
           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
 
   gst_element_class_set_details_simple (gstelement_class,
@@ -409,7 +409,7 @@ gst_tensordec_class_init (GstTensorDecoderClass * klass)
 /**
  * @brief initialize the new element
  * instantiate pads and add them to element
- * set pad calback functions
+ * set pad callback functions
  * initialize instance structure
  */
 static void
@@ -499,7 +499,7 @@ gst_tensordec_set_property (GObject * object, guint prop_id,
         if (decoder == self->decoder) {
           /* Already configured??? */
           GST_WARNING_OBJECT (self,
-              "nnstreamer tensor_decoder %s is already confgured.\n",
+              "nnstreamer tensor_decoder %s is already configured.\n",
               mode_string);
         } else {
           /* Changing decoder. Deallocate the previous */
@@ -508,7 +508,7 @@ gst_tensordec_set_property (GObject * object, guint prop_id,
         }
 
         if (0 == self->decoder->init (&self->plugin_data)) {
-          ml_loge ("Failed to intialize a decode subplugin, \"%s\".\n",
+          ml_loge ("Failed to initialize a decode subplugin, \"%s\".\n",
               mode_string);
           break;
         }
@@ -717,7 +717,7 @@ gst_tensordec_transform (GstBaseTransform * trans,
       self->tensor_config.info.num_tensors = num_mems;
     }
     num_tensors = self->tensor_config.info.num_tensors;
-    /** Internal logic error. Negotation process should prevent this! */
+    /** Internal logic error. Negotiation process should prevent this! */
     g_assert (num_mems == num_tensors);
 
     for (i = 0; i < num_tensors; i++) {
index 2e17aaa..9994d5b 100644 (file)
@@ -89,7 +89,7 @@ struct _GstTensorDecoder
 /**
  * @brief GstTensorDecoderClass inherits GstBaseTransformClass.
  *
- * Referring another child (sibiling), GstVideoFilter (abstract class) and
+ * Referring another child (sibling), GstVideoFilter (abstract class) and
  * its child (concrete class) GstVideoConverter.
  * Note that GstTensorDecoderClass is a concrete class; thus we need to look at both.
  */
index 223680b..9b3c738 100644 (file)
@@ -11,9 +11,9 @@ With given properties from users or pipeline developers, support the following c
 | Mode | Main property (input tensor semantics) | Additional & mandatory property | Output |
 | -| - | - | - |
 | directvideo | other/tensors | N/A | video/x-raw |
-| bounding_boxes | Bounding boxes (other/tensor) | File path to labels, decoding schems, out dim, in dim | video/x-raw |
+| bounding_boxes | Bounding boxes (other/tensor) | File path to labels, decoding schemes, out dim, in dim | video/x-raw |
 | image_labeling | Image label (other/tensor) | File path to labels | text/x-raw |
-| image_segment | segmentaion info | expected model | video/x-raw |
+| image_segment | segmentation info | expected model | video/x-raw |
 | pose_estimation | pose info | out dim, in dim,  File path to labels, mode | video/x-raw |
 | flatbuf | other/tensors | N/A | flatbuffers |
 | protobuf | other/tensors | N/A | protocol buffers |
@@ -111,12 +111,12 @@ This is an example of a python script.
 # @file custom_decoder_example.py
 ## @brief  User-defined custom decoder
 class CustomDecoder(object):
-## @breif  Python callback: getOutCaps
+## @brief  Python callback: getOutCaps
   def getOutCaps (self):
     # Write capability of the media type.
     return bytes('@CAPS_STRING@', 'UTF-8')
 
-## @breif  Python callback: decode
+## @brief  Python callback: decode
   def decode (self, raw_data, in_info, rate_n, rate_d):
     # return decoded raw data as `bytes` type.
     return data
index 028ca6d..7a595ce 100644 (file)
@@ -168,7 +168,7 @@ gst_tensor_demux_class_init (GstTensorDemuxClass * klass)
 /**
  * @brief initialize the new element
  * instantiate pads and add them to element
- * set pad calback functions
+ * set pad callback functions
  * initialize instance structure
  */
 static void
@@ -227,8 +227,8 @@ gst_tensor_demux_dispose (GObject * object)
 
 /**
  * @brief Parse caps and configure tensors info.
- * @param tensor_demux GstTensorDemux Ojbect
- * @param caps incomming capablity
+ * @param tensor_demux GstTensorDemux object
+ * @param caps incoming capability
  * @return TRUE/FALSE (if successfully configured, return TRUE)
  */
 static gboolean
@@ -284,7 +284,7 @@ gst_tensor_demux_event (GstPad * pad, GstObject * parent, GstEvent * event)
  * @param config tensor config to be filled
  * @param nth source ordering
  * @param total number of tensors
- * @return TRUE if succesfully configured
+ * @return TRUE if successfully configured
  */
 static gboolean
 gst_tensor_demux_get_tensor_config (GstTensorDemux * tensor_demux,
@@ -293,14 +293,14 @@ gst_tensor_demux_get_tensor_config (GstTensorDemux * tensor_demux,
   gst_tensors_config_init (config);
 
   if (tensor_demux->tensorpick != NULL) {
-    gchar *seleted_tensor;
+    gchar *selected_tensor;
     gchar **strv;
     guint i, num, idx;
 
     g_assert (g_list_length (tensor_demux->tensorpick) >= nth);
 
-    seleted_tensor = (gchar *) g_list_nth_data (tensor_demux->tensorpick, nth);
-    strv = g_strsplit_set (seleted_tensor, ":+", -1);
+    selected_tensor = (gchar *) g_list_nth_data (tensor_demux->tensorpick, nth);
+    strv = g_strsplit_set (selected_tensor, ":+", -1);
     num = g_strv_length (strv);
 
     for (i = 0; i < num; i++) {
@@ -372,7 +372,7 @@ gst_tensor_demux_get_tensor_pad (GstTensorDemux * tensor_demux,
 
   tensorpad = g_new0 (GstTensorPad, 1);
   g_assert (tensorpad != NULL);
-  GST_DEBUG_OBJECT (tensor_demux, "createing pad: %d(%dth)",
+  GST_DEBUG_OBJECT (tensor_demux, "creating pad: %d(%dth)",
       tensor_demux->num_srcpads, nth);
 
   name = g_strdup_printf ("src_%u", tensor_demux->num_srcpads);
index 092b26e..e0ed995 100644 (file)
@@ -253,7 +253,7 @@ gst_tensor_if_class_init (GstTensorIfClass * klass)
 /**
  * @brief initialize the new element (GST Standard)
  * instantiate pads and add them to element
- * set pad calback functions
+ * set pad callback functions
  * initialize instance structure
  */
 static void
@@ -339,7 +339,7 @@ gst_tensor_if_set_property_glist (const GValue * value, GList ** prop_list,
   for (i = 0; i < num; i++) {
     val = g_ascii_strtoll (strv[i], NULL, 10);
     if (errno == ERANGE) {
-      ml_loge ("Overflow occured during converting %s to a gint64 value",
+      ml_loge ("Overflow occurred during converting %s to a gint64 value",
           strv[i]);
     }
     *prop_list = g_list_append (*prop_list, GINT_TO_POINTER (val));
@@ -384,7 +384,7 @@ gst_tensor_if_set_property_cv_option (const GValue * value, GList ** prop_list)
 
     val = g_ascii_strtoll (strv[1], NULL, 10);
     if (errno == ERANGE) {
-      ml_loge ("Overflow occured during converting %s to a gint64 value",
+      ml_loge ("Overflow occurred during converting %s to a gint64 value",
           strv[1]);
     }
     *prop_list = g_list_append (*prop_list, GINT_TO_POINTER (val));
@@ -671,8 +671,8 @@ gst_tensor_if_install_properties (GObjectClass * gobject_class)
 
 /**
  * @brief Parse caps and configure tensors info.
- * @param tensor_if GstTensorIf Ojbect
- * @param caps incomming capablity
+ * @param tensor_if GstTensorIf object
+ * @param caps incoming capability
  * @return TRUE/FALSE (if successfully configured, return TRUE)
  */
 static gboolean
@@ -747,7 +747,7 @@ gst_tensor_if_get_tensor_pad (GstTensorIf * tensor_if,
 
   tensorpad = g_new0 (GstTensorPad, 1);
   g_assert (tensorpad != NULL);
-  GST_DEBUG_OBJECT (tensor_if, "createing pad: %d(%dth)",
+  GST_DEBUG_OBJECT (tensor_if, "creating pad: %d(%dth)",
       tensor_if->num_srcpads, nth);
 
   name = g_strdup_printf ("src_%d", nth);
index c92feef..13ef393 100644 (file)
@@ -202,7 +202,7 @@ gst_tensor_merge_class_init (GstTensorMergeClass * klass)
 /**
  * @brief initialize the new element
  * instantiate pads and add them to element
- * set pad calback functions
+ * set pad callback functions
  * initialize instance structure
  */
 static void
@@ -427,7 +427,7 @@ gst_tensor_merge_get_merged_config (GstTensorMerge * tensor_merge,
 }
 
 /**
- * @brief Looping to generete outbut buffer for srcpad
+ * @brief Looping to generete output buffer for srcpad
  * @param tensor_merge tensor merger
  * @param tensor_buf output buffer for srcpad
  * @param is_eos boolean EOS ( End of Stream )
index 50e47bc..64cc707 100644 (file)
@@ -186,7 +186,7 @@ gst_tensor_mux_class_init (GstTensorMuxClass * klass)
 /**
  * @brief initialize the new element
  * instantiate pads and add them to element
- * set pad calback functions
+ * set pad callback functions
  * initialize instance structure
  */
 static void
@@ -359,7 +359,7 @@ gst_tensor_mux_sink_event (GstCollectPads * pads, GstCollectData * data,
 }
 
 /**
- * @brief Looping to generete outbut buffer for srcpad
+ * @brief Looping to generete output buffer for srcpad
  * @param tensor_mux tensor muxer
  * @param tensors_buf output buffer for srcpad
  * @param is_eos boolean EOS ( End of Stream )
index 481f683..00c3aa4 100644 (file)
@@ -236,7 +236,7 @@ gst_tensor_repo_check_changed (guint nth, guint * newid, gboolean is_sink)
   g_return_val_if_fail (data != NULL, FALSE);
 
   if (DBG)
-    GST_DEBUG ("%dth RepoData : sink_chaned %d, src_changed %d\n", nth,
+    GST_DEBUG ("%dth RepoData : sink_changed %d, src_changed %d\n", nth,
         data->sink_changed, data->src_changed);
 
   if (is_sink) {
index ea4e685..be49357 100644 (file)
@@ -18,7 +18,7 @@
 /**
  * SECTION: element-tensor_reposink
  *
- * Set elemnt to handle tensor repo
+ * Set element to handle tensor repo
  *
  * @file       gsttensor_reposink.c
  * @date       19 Nov 2018
@@ -153,7 +153,7 @@ gst_tensor_reposink_init (GstTensorRepoSink * self)
 
   gst_tensor_repo_init ();
 
-  GST_DEBUG_OBJECT (self, "GstTensorRepo is sucessfully initailzed");
+  GST_DEBUG_OBJECT (self, "GstTensorRepo is successfully initialized");
 
   self->silent = DEFAULT_SILENT;
   self->signal_rate = DEFAULT_SIGNAL_RATE;
index 13c934e..f029e9b 100644 (file)
@@ -18,7 +18,7 @@
 /**
  * SECTION: element-tensor_reposrc
  *
- * Pop elemnt to handle tensor repo
+ * Pop element to handle tensor repo
  *
  * @file       gsttensor_reposrc.c
  * @date       19 Nov 2018
@@ -240,7 +240,7 @@ gst_tensor_reposrc_set_property (GObject * object, guint prop_id,
       if (new_caps && gst_caps_get_size (new_caps) == 1 && st
           && gst_structure_get_fraction (st, "framerate", &self->fps_n,
               &self->fps_d)) {
-        GST_INFO_OBJECT (self, "Seting framerate to %d/%d", self->fps_n,
+        GST_INFO_OBJECT (self, "Setting framerate to %d/%d", self->fps_n,
             self->fps_d);
       } else {
         self->fps_n = -1;
index 0c4d85f..fbbb0d4 100644 (file)
@@ -92,7 +92,7 @@ gst_tensor_sparse_to_dense (GstTensorMetaInfo * meta, GstMemory * mem)
         ((uint64_t *) output)[indices[i]] = ((uint64_t *) input)[i];
         break;
       default:
-        nns_loge ("Error occured during get tensor value");
+        nns_loge ("Error occurred during get tensor value");
         g_free (output);
         goto done;
     }
@@ -219,7 +219,7 @@ gst_tensor_sparse_from_dense (GstTensorMetaInfo * meta, GstMemory * mem)
         }
         break;
       default:
-        nns_loge ("Error occured during get tensor value");
+        nns_loge ("Error occurred during get tensor value");
         g_free (values);
         g_free (indices);
         goto done;
index f8a09e4..7c14372 100644 (file)
@@ -153,7 +153,7 @@ gst_tensor_split_class_init (GstTensorSplitClass * klass)
 /**
  * @brief initialize the new element
  * instantiate pads and add them to element
- * set pad calback functions
+ * set pad callback functions
  * initialize instance structure
  */
 static void
@@ -212,8 +212,8 @@ gst_tensor_split_finalize (GObject * object)
 
 /**
  * @brief Set Caps in pad.
- * @param split GstTensorSplit Ojbect
- * @param caps incomming capablity
+ * @param split GstTensorSplit object
+ * @param caps incoming capability
  * @return TRUE/FALSE (if successfully generate & set cap, return TRUE)
  */
 static gboolean
@@ -302,7 +302,7 @@ gst_tensor_split_get_tensor_pad (GstTensorSplit * split, GstBuffer * inbuf,
 
   tensorpad = g_new0 (GstTensorPad, 1);
   g_assert (tensorpad != NULL);
-  GST_DEBUG_OBJECT (split, "createing pad: %d(%dth)", split->num_srcpads, nth);
+  GST_DEBUG_OBJECT (split, "creating pad: %d(%dth)", split->num_srcpads, nth);
 
   name = g_strdup_printf ("src_%u", split->num_srcpads);
   pad = gst_pad_new_from_static_template (&src_templ, name);
@@ -404,14 +404,14 @@ done:
 }
 
 /**
- * @brief Make Splited Tensor
- * @param split TensorSplit Object
+ * @brief Make splitted tensor
+ * @param split TensorSplit object
  * @param buffer gstbuffer form src
  * @param nth orther of tensor
- * @return return GstMemory for splited tensor
+ * @return return GstMemory for splitted tensor
  */
 static GstMemory *
-gst_tensor_split_get_splited (GstTensorSplit * split, GstBuffer * buffer,
+gst_tensor_split_get_splitted (GstTensorSplit * split, GstBuffer * buffer,
     gint nth)
 {
   GstMemory *mem;
@@ -493,7 +493,7 @@ gst_tensor_split_chain (GstPad * pad, GstObject * parent, GstBuffer * buf)
     srcpad = gst_tensor_split_get_tensor_pad (split, buf, &created, i);
 
     outbuf = gst_buffer_new ();
-    mem = gst_tensor_split_get_splited (split, buf, i);
+    mem = gst_tensor_split_get_splitted (split, buf, i);
     gst_buffer_append_memory (outbuf, mem);
     ts = GST_BUFFER_TIMESTAMP (buf);
 
index 0271e8e..bc69b25 100644 (file)
@@ -106,7 +106,7 @@ GST_DEBUG_CATEGORY_STATIC (gst_tensor_src_iio_debug);
 #define PROCESS_SCANNED_DATA(DTYPE_UNSIGNED, DTYPE_SIGNED) \
 /**
  * @brief process scanned data to float based on type info from channel
- * @param[in] prop Proprty of the channel whose data is processed
+ * @param[in] prop Property of the channel whose data is processed
  * @param[in] value Raw value scanned from the channel
  * @returns processed value in float
  */ \
index 4c1af8c..7baf0e5 100644 (file)
@@ -124,7 +124,7 @@ struct _GstTensorSrcIIO
   gboolean merge_channels_data; /**< merge channel data with same type/size */
   gboolean is_tensor; /**< False if tensors is used for data */
   guint buffer_capacity; /**< size of the buffer */
-  guint64 sampling_frequency; /**< sampling frequncy for the device */
+  guint64 sampling_frequency; /**< sampling frequency for the device */
 
   guint64 default_sampling_frequency; /**< default set value of sampling frequency */
   guint default_buffer_capacity; /**< size of the buffer */
index 884f44a..90883a0 100644 (file)
@@ -234,7 +234,7 @@ gst_tensor_trainer_class_init (GstTensorTrainerClass * klass)
 
   g_object_class_install_property (gobject_class, PROP_EPOCHS,
       g_param_spec_uint ("epochs", "Number of epoch",
-          "Epochs are repetitions of training samples and validation smaples, "
+          "Epochs are repetitions of training samples and validation samples, "
           "number of samples received for model training is "
           "(num-training-samples+num-validation-samples)*epochs", 0, G_MAXINT,
           DEFAULT_PROP_EPOCHS,
@@ -699,7 +699,7 @@ gst_tensor_trainer_chain (GstPad * sinkpad, GstObject * parent,
     /** app need to send gst_element_send_event(tensor_trainer, gst_event_new_eos())
         after training_complete or set eos to datareposrc */
     GST_WARNING_OBJECT (trainer,
-        "Training is completed, buffer is dropped, please chagne state of pipeline");
+        "Training is completed, buffer is dropped, please change state of pipeline");
     return GST_FLOW_OK;
   }
 
index 67b67c0..0466b2c 100644 (file)
@@ -292,7 +292,7 @@ gst_tensor_transform_class_init (GstTensorTransformClass * klass)
 /**
  * @brief initialize the new element (G_DEFINE_TYPE requires this)
  * instantiate pads and add them to element
- * set pad calback functions
+ * set pad callback functions
  * initialize instance structure
  */
 static void
@@ -348,7 +348,7 @@ static void
 float16_not_supported (void)
 {
   ml_loge
-      ("Tensor_tranform does not support float16 operators. Apply -Denable-float16=true for meson build option if your architecture support float16. Note that tensor-transform's float16 is adhoc and does NOT perform good (slow!).\n");
+      ("Tensor_transform does not support float16 operators. Apply -Denable-float16=true for meson build option if your architecture support float16. Note that tensor-transform's float16 is adhoc and does NOT perform good (slow!).\n");
   g_assert (0);
 }
 #endif
@@ -1185,7 +1185,7 @@ gst_tensor_transform_finalize (GObject * object)
 }
 
 /**
- * @brief subrouting for tensor-tranform, "dimchg" case.
+ * @brief subrouting for tensor-transform, "dimchg" case.
  * @param[in/out] filter "this" pointer
  * @param[in] in_info input tensor info
  * @param[in] out_info output tensor info
@@ -1280,7 +1280,7 @@ gst_tensor_transform_dimchg (GstTensorTransform * filter,
 }
 
 /**
- * @brief subrouting for tensor-tranform, "typecast" case.
+ * @brief subrouting for tensor-transform, "typecast" case.
  * @param[in/out] filter "this" pointer
  * @param[in] in_info input tensor info
  * @param[in] out_info output tensor info
@@ -1318,7 +1318,7 @@ gst_tensor_transform_typecast (GstTensorTransform * filter,
 }
 
 /**
- * @brief subrouting for tensor-tranform, "arithmetic" case.
+ * @brief subrouting for tensor-transform, "arithmetic" case.
  * @param[in/out] filter "this" pointer
  * @param[in] in_info input tensor info
  * @param[in] out_info output tensor info
@@ -1521,7 +1521,7 @@ gst_tensor_transform_arithmetic (GstTensorTransform * filter,
   } while(0);
 
 /**
- * @brief subrouting for tensor-tranform, "transpose" case.
+ * @brief subrouting for tensor-transform, "transpose" case.
  * @param[in/out] filter "this" pointer
  * @param[in] in_info input tensor info
  * @param[in] out_info output tensor info
@@ -1592,7 +1592,7 @@ gst_tensor_transform_transpose (GstTensorTransform * filter,
 }
 
 /**
- * @brief subrouting for tensor-tranform, "stand" case.
+ * @brief subrouting for tensor-transform, "stand" case.
  *        : pixel = abs((pixel - average(tensor))/(std(tensor) + val))
  * @param[in/out] filter "this" pointer
  * @param[in] in_info input tensor info
@@ -1711,7 +1711,7 @@ gst_tensor_transform_stand (GstTensorTransform * filter,
 }
 
 /**
- * @brief subrouting for tensor-tranform, "clamp" case.
+ * @brief subrouting for tensor-transform, "clamp" case.
  *        : pixel = if (pixel > max) ? max :
  *                  if (pixel < min) ? min : pixel
  * @param[in/out] filter "this" pointer
@@ -1750,7 +1750,7 @@ gst_tensor_transform_clamp (GstTensorTransform * filter,
 }
 
 /**
- * @brief subrouting for tensor-tranform, "padding" case.
+ * @brief subrouting for tensor-transform, "padding" case.
  * @param[in/out] filter "this" pointer
  * @param[in] in_info input tensor info
  * @param[in] out_info output tensor info
index 3cfc1af..2ec37e3 100644 (file)
@@ -191,7 +191,7 @@ struct _GstTensorTransform
 /**
  * @brief GstTensorTransformClass inherits GstBaseTransformClass.
  *
- * Referring another child (sibiling), GstVideoFilter (abstract class) and
+ * Referring another child (sibling), GstVideoFilter (abstract class) and
  * its child (concrete class) GstVideoTransform.
  * Note that GstTensorTransformClass is a concrete class; thus we need to look at both.
  */
index 4b1cea9..467b719 100644 (file)
@@ -59,7 +59,7 @@ namespace nnstreamer
  *         Unlike C-version, constructing an object will automatically
  *        register(probe) the subplugin for nnstreamer.
  *         Optional virtual functions (non pure virtual functions) may
- *        be kept un-overriden if you don't support such.
+ *        be kept un-overridden if you don't support such.
  *         For getInput/Output and setInput, return -EINVAL if you don't
  *        support it.
  *
@@ -68,7 +68,7 @@ namespace nnstreamer
 class tensor_filter_subplugin
 {
   private: /** Derived classes should NEVER access these */
-  const uint64_t sanity; /**< Checks if dlopened obejct is really tensor_filter_subplugin */
+  const uint64_t sanity; /**< Checks if dlopened object is really tensor_filter_subplugin */
 
   static const GstTensorFilterFramework
       fwdesc_template; /**< Template for fwdesc. Each subclass or object may
@@ -104,7 +104,7 @@ class tensor_filter_subplugin
    * @detail A derived class MUST register itself with this function in order
    *         to be available for nnstreamer pipelines, i.e., at its init().
    *         The derived class type should be the template typename.
-   * @retval Returns an "emptyInstnace" of the derived class. It is recommended
+   * @retval Returns an "emptyInstance" of the derived class. It is recommended
    *         to keep the object and feed to the unregister function.
    */
   template <typename T> static T *register_subplugin ()
index 3bb41bd..c23a30b 100644 (file)
@@ -112,16 +112,16 @@ typedef tensor_layout tensors_layout[NNS_TENSOR_SIZE_LIMIT];
 typedef struct _GstTensorFilterProperties
 {
   const char *fwname; /**< The name of NN Framework */
-  int fw_opened; /**< TRUE IF open() is called or tried. Use int instead of gboolean because this is refered by custom plugins. */
+  int fw_opened; /**< TRUE IF open() is called or tried. Use int instead of gboolean because this is referred by custom plugins. */
   const char **model_files; /**< File path to the model file (as an argument for NNFW). char instead of gchar for non-glib custom plugins */
   int num_models; /**< number of model files. Some frameworks need multiple model files to initialize the graph (caffe, caffe2) */
 
-  int input_configured; /**< TRUE if input tensor is configured. Use int instead of gboolean because this is refered by custom plugins. */
+  int input_configured; /**< TRUE if input tensor is configured. Use int instead of gboolean because this is referred by custom plugins. */
   GstTensorsInfo input_meta; /**< configured input tensor info */
   tensors_layout input_layout; /**< data layout info provided as a property to tensor_filter for the input, defaults to _NNS_LAYOUT_ANY for all the tensors */
   unsigned int input_ranks[NNS_TENSOR_SIZE_LIMIT];  /**< the rank list of input tensors, it is calculated based on the dimension string. */
 
-  int output_configured; /**< TRUE if output tensor is configured. Use int instead of gboolean because this is refered by custom plugins. */
+  int output_configured; /**< TRUE if output tensor is configured. Use int instead of gboolean because this is referred by custom plugins. */
   GstTensorsInfo output_meta; /**< configured output tensor info */
   tensors_layout output_layout; /**< data layout info provided as a property to tensor_filter for the output, defaults to _NNS_LAYOUT_ANY for all the tensors */
   unsigned int output_ranks[NNS_TENSOR_SIZE_LIMIT];  /**< the rank list of output tensors, it is calculated based on the dimension string. */
index e1c94fa..3e68ba9 100644 (file)
@@ -137,7 +137,7 @@ _parse_bool_string (const gchar * strval, gboolean def)
  *        Otherwise, NULL
  *
  * @retval strdup-ed env-var value
- * @param[in] name Environmetal variable name
+ * @param[in] name Environmental variable name
  */
 static gchar *
 _strdup_getenv (const gchar * name)
index 320fb08..99a9d80 100644 (file)
@@ -81,7 +81,7 @@ gst_tensor_allocator_class_init (GstTensorAllocatorClass * klass)
 }
 
 /**
- * @brief initialzation for GstTensorAllocator
+ * @brief initialization for GstTensorAllocator
  */
 static void
 gst_tensor_allocator_init (GstTensorAllocator * allocator)
index 4248e25..8c3ec5e 100644 (file)
@@ -95,7 +95,7 @@ v4l2src name=cam_src ! videoscale ! videoconvert ! video/x-raw,width=640,height=
   ![tee-pipeline-img](./filter_tee.png)  
 
 #### Object detection using output combination option
-The orignal video frame is passed to output of tensor-filter using the property output-combination.  
+The original video frame is passed to output of tensor-filter using the property output-combination.  
   - launch script
 ```
 gst-launch-1.0 \
@@ -116,15 +116,15 @@ v4l2src name=cam_src ! videoscale ! videoconvert ! video/x-raw,width=640,height=
 ## Sub-Components
 
 ### Main ```tensor_filter.c```
-This is the main placeholder for all different subcomponents. With the property, ```FRAMEWORK```, this main component loads the proper subcomponent (e.g., tensorflow-lite support, custom support, or other addtional NNFW supports).  
+This is the main placeholder for all different subcomponents. With the property, ```FRAMEWORK```, this main component loads the proper subcomponent (e.g., tensorflow-lite support, custom support, or other additional NNFW supports).  
 The main component is supposed process the standard properties for subcomponents as well as processing the input/output dimensions.  
 The subcomponents as supposed to fill in ```GstTensor_Filter_Framework``` struct and register it with ```supported``` array in ```tensor_filter.h```.  
-Note that the registering sturcture may be updated later. (We may follow what ```Linux.kernel/drivers/devfreq/devfreq.c``` does)
+Note that the registering structure may be updated later. (We may follow what ```Linux.kernel/drivers/devfreq/devfreq.c``` does)
 
 ### Tensorflow-lite support, ```tensor_filter_tensorflow_lite.cc```
 This should fill in ```GstTensor_Filter_Framework``` supporting tensorflow_lite.  
 
 ### Custom function support, ```tensor_filter_custom.c```
 Neural network and streameline developers may define their own tensor postprocessing operations with tensor_filter_custom.  
-With ```nnstreamer-devel``` package installed at build time (e.g., ```BuildRequires: pkgconfig(nnstreamer)``` in .spec file), develerops can implement their own functions and expose their functions via ```NNStreamer_custom_class``` defined in ```tensor_fitler_custom.h```.  
+With ```nnstreamer-devel``` package installed at build time (e.g., ```BuildRequires: pkgconfig(nnstreamer)``` in .spec file), develerops can implement their own functions and expose their functions via ```NNStreamer_custom_class``` defined in ```tensor_filter_custom.h```.  
 The resulting custom developer plugin should exist as a shared library (.so) with the symbol NNStreamer_custom exposed with all the func defined in NNStreamer_custom_class.  
index d766e3a..659316c 100644 (file)
@@ -54,7 +54,7 @@
  * When 'tensor_filter' receives a throttling QoS event from the 'tensor_rate' element,
  * it compares the average processing latency and throttling delay, and takes the
  * maximum value as the threshold to drop incoming frames by checking a buffer timestamp.
- * In this way, 'tensor filter' can avoid unncessary calculation and adjust a framerate,
+ * In this way, 'tensor filter' can avoid unnecessary calculation and adjust a framerate,
  * effectively reducing resource utilizations.
  * Even in the case of receiving QoS events from multiple downstream pipelines (e.g., tee),
  * 'tensor_filter' takes the minimum value as the throttling delay for downstream pipeline
@@ -212,7 +212,7 @@ gst_tensor_filter_class_init (GstTensorFilterClass * klass)
 /**
  * @brief initialize the new element
  * instantiate pads and add them to element
- * set pad calback functions
+ * set pad callback functions
  * initialize instance structure
  */
 static void
@@ -267,7 +267,7 @@ gst_tensor_filter_get_tensor_size (GstTensorFilter * self, guint index,
   /* Internal Logic Error: out of bound */
   if (index >= info->num_tensors) {
     GST_ELEMENT_ERROR_BTRACE (self, STREAM, FAILED,
-        ("tensor_filter's core has inconsistent data. Please report to https://github.com/nnstreamer/nnstreamer/issues . The index argeument (%u) of tensors is greater-than or equal-to the number of tensors (%u)",
+        ("tensor_filter's core has inconsistent data. Please report to https://github.com/nnstreamer/nnstreamer/issues . The index argument (%u) of tensors is greater-than or equal-to the number of tensors (%u)",
             index, info->num_tensors));
     return 0;
   }
@@ -564,7 +564,7 @@ gst_tensor_filter_check_throttling_delay (GstBaseTransform * trans,
 }
 
 /**
- * @brief Check input paramters for gst_tensor_filter_transform ();
+ * @brief Check input parameters for gst_tensor_filter_transform ();
  */
 static GstFlowReturn
 _gst_tensor_filter_transform_validate (GstBaseTransform * trans,
@@ -629,7 +629,7 @@ _gst_tensor_filter_transform_validate (GstBaseTransform * trans,
   }
   if (gst_buffer_get_size (outbuf) != 0) {
     GST_ELEMENT_ERROR_BTRACE (self, STREAM, FAILED,
-        ("The output buffer for the isntance of tensor-filter subplugin (%s / %s) already has a content (buffer size = %zu). It should be 0.",
+        ("The output buffer for the instance of tensor-filter subplugin (%s / %s) already has a content (buffer size = %zu). It should be 0.",
             prop->fwname, TF_MODELNAME (prop), gst_buffer_get_size (outbuf)));
     return GST_FLOW_ERROR;
   }
index 081eb3f..52b6cfe 100644 (file)
@@ -72,7 +72,7 @@ struct _GstTensorFilter
 /**
  * @brief GstTensorFilterClass inherits GstBaseTransformClass.
  *
- * Referring another child (sibiling), GstVideoFilter (abstract class) and
+ * Referring another child (sibling), GstVideoFilter (abstract class) and
  * its child (concrete class) GstVideoConverter.
  * Note that GstTensorFilterClass is a concrete class; thus we need to look at both.
  */
index 01b1e12..fa6565d 100644 (file)
@@ -1022,7 +1022,7 @@ gst_tensor_filter_install_properties (GObjectClass * gobject_class)
           FALSE, G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
   g_object_class_install_property (gobject_class, PROP_CONFIG,
       g_param_spec_string ("config-file", "Configuration-file",
-          "Path to configuraion file which contains plugins properties", "",
+          "Path to configuration file which contains plugins properties", "",
           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
 }
 
@@ -1089,11 +1089,11 @@ gst_tensor_filter_common_free_property (GstTensorFilterPrivate * priv)
 
   G_LOCK (shared_model_table);
   if (shared_model_table) {
-    GstTensorFilterSharedModelRepresenatation *rep;
+    GstTensorFilterSharedModelRepresentation *rep;
     GList *value = g_hash_table_get_values (shared_model_table);
 
     while (value) {
-      rep = (GstTensorFilterSharedModelRepresenatation *) value->data;
+      rep = (GstTensorFilterSharedModelRepresentation *) value->data;
       g_list_free (rep->referred_list);
       value = g_list_next (value);
     }
@@ -1396,7 +1396,7 @@ _gtfc_setprop_FRAMEWORK (GstTensorFilterPrivate * priv,
   status = _gtfc_setprop_IS_UPDATABLE (priv, prop, &val);
   g_value_unset (&val);
   if (status != 0) {
-    ml_logw ("Set propery is-updatable failed with error: %d", status);
+    ml_logw ("Set property is-updatable failed with error: %d", status);
     return status;
   }
 
@@ -1407,7 +1407,7 @@ _gtfc_setprop_FRAMEWORK (GstTensorFilterPrivate * priv,
     status = _gtfc_setprop_ACCELERATOR (priv, prop, &val);
     g_value_unset (&val);
     if (status != 0) {
-      ml_logw ("Set propery accelerator failed with error: %d", status);
+      ml_logw ("Set property accelerator failed with error: %d", status);
       return status;
     }
   }
@@ -1799,7 +1799,7 @@ _gtfc_setprop_LATENCY (GstTensorFilterPrivate * priv,
 
   latency_mode = g_value_get_int (value);
   if (latency_mode != 0 && latency_mode != 1) {
-    ml_logw ("Invalid argument, nither 0 (OFF) nor 1 (ON).");
+    ml_logw ("Invalid argument, neither 0 (OFF) nor 1 (ON).");
     return 0;
   }
 
@@ -1821,7 +1821,7 @@ _gtfc_setprop_THROUGHPUT (GstTensorFilterPrivate * priv,
 
   throughput_mode = g_value_get_int (value);
   if (throughput_mode != 0 && throughput_mode != 1) {
-    ml_logw ("Invalid argument, nither 0 (OFF) nor 1 (ON).");
+    ml_logw ("Invalid argument, neither 0 (OFF) nor 1 (ON).");
     return 0;
   }
 
@@ -2854,7 +2854,7 @@ accl_hw_get_type (void)
       {ACCL_AUTO, ACCL_AUTO_STR, ACCL_AUTO_STR},
       {ACCL_CPU, ACCL_CPU_STR, ACCL_CPU_STR},
 #if defined(__aarch64__) || defined(__arm__)
-      /** Retreive NEON_STR when searching for SIMD/NEON on arm architectures */
+      /** Retrieve NEON_STR when searching for SIMD/NEON on arm architectures */
       {ACCL_CPU_NEON, ACCL_CPU_NEON_STR, ACCL_CPU_NEON_STR},
 #endif
       {ACCL_CPU_SIMD, ACCL_CPU_SIMD_STR, ACCL_CPU_SIMD_STR},
@@ -2893,7 +2893,7 @@ gst_tensor_filter_check_hw_availability (const gchar * name, const accl_hw hw,
   const GstTensorFilterFramework *fw;
 
   if (!name) {
-    nns_logw ("Cannot check hw availability, given framwork name is NULL.");
+    nns_logw ("Cannot check hw availability, given framework name is NULL.");
     return FALSE;
   }
   if ((fw = nnstreamer_filter_find (name)) == NULL) {
@@ -2955,7 +2955,7 @@ gst_tensor_filter_check_hw_availability (const gchar * name, const accl_hw hw,
 void *
 nnstreamer_filter_shared_model_get (void *instance, const char *key)
 {
-  GstTensorFilterSharedModelRepresenatation *model_rep = NULL;
+  GstTensorFilterSharedModelRepresentation *model_rep = NULL;
 
   G_LOCK (shared_model_table);
   if (!shared_model_table) {
@@ -2989,7 +2989,7 @@ void *
 nnstreamer_filter_shared_model_insert_and_get (void *instance, char *key,
     void *interpreter)
 {
-  GstTensorFilterSharedModelRepresenatation *model_rep;
+  GstTensorFilterSharedModelRepresentation *model_rep;
 
   /* validate arguments */
   if (!instance) {
@@ -3019,8 +3019,8 @@ nnstreamer_filter_shared_model_insert_and_get (void *instance, char *key,
     interpreter = NULL;
     goto done;
   }
-  model_rep = (GstTensorFilterSharedModelRepresenatation *)
-      g_malloc0 (sizeof (GstTensorFilterSharedModelRepresenatation));
+  model_rep = (GstTensorFilterSharedModelRepresentation *)
+      g_malloc0 (sizeof (GstTensorFilterSharedModelRepresentation));
   model_rep->shared_interpreter = interpreter;
   model_rep->referred_list = g_list_append (model_rep->referred_list, instance);
   g_hash_table_insert (shared_model_table, g_strdup (key),
@@ -3044,7 +3044,7 @@ int
 nnstreamer_filter_shared_model_remove (void *instance, const char *key,
     void (*free_callback) (void *))
 {
-  GstTensorFilterSharedModelRepresenatation *model_rep;
+  GstTensorFilterSharedModelRepresentation *model_rep;
   int ret = FALSE;
 
   /* search the table with key */
@@ -3092,7 +3092,7 @@ nnstreamer_filter_shared_model_replace (void *instance, const char *key,
     void *new_interpreter, void (*replace_callback) (void *, void *),
     void (*free_callback) (void *))
 {
-  GstTensorFilterSharedModelRepresenatation *model_rep;
+  GstTensorFilterSharedModelRepresentation *model_rep;
   GList *itr;
   UNUSED (instance);
 
index 58334ee..53a35b4 100644 (file)
@@ -142,7 +142,7 @@ typedef struct _GstTensorFilterCombination
 typedef struct {
   void *shared_interpreter; /**< the model representation for each sub-plugins */
   GList *referred_list; /**< the referred list about the instances sharing the same key */
-} GstTensorFilterSharedModelRepresenatation;
+} GstTensorFilterSharedModelRepresentation;
 
 /**
  * @brief Structure definition for common tensor-filter properties.
index 5706d06..8be152a 100644 (file)
@@ -238,7 +238,7 @@ g_tensor_filter_allocate_in_invoke (GTensorFilterSingle * self)
 }
 
 /**
- * @brief Called when the element starts processing, if fw not laoded
+ * @brief Called when the element starts processing, if fw not loaded
  * @param self "this" pointer
  * @return TRUE if there is no error.
  */
index 3078304..1fa79ca 100644 (file)
@@ -4,7 +4,7 @@ LOCAL_PATH := $(call my-dir)
 # This configuration file is to compile a test application
 # using Gstreamer + NNstreamer library.
 #
-# Step1: Build a test appliation based on nnstreamer for Android platform
+# Step1: Build a test application based on nnstreamer for Android platform
 # ndk-build NDK_PROJECT_PATH=. APP_BUILD_SCRIPT=./Android-app.mk NDK_APPLICATION_MK=./Application.mk -j$(nproc)
 #
 # Step2: Install a test application into Android target device
index 1a0facb..cbc547f 100644 (file)
@@ -56,5 +56,5 @@ adb shell
 android# cd /data
 android# tar xvf *.tar
 android# cd /data/nnstreamer
-android# {your_nnstreamer_applicaiton}
+android# {your_nnstreamer_application}
 ```
index 1a345ba..c6fa4c0 100755 (executable)
@@ -14,7 +14,7 @@ if [ ! -d "tensorflow-${VERSION}" ]; then
 fi
 
 if [ ! -d "tensorflow-${VERSION}/tensorflow/contrib/lite/downloads" ]; then
-#Download Dependencys
+#Download Dependencies
     pushd "tensorflow-${VERSION}"
     echo "[TENSORFLOW-LITE] Download external libraries of tensorflow-${VERSION}\n"
     sed -i "s|flatbuffers/archive/master.zip|flatbuffers/archive/v1.8.0.zip|g" tensorflow/contrib/lite/download_dependencies.sh
index 527224e..2fbc2f5 100644 (file)
@@ -88,7 +88,7 @@ foreach extra_arg : warning_c_flags
   endif
 endforeach
 
-gst_api_verision = '1.0'
+gst_api_version = '1.0'
 
 # Set install path
 nnstreamer_prefix = get_option('prefix')
@@ -99,7 +99,7 @@ nnstreamer_inidir = join_paths(nnstreamer_prefix, get_option('sysconfdir'))
 # join_paths drops first arg if second arg is absolute path.
 
 # nnstreamer plugins path
-plugins_install_dir = join_paths(nnstreamer_libdir, 'gstreamer-' + gst_api_verision)
+plugins_install_dir = join_paths(nnstreamer_libdir, 'gstreamer-' + gst_api_version)
 
 # nnstreamer sub-plugins path
 if get_option('subplugindir') == ''
@@ -142,13 +142,13 @@ endif
 gobject_dep = dependency('gobject-2.0')
 gmodule_dep = dependency('gmodule-2.0')
 gio_dep = dependency('gio-2.0')
-gst_dep = dependency('gstreamer-' + gst_api_verision)
-gst_base_dep = dependency('gstreamer-base-' + gst_api_verision)
-gst_controller_dep = dependency('gstreamer-controller-' + gst_api_verision)
-gst_video_dep = dependency('gstreamer-video-' + gst_api_verision)
-gst_audio_dep = dependency('gstreamer-audio-' + gst_api_verision)
-gst_app_dep = dependency('gstreamer-app-' + gst_api_verision)
-gst_check_dep = dependency('gstreamer-check-' + gst_api_verision)
+gst_dep = dependency('gstreamer-' + gst_api_version)
+gst_base_dep = dependency('gstreamer-base-' + gst_api_version)
+gst_controller_dep = dependency('gstreamer-controller-' + gst_api_version)
+gst_video_dep = dependency('gstreamer-video-' + gst_api_version)
+gst_audio_dep = dependency('gstreamer-audio-' + gst_api_version)
+gst_app_dep = dependency('gstreamer-app-' + gst_api_version)
+gst_check_dep = dependency('gstreamer-check-' + gst_api_version)
 
 libm_dep = cc.find_library('m') # cmath library
 libdl_dep = cc.find_library('dl') # DL library
@@ -743,7 +743,7 @@ if get_option('enable-float16')
 
     if (has_avx512fp16)
       add_project_arguments(['-mavx512fp16'], language: ['c', 'cpp'])
-      message ('Float16 for x86_64 enabled. Modern gcc-x64 genrally supports float16 with _Float16. -mavx512fp16 added for hardware acceleration')
+      message ('Float16 for x86_64 enabled. Modern gcc-x64 generally supports float16 with _Float16. -mavx512fp16 added for hardware acceleration')
     else
       warning ('Float16 for x86_64 enabled. However, software emulation is applied for fp16, making it slower and inconsistent. Use GCC 12+ for AVX512 FP16 support. This build will probably fail unless you bring a compiler that supports fp16 for x64.')
     endif
@@ -759,7 +759,7 @@ if not cc.has_header('execinfo.h')
 endif
 
 # See if src-iio can be built or not
-gst18_dep = dependency('gstreamer-' + gst_api_verision, version : '>=1.8', required : false)
+gst18_dep = dependency('gstreamer-' + gst_api_version, version : '>=1.8', required : false)
 tensor_src_iio_build = false
 if gst18_dep.found() and build_platform != 'macos'
   add_project_arguments('-D_ENABLE_SRC_IIO', language: ['c', 'cpp'])
index 5fe1d27..709743d 100644 (file)
@@ -1042,9 +1042,9 @@ TEST (commonTensorsConfig, validateInvalidParam2_n)
 }
 
 /**
- * @brief Test for getting config from strucrure with invalid param.
+ * @brief Test for getting config from structure with invalid param.
  */
-TEST (commonTensorsConfig, fromStructreInvalidParam0_n)
+TEST (commonTensorsConfig, fromStructureInvalidParam0_n)
 {
   GstStructure structure = { 0 };
 
@@ -1052,9 +1052,9 @@ TEST (commonTensorsConfig, fromStructreInvalidParam0_n)
 }
 
 /**
- * @brief Test for getting config from strucrure with invalid param.
+ * @brief Test for getting config from structure with invalid param.
  */
-TEST (commonTensorsConfig, fromStructreInvalidParam1_n)
+TEST (commonTensorsConfig, fromStructureInvalidParam1_n)
 {
   GstTensorsConfig conf;
   gst_tensors_config_init (&conf);
index f44103a..7c70643 100644 (file)
@@ -15,7 +15,7 @@
 
 static char *path_to_lib = NULL;
 
-/** @brief Positive case for the simpliest execution path */
+/** @brief Positive case for the simplest execution path */
 TEST (cppFilterOnDemand, basic01)
 {
   filter_basic basic ("basic_01");
@@ -23,7 +23,7 @@ TEST (cppFilterOnDemand, basic01)
   EXPECT_EQ (basic._unregister (), 0);
 }
 
-/** @brief Negative case for the simpliest execution path */
+/** @brief Negative case for the simplest execution path */
 TEST (cppFilterOnDemand, basic02_n)
 {
   filter_basic basic ("basic_02");
@@ -34,7 +34,7 @@ TEST (cppFilterOnDemand, basic02_n)
   EXPECT_NE (basic._unregister (), 0);
 }
 
-/** @brief Negative case for the simpliest execution path w/ static calls */
+/** @brief Negative case for the simplest execution path w/ static calls */
 TEST (cppFilterOnDemand, basic03_n)
 {
   filter_basic basic ("basic_03");
@@ -45,7 +45,7 @@ TEST (cppFilterOnDemand, basic03_n)
   EXPECT_NE (filter_basic::__unregister ("basic_03"), 0);
 }
 
-/** @brief Negative case for the simpliest execution path w/ static calls */
+/** @brief Negative case for the simplest execution path w/ static calls */
 TEST (cppFilterOnDemand, basic04_n)
 {
   filter_basic basic ("basic_04");
@@ -126,8 +126,8 @@ TEST (cppFilterOnDemand, pipeline01)
   EXPECT_EQ (basic._unregister (), 0);
 }
 
-/** @brief Negative case for the simpliest execution path */
-TEST (cppFilterOnDemand, unregstered01_n)
+/** @brief Negative case for the simplest execution path */
+TEST (cppFilterOnDemand, unregistered01_n)
 {
   filter_basic basic ("basic_01");
   gchar *str_pipeline = g_strdup_printf (
index af460af..27823cd 100644 (file)
@@ -39,7 +39,7 @@ class GstMqttTestHelper
   ~GstMqttTestHelper (){};
 
   /**
-   * @brief Initialize this class instead of explcit constuctors
+   * @brief Initialize this class instead of explicit constructors
    */
   void init (void *ctx)
   {
@@ -170,7 +170,7 @@ class GstMqttTestHelper
   }
 
   private:
-  /* Variables for instance mangement */
+  /* Variables for instance management */
   static std::unique_ptr<GstMqttTestHelper> mInstance;
   static std::once_flag mOnceFlag;
 
index ee23344..fdbea37 100644 (file)
@@ -249,7 +249,7 @@ TEST_F (ntpUtilMockTest, getEpochReadFail_n)
 /**
  * @brief Test for ntp util to get epoch.
  */
-TEST_F (ntpUtilMockTest, getEpochIvalidTimestamp)
+TEST_F (ntpUtilMockTest, getEpochInvalidTimestamp)
 {
   int64_t ret;
 
index cc6a67e..be5ddcb 100644 (file)
@@ -82,7 +82,7 @@ if gtest_dep.found()
   test('unittest_common', unittest_common, env: testenv)
 
   # Run unittest_sink
-  gst18_dep = dependency('gstreamer-' + gst_api_verision, version : '>=1.8', required : false)
+  gst18_dep = dependency('gstreamer-' + gst_api_version, version : '>=1.8', required : false)
   if gst18_dep.found()
     unittest_sink = executable('unittest_sink',
       join_paths('nnstreamer_sink', 'unittest_sink.cc'),
index ceeb63a..43b5141 100644 (file)
@@ -254,7 +254,7 @@ free_default_external_converter (NNStreamerExternalConverter *sub)
 /**
  * @brief Test for plugin registration
  */
-TEST (tensorConverter, subpluginNoraml)
+TEST (tensorConverter, subpluginNormal)
 {
   NNStreamerExternalConverter *sub = get_default_external_converter ("mode");
 
@@ -344,14 +344,14 @@ TEST (tensorConverter, subpluginFindInvalidParam_n)
 }
 
 /**
- * @brief Test data for tensor_conveter::flexbuf (dimension 24:1:1:1)
+ * @brief Test data for tensor_converter::flexbuf (dimension 24:1:1:1)
  */
 const gint _test_frames1[24]
     = { 1101, 1102, 1103, 1104, 1105, 1106, 1107, 1108, 1109, 1110, 1111, 1112,
         1113, 1114, 1115, 1116, 1117, 1118, 1119, 1120, 1121, 1122, 1123, 1124 };
 
 /**
- * @brief Test data for tensor_conveter::flexbuf  (dimension 48:1:1:1)
+ * @brief Test data for tensor_converter::flexbuf  (dimension 48:1:1:1)
  */
 const gint _test_frames2[48] = { 1101, 1102, 1103, 1104, 1105, 1106, 1107, 1108,
   1109, 1110, 1111, 1112, 1113, 1114, 1115, 1116, 1117, 1118, 1119, 1120, 1121,
index 6a4178f..a4995d6 100755 (executable)
@@ -39,7 +39,7 @@ fi
 convertBMP2PNG
 
 PATH_TO_PLUGIN="../../build"
-# Check python libraies are built
+# Check python libraries are built
 if [[ -d $PATH_TO_PLUGIN ]]; then
     ini_path="${PATH_TO_PLUGIN}/ext/nnstreamer/tensor_converter"
     if [[ -d ${ini_path} ]]; then
index 7c7ef4e..d89a13b 100644 (file)
@@ -457,7 +457,7 @@ TEST (datareposink, invalidJsonPath0_n)
   /* set invalid param */
   g_object_set (GST_OBJECT (datareposink), "json", NULL, NULL);
 
-  /* state chagne failure is expected */
+  /* state change failure is expected */
   EXPECT_NE (setPipelineStateSync (pipeline, GST_STATE_PLAYING, UNITTEST_STATECHANGE_TIMEOUT), 0);
 
   gst_object_unref (datareposink);
@@ -484,7 +484,7 @@ TEST (datareposink, invalidFilePath0_n)
   /* set invalid param */
   g_object_set (GST_OBJECT (datareposink), "location", NULL, NULL);
 
-  /* state chagne failure is expected */
+  /* state change failure is expected */
   EXPECT_NE (setPipelineStateSync (pipeline, GST_STATE_PLAYING, UNITTEST_STATECHANGE_TIMEOUT), 0);
 
   gst_object_unref (datareposink);
index 219ce71..3e53d4d 100644 (file)
@@ -392,7 +392,7 @@ TEST (datareposrc, invalidJsonPath0_n)
   /* set invalid param */
   g_object_set (GST_OBJECT (datareposrc), "json", NULL, NULL);
 
-  /* state chagne failure is expected */
+  /* state change failure is expected */
   EXPECT_NE (setPipelineStateSync (pipeline, GST_STATE_PLAYING, UNITTEST_STATECHANGE_TIMEOUT), 0);
 
   gst_element_set_state (pipeline, GST_STATE_NULL);
@@ -418,7 +418,7 @@ TEST (datareposrc, invalidJsonPath1_n)
   /* set invalid param */
   g_object_set (GST_OBJECT (datareposrc), "json", "no_search_file", NULL);
 
-  /* state chagne failure is expected */
+  /* state change failure is expected */
   EXPECT_NE (setPipelineStateSync (pipeline, GST_STATE_PLAYING, UNITTEST_STATECHANGE_TIMEOUT), 0);
 
   setPipelineStateSync (pipeline, GST_STATE_NULL, UNITTEST_STATECHANGE_TIMEOUT);
@@ -446,7 +446,7 @@ TEST (datareposrc, invalidFilePath0_n)
   /* set invalid param */
   g_object_set (GST_OBJECT (datareposrc), "location", NULL, NULL);
 
-  /* state chagne failure is expected */
+  /* state change failure is expected */
   EXPECT_NE (setPipelineStateSync (pipeline, GST_STATE_PLAYING, UNITTEST_STATECHANGE_TIMEOUT), 0);
 
   gst_element_set_state (pipeline, GST_STATE_NULL);
@@ -472,7 +472,7 @@ TEST (datareposrc, invalidFilePath1_n)
   /* set invalid param */
   g_object_set (GST_OBJECT (datareposrc), "location", "no_search_file", NULL);
 
-  /* state chagne failure is expected */
+  /* state change failure is expected */
   EXPECT_NE (setPipelineStateSync (pipeline, GST_STATE_PLAYING, UNITTEST_STATECHANGE_TIMEOUT), 0);
 
   gst_element_set_state (pipeline, GST_STATE_NULL);
@@ -498,7 +498,7 @@ TEST (datareposrc, invalidCapsWithoutJSON_n)
   /* set invalid param */
   g_object_set (GST_OBJECT (datareposrc), "caps", NULL, NULL);
 
-  /* state chagne failure is expected */
+  /* state change failure is expected */
   EXPECT_NE (setPipelineStateSync (pipeline, GST_STATE_PLAYING, UNITTEST_STATECHANGE_TIMEOUT), 0);
 
   gst_element_set_state (pipeline, GST_STATE_NULL);
@@ -843,7 +843,7 @@ TEST (datareposrc, invalidStartSampleIndex0_n)
   /* set invalid param */
   g_object_set (GST_OBJECT (datareposrc), "start-sample-index", idx_out_of_range, NULL);
 
-  /* state chagne failure is expected */
+  /* state change failure is expected */
   EXPECT_NE (setPipelineStateSync (pipeline, GST_STATE_PLAYING, UNITTEST_STATECHANGE_TIMEOUT), 0);
 
   gst_element_set_state (pipeline, GST_STATE_NULL);
@@ -906,7 +906,7 @@ TEST (datareposrc, invalidStopSampleIndex0_n)
 
   g_object_set (GST_OBJECT (datareposrc), "stop-sample-index", idx_out_of_range, NULL);
 
-  /* state chagne failure is expected */
+  /* state change failure is expected */
   EXPECT_NE (setPipelineStateSync (pipeline, GST_STATE_PLAYING, UNITTEST_STATECHANGE_TIMEOUT), 0);
 
   gst_element_set_state (pipeline, GST_STATE_NULL);
@@ -1001,7 +1001,7 @@ TEST (datareposrc, invalidEpochs1_n)
   /* set invalid param */
   g_object_set (GST_OBJECT (datareposrc), "epochs", invalid_epochs, NULL);
 
-  /* state chagne failure is expected */
+  /* state change failure is expected */
   EXPECT_NE (setPipelineStateSync (pipeline, GST_STATE_PLAYING, UNITTEST_STATECHANGE_TIMEOUT), 0);
 
   gst_element_set_state (pipeline, GST_STATE_NULL);
@@ -1031,7 +1031,7 @@ TEST (datareposrc, invalidTensorsSequence0_n)
   /* set invalid param */
   g_object_set (GST_OBJECT (datareposrc), "tensors-sequence", "1,0,2", NULL);
 
-  /* state chagne failure is expected */
+  /* state change failure is expected */
   EXPECT_NE (setPipelineStateSync (pipeline, GST_STATE_PLAYING, UNITTEST_STATECHANGE_TIMEOUT), 0);
 
   gst_element_set_state (pipeline, GST_STATE_NULL);
index a750fc3..a5936f7 100644 (file)
@@ -51,7 +51,7 @@ gstTest "--gst-plugin-path=${PATH_TO_PLUGIN} multifilesrc location=\"testsequenc
 callCompareTest testcase2.con.log testcase2.dec.log 2 "Compare for case 2" 0 0
 
 # Expand the unit test coverage
-## Set Property woth option*
+## Set Property with option*
 gstTest "--gst-plugin-path=${PATH_TO_PLUGIN} multifilesrc location=\"testsequence_%1d.png\" index=0 caps=\"image/png,framerate=\(fraction\)30/1\" ! pngdec ! videoconvert ! video/x-raw, format=RGB ! tensor_converter ! tee name=t ! queue ! tensor_decoder mode=direct_video option1=\"nothing\" option2=\"else\" option3=\"matters\" option4=\"whattheheck=is\" option5=\"goingon=idontknow\" option6=\"whydowehave\" option7=\"somany\" option8=\"options\" option9=\"whydontyouguess\" ! filesink location=\"testcase3.dec.log\" sync=true t. ! queue ! filesink location=\"testcase3.con.log\" sync=true" 3 0 0 $PERFORMANCE
 callCompareTest testcase3.con.log testcase3.dec.log 3 "Compare for case 3" 0 0
 
index 973d140..57bcaac 100644 (file)
@@ -232,7 +232,7 @@ free_default_decoder (GstTensorDecoderDef *sub)
 /**
  * @brief Test for plugin registration
  */
-TEST (tensorDecoder, subpluginNoraml)
+TEST (tensorDecoder, subpluginNormal)
 {
   GstTensorDecoderDef *sub = get_default_decoder ("mode");
 
index 00df0fa..5cc9521 100755 (executable)
@@ -39,7 +39,7 @@ fi
 convertBMP2PNG
 
 PATH_TO_PLUGIN="../../build"
-# Check python libraies are built
+# Check python libraries are built
 if [[ -d $PATH_TO_PLUGIN ]]; then
     ini_path="${PATH_TO_PLUGIN}/ext/nnstreamer/tensor_decoder"
     if [[ -d ${ini_path} ]]; then
index 8ad546b..35ae40b 100644 (file)
@@ -120,7 +120,7 @@ _callCompareTest raw5_3_2.log result5_3_2.log 5-9 "Compare 5-9" 1 0
 kill -9 $pid &> /dev/null
 wait $pid
 
-# Sever src cap: Video, Server sink cap: Viedo test
+# Sever src cap: Video, Server sink cap: Video test
 PORT=`python3 ../../get_available_port.py`
 gstTestBackground "--gst-plugin-path=${PATH_TO_PLUGIN} tensor_query_serversrc port=${PORT} ! video/x-raw,width=300,height=300,format=RGB,framerate=0/1 ! tensor_query_serversink async=false" 6-1 1 0 30
 pid=$!
index 46d1044..6a6ba49 100644 (file)
@@ -13,7 +13,7 @@
  * @see  nnstreamer_customfilter_example_scaler_allocator.c
  *
  * This example scales an input tensor of [N][input_h][input_w][M]
- * to an ouput tensor of [N][output_h][output_w][M].
+ * to an output tensor of [N][output_h][output_w][M].
  *
  * The custom property is to be given as, "custom=[new-x]x[new-y]", where new-x
  * and new-y are unsigned integers. E.g., custom=640x480
index 350273c..bb05e18 100644 (file)
@@ -660,7 +660,7 @@ main (int argc, char **argv)
 
     result = RUN_ALL_TESTS ();
   } catch (...) {
-    g_warning ("Catched exception, GTest failed.");
+    g_warning ("Caught exception, GTest failed.");
   }
 
   return result;
index c7d8248..54d00a4 100644 (file)
@@ -20,7 +20,7 @@ fi
 testInit $1
 
 PATH_TO_PLUGIN="../../build"
-# Check lua libraies are built
+# Check lua libraries are built
 if [[ -d $PATH_TO_PLUGIN ]]; then
     ini_path="${PATH_TO_PLUGIN}/ext/nnstreamer/tensor_filter"
     if [[ -d ${ini_path} ]]; then
index fc1ee2b..29ccbc6 100644 (file)
@@ -40,7 +40,7 @@ compareTensorDesc (const struct ncTensorDescriptor_t &tensor1,
 }
 
 /**
- * @brief Default constuctor. Note that explicit invocation of init () is always
+ * @brief Default constructor. Note that explicit invocation of init () is always
  * required after getting the instance.
  */
 NCSDKTensorFilterTestHelper::NCSDKTensorFilterTestHelper ()
index f0a8f08..ba38659 100644 (file)
 
 #include <mutex>
 
-enum _contants {
+enum _constants {
   TENSOR_RANK_LIMIT = 4,
   SUPPORT_MAX_NUMS_DEVICES = 8,
 };
 
-/* Dimension inforamtion of Google LeNet */
+/* Dimension information of Google LeNet */
 enum _google_lenet {
   GOOGLE_LENET_IN_DIM_C = 3,
   GOOGLE_LENET_IN_DIM_W = 224,
@@ -130,7 +130,7 @@ class NCSDKTensorFilterTestHelper
   ncStatus_t ncFifoRemoveElem (struct ncFifoHandle_t *fifoHandle); /* not supported yet */
 
   private:
-  /* Variables for instance mangement */
+  /* Variables for instance management */
   static std::unique_ptr<NCSDKTensorFilterTestHelper> mInstance;
   static std::once_flag mOnceFlag;
 
index ee3a035..07ec90c 100644 (file)
@@ -67,7 +67,7 @@ file_exists (const std::string &name)
   return fhandle.good ();
 }
 
-/** @brief define the data type for NDArray, aliged with the definition in mshadow/base.h */
+/** @brief define the data type for NDArray, aligned with the definition in mshadow/base.h */
 enum TypeFlag {
   kFloat32 = 0,
   kFloat64 = 1,
@@ -155,7 +155,7 @@ Predictor::Predictor (const std::string &model_json_file, const std::string &mod
   }
   // Load the model
   LoadModel (model_json_file);
-  // Initilize the parameters
+  // Initialize the parameters
   LoadParameters (model_params_file);
 
   int dtype = GetDataLayerType ();
@@ -311,7 +311,7 @@ Predictor::LoadParameters (const std::string &model_parameters_file)
 }
 
 /**
- * @brief split loaded param map into arg parm and aux param with target context
+ * @brief split loaded param map into arg param and aux param with target context
  */
 void
 Predictor::SplitParamMap (const std::map<std::string, NDArray> &paramMap,
index 2468988..96811ba 100644 (file)
@@ -994,7 +994,7 @@ TEST (tensorFilterOpenvino, getTensorDim3_n)
 TEST (tensorFilterOpenvino, convertFromIETypeStr0)
 {
   const gchar *root_path = g_getenv ("NNSTREAMER_SOURCE_ROOT_PATH");
-  const std::vector<std::string> ie_suport_type_strs = {
+  const std::vector<std::string> ie_support_type_strs = {
     "I8",
     "I16",
     "I32",
@@ -1032,10 +1032,10 @@ TEST (tensorFilterOpenvino, convertFromIETypeStr0)
   {
     TensorFilterOpenvinoTest tfOvTest (str_test_model.assign (test_model_xml),
         str_test_model.assign (test_model_bin));
-    for (size_t i = 0; i < ie_suport_type_strs.size (); ++i) {
+    for (size_t i = 0; i < ie_support_type_strs.size (); ++i) {
       tensor_type ret_type;
 
-      ret_type = tfOvTest.convertFromIETypeStr (ie_suport_type_strs[i]);
+      ret_type = tfOvTest.convertFromIETypeStr (ie_support_type_strs[i]);
       EXPECT_EQ (ret_type, nns_support_types[i]);
     }
   }
@@ -1050,7 +1050,7 @@ TEST (tensorFilterOpenvino, convertFromIETypeStr0)
 TEST (tensorFilterOpenvino, convertFromIETypeStr0_n)
 {
   const gchar *root_path = g_getenv ("NNSTREAMER_SOURCE_ROOT_PATH");
-  const std::vector<std::string> ie_not_suport_type_strs = {
+  const std::vector<std::string> ie_not_support_type_strs = {
     "F64",
   };
   const std::vector<tensor_type> nns_support_types = {
@@ -1078,9 +1078,9 @@ TEST (tensorFilterOpenvino, convertFromIETypeStr0_n)
   {
     TensorFilterOpenvinoTest tfOvTest (str_test_model.assign (test_model_xml),
         str_test_model.assign (test_model_bin));
-    for (size_t i = 0; i < ie_not_suport_type_strs.size (); ++i) {
+    for (size_t i = 0; i < ie_not_support_type_strs.size (); ++i) {
       tensor_type ret_type;
-      ret_type = tfOvTest.convertFromIETypeStr (ie_not_suport_type_strs[i]);
+      ret_type = tfOvTest.convertFromIETypeStr (ie_not_support_type_strs[i]);
       EXPECT_NE (ret_type, nns_support_types[i]);
     }
   }
@@ -1095,7 +1095,7 @@ TEST (tensorFilterOpenvino, convertFromIETypeStr0_n)
 TEST (tensorFilterOpenvino, convertFromIETypeStr1_n)
 {
   const gchar *root_path = g_getenv ("NNSTREAMER_SOURCE_ROOT_PATH");
-  const std::string ie_suport_type_str ("Q78");
+  const std::string ie_support_type_str ("Q78");
   std::string str_test_model;
   gchar *test_model_xml;
   gchar *test_model_bin;
@@ -1120,7 +1120,7 @@ TEST (tensorFilterOpenvino, convertFromIETypeStr1_n)
         str_test_model.assign (test_model_bin));
     tensor_type ret_type;
 
-    ret_type = tfOvTest.convertFromIETypeStr (ie_suport_type_str);
+    ret_type = tfOvTest.convertFromIETypeStr (ie_support_type_str);
     EXPECT_EQ (_NNS_END, ret_type);
   }
 
index dc5c9db..4cb4456 100755 (executable)
@@ -20,7 +20,7 @@ fi
 testInit $1
 
 PATH_TO_PLUGIN="../../build"
-# Check python libraies are built
+# Check python libraries are built
 if [[ -d $PATH_TO_PLUGIN ]]; then
     ini_path="${PATH_TO_PLUGIN}/ext/nnstreamer/tensor_filter"
     if [[ -d ${ini_path} ]]; then
index 312eb54..0265062 100644 (file)
@@ -181,7 +181,7 @@ stop_loop (GMainLoop * loop)
 }
 
 /**
- * @brief Main function to evalute tensor_filter's model reload functionality
+ * @brief Main function to evaluate tensor_filter's model reload functionality
  * @note feed the same input image to the tensor filter; So, even if a detection model
  * is updated (mobilenet v1 <-> v2), the output should be the same for all frames.
  */
index 31114bc..eb6b2f5 100644 (file)
@@ -345,7 +345,7 @@ TEST_F (NNStreamerFilterTVMTest, invoke02_n)
 
   output.size = input.size = sizeof (float) * 1;
 
-  /* Test: unsucessful invoke */
+  /* Test: unsuccessful invoke */
   ret = sp->invoke (NULL, NULL, NULL, &input, &output);
   EXPECT_NE (ret, 0);
 
index 27340aa..da7c8e3 100644 (file)
@@ -143,7 +143,7 @@ callCompareTest testsynch05_7.golden testsynch06_7.log 17-8 "Compare 17-8" 1 0
 callCompareTest testsynch05_8.golden testsynch06_8.log 17-9 "Compare 17-9" 1 0
 callCompareTest testsynch05_9.golden testsynch06_9.log 17-10 "Compare 17-10" 1 0
 
-# Test Case for sync-option=0 without duration. If it does not set, then it use pts(n+1) - pts(n) as base duration. If there are pts(n-1) and pts(n) avaiable within duration condition, it always take pts(n).
+# Test Case for sync-option=0 without duration. If it does not set, then it use pts(n+1) - pts(n) as base duration. If there are pts(n-1) and pts(n) available within duration condition, it always take pts(n).
 # For this test case, outputs are generated every 1000000000 nsec, and they are [0,0],[1000000000,133333332], [2000000000,2333333332], [3000000000,2999999997]. The reason last one is 2999999997 instead of  3333333332 is EOS of basepad.
 
 gstTest "--gst-plugin-path=${PATH_TO_PLUGIN}  tensor_merge name=merge mode=linear option=2 silent=true sync-mode=basepad sync-option=0 ! multifilesink location=testsynch07_%1d.log multifilesrc location=\"testsequence03_%1d.png\" index=0 caps=\"image/png, framerate=(fraction)10/1\" ! pngdec ! tensor_converter ! merge.sink_0 multifilesrc location=\"testsequence03_%1d.png\" index=0 caps=\"image/png, framerate=(fraction)30/1\" ! pngdec ! tensor_converter ! merge.sink_1" 18 0 0 $PERFORMANCE
index 5eb6289..a4818dd 100644 (file)
   } while (0)
 
 /**
- * @brief Macro for check errorneous pipeline
+ * @brief Macro for check erroneous pipeline
  */
 #define TEST_TENSOR_FILTER_AUTO_OPTION_N(gstpipe, fw_name)                  \
   do {                                                                      \
@@ -5673,7 +5673,7 @@ TEST_REQUIRE_TFLITE (testTensorFilter, reloadTFliteSameModelWrongDims_n)
 }
 
 /**
- * @brief Test framework auto detecion option in tensor-filter.
+ * @brief Test framework auto detection option in tensor-filter.
  */
 TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoExtTFlite01)
 {
@@ -5694,7 +5694,7 @@ TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoExtTFlite01)
 }
 
 /**
- * @brief Test framework auto detecion option in tensor-filter.
+ * @brief Test framework auto detection option in tensor-filter.
  * @details The order of tensor filter options has changed.
  */
 TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoExtTFlite02)
@@ -5716,7 +5716,7 @@ TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoExtTFlite02)
 }
 
 /**
- * @brief Test framework auto detecion option in tensor-filter.
+ * @brief Test framework auto detection option in tensor-filter.
  * @details Test if options are insensitive to the case
  */
 TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoExtTFlite03)
@@ -5738,7 +5738,7 @@ TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoExtTFlite03)
 }
 
 /**
- * @brief Test framework auto detecion option in tensor-filter.
+ * @brief Test framework auto detection option in tensor-filter.
  * @details Negative case when model file does not exist
  */
 TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoExtTFliteModelNotFound_n)
@@ -5767,7 +5767,7 @@ TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoExtTFliteModelNotFound_n)
 }
 
 /**
- * @brief Test framework auto detecion option in tensor-filter.
+ * @brief Test framework auto detection option in tensor-filter.
  * @details Negative case with not supported extension
  */
 TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoExtTFliteNotSupportedExt_n)
@@ -5790,7 +5790,7 @@ TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoExtTFliteNotSupportedExt_n)
 }
 
 /**
- * @brief Test framework auto detecion option in tensor-filter.
+ * @brief Test framework auto detection option in tensor-filter.
  * @details Negative case when permission of model file is not given.
  */
 TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoExtTFliteNoPermission_n)
@@ -5825,7 +5825,7 @@ TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoExtTFliteNoPermission_n)
 }
 
 /**
- * @brief Test framework auto detecion option in tensor-filter.
+ * @brief Test framework auto detection option in tensor-filter.
  * @details Negative case with invalid framework name
  */
 TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoExtTFliteInvalidFWName_n)
@@ -5848,7 +5848,7 @@ TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoExtTFliteInvalidFWName_n)
 }
 
 /**
- * @brief Test framework auto detecion option in tensor-filter.
+ * @brief Test framework auto detection option in tensor-filter.
  * @details Negative case with invalid dimension of tensor filter
  */
 TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoExtTFliteWrongDimension_n)
@@ -5871,7 +5871,7 @@ TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoExtTFliteWrongDimension_n)
 }
 
 /**
- * @brief Test framework auto detecion option in tensor-filter.
+ * @brief Test framework auto detection option in tensor-filter.
  * @details Negative case with invalid input type of tensor filter
  */
 TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoExtTFliteWrongInputType_n)
@@ -5894,7 +5894,7 @@ TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoExtTFliteWrongInputType_n)
 }
 
 /**
- * @brief Test framework auto detecion without specifying the option in tensor-filter.
+ * @brief Test framework auto detection without specifying the option in tensor-filter.
  */
 TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoNoFw)
 {
@@ -5915,7 +5915,7 @@ TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoNoFw)
 }
 
 /**
- * @brief Test framework auto detecion option in tensor-filter.
+ * @brief Test framework auto detection option in tensor-filter.
  * @details Negative case when model file does not exist
  */
 TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoNoFwModelNotFound_n)
@@ -5944,7 +5944,7 @@ TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoNoFwModelNotFound_n)
 }
 
 /**
- * @brief Test framework auto detecion without specifying the option in tensor-filter.
+ * @brief Test framework auto detection without specifying the option in tensor-filter.
  * @details Negative case with not supported extension
  */
 TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoNoFwNotSupportedExt_n)
@@ -5967,7 +5967,7 @@ TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoNoFwNotSupportedExt_n)
 }
 
 /**
- * @brief Test framework auto detecion without specifying the option in tensor-filter.
+ * @brief Test framework auto detection without specifying the option in tensor-filter.
  * @details Negative case when permission of model file is not given.
  */
 TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoNoFwNoPermission_n)
@@ -6004,7 +6004,7 @@ TEST_REQUIRE_TFLITE (testTensorFilter, frameworkAutoNoFwNoPermission_n)
 #if !defined(ENABLE_TENSORFLOW_LITE) && !defined(ENABLE_TENSORFLOW2_LITE) \
     && defined(ENABLE_NNFW_RUNTIME)
 /**
- * @brief Test framework auto detecion option in tensor-filter.
+ * @brief Test framework auto detection option in tensor-filter.
  * @details Check if nnfw (second priority) is detected automatically
  */
 TEST (testTensorFilter, frameworkAutoExtTfliteNnfw04)
@@ -6026,7 +6026,7 @@ TEST (testTensorFilter, frameworkAutoExtTfliteNnfw04)
 }
 
 /**
- * @brief Test framework auto detecion without specifying the option in tensor-filter.
+ * @brief Test framework auto detection without specifying the option in tensor-filter.
  * @details Check if nnfw (second priority) is detected automatically
  */
 TEST (testTensorFilter, frameworkAutoWoOptExtTfliteNnfw)
@@ -6051,7 +6051,7 @@ TEST (testTensorFilter, frameworkAutoWoOptExtTfliteNnfw)
 
 #ifdef ENABLE_TENSORFLOW
 /**
- * @brief Test framework auto detecion option in tensor-filter.
+ * @brief Test framework auto detection option in tensor-filter.
  * @details Check if tensoflow is detected automatically
  */
 TEST (testTensorFilter, frameworkAutoExtPb01)
@@ -6083,7 +6083,7 @@ TEST (testTensorFilter, frameworkAutoExtPb01)
 }
 
 /**
- * @brief Test framework auto detecion without specifying the option in tensor-filter.
+ * @brief Test framework auto detection without specifying the option in tensor-filter.
  * @details Check if tensoflow is detected automatically
  */
 TEST (testTensorFilter, frameworkAutoWoOptExtPb)
@@ -6115,7 +6115,7 @@ TEST (testTensorFilter, frameworkAutoWoOptExtPb)
 }
 #else
 /**
- * @brief Test framework auto detecion option in tensor-filter.
+ * @brief Test framework auto detection option in tensor-filter.
  * @details Negative case whtn tensorflow is not enabled
  */
 TEST (testTensorFilter, frameworkAutoExtPbTfDisabled_n)
@@ -6148,7 +6148,7 @@ TEST (testTensorFilter, frameworkAutoExtPbTfDisabled_n)
 }
 
 /**
- * @brief Test framework auto detecion without specifying the option in tensor-filter.
+ * @brief Test framework auto detection without specifying the option in tensor-filter.
  * @details Negative case whtn tensorflow is not enabled
  */
 TEST (testTensorFilter, frameworkAutoWoOptExtPbTfDisabled_n)
@@ -6183,7 +6183,7 @@ TEST (testTensorFilter, frameworkAutoWoOptExtPbTfDisabled_n)
 
 #ifdef ENABLE_CAFFE2
 /**
- * @brief Test framework auto detecion option in tensor-filter.
+ * @brief Test framework auto detection option in tensor-filter.
  * @details Check if caffe2 is detected automatically
  */
 TEST (testTensorFilter, frameworkAutoExtPb03)
@@ -6220,7 +6220,7 @@ TEST (testTensorFilter, frameworkAutoExtPb03)
 
 #else
 /**
- * @brief Test framework auto detecion option in tensor-filter.
+ * @brief Test framework auto detection option in tensor-filter.
  * @details Check if caffe2 is not enabled
  */
 TEST (testTensorFilter, frameworkAutoExtPbCaffe2Disabled_n)
@@ -6259,7 +6259,7 @@ TEST (testTensorFilter, frameworkAutoExtPbCaffe2Disabled_n)
 
 #ifdef ENABLE_PYTORCH
 /**
- * @brief Test framework auto detecion option in tensor-filter.
+ * @brief Test framework auto detection option in tensor-filter.
  * @details Check if pytorch is detected automatically
  */
 TEST (testTensorFilter, frameworkAutoExtPt01)
@@ -6291,7 +6291,7 @@ TEST (testTensorFilter, frameworkAutoExtPt01)
 }
 
 /**
- * @brief Test framework auto detecion without specifying the option in tensor-filter.
+ * @brief Test framework auto detection without specifying the option in tensor-filter.
  * @details Check if pytorch is detected automatically
  */
 TEST (testTensorFilter, frameworkAutoWoOptExtPt01)
@@ -6325,7 +6325,7 @@ TEST (testTensorFilter, frameworkAutoWoOptExtPt01)
 
 #else
 /**
- * @brief Test framework auto detecion option in tensor-filter.
+ * @brief Test framework auto detection option in tensor-filter.
  * @details Check if pytorch is not enabled
  */
 TEST (testTensorFilter, frameworkAutoExtPtPytorchDisabled_n)
@@ -6359,7 +6359,7 @@ TEST (testTensorFilter, frameworkAutoExtPtPytorchDisabled_n)
 }
 
 /**
- * @brief Test framework auto detecion without specifying the option in tensor-filter.
+ * @brief Test framework auto detection without specifying the option in tensor-filter.
  * @details Check if pytorch is not enabled
  */
 TEST (testTensorFilter, frameworkAutoWoOptExtPtPytorchDisabled_n)
index bedd36b..1d84f5f 100644 (file)
@@ -267,7 +267,7 @@ TEST_F (NNSRateTest, setProperty)
 /**
  * @brief Test tensor_rate set property stats (negative)
  */
-TEST_F (NNSRateTest, setProperyStats_n)
+TEST_F (NNSRateTest, setPropertyStats_n)
 {
   guint64 in, out, dup, drop;
 
@@ -294,9 +294,9 @@ TEST_F (NNSRateTest, setProperyStats_n)
 }
 
 /**
- * @brief Test tensor_rate set invalide framerate (negative)
+ * @brief Test tensor_rate set invalid framerate (negative)
  */
-TEST_F (NNSRateTest, setProperyInvalidFramerate_n)
+TEST_F (NNSRateTest, setPropertyInvalidFramerate_n)
 {
   gchar *framerate;
 
index b22ca05..d7f6155 100644 (file)
@@ -91,7 +91,7 @@ switch_slot_index (GstElement * tensor_repo)
 
 
 /**
- * @brief Main function to evalute tensor_repo dynamicity
+ * @brief Main function to evaluate tensor_repo dynamicity
  */
 int
 main (int argc, char *argv[])
index 37a6db1..61446b1 100644 (file)
@@ -143,7 +143,7 @@ typedef enum {
   TEST_TYPE_ISSUE739_MERGE_PARALLEL_4, /**< pipeline to test Merge/Parallel case in #739 */
   TEST_TYPE_DECODER_PROPERTY, /**< pipeline to test get/set_property of decoder */
   TEST_CUSTOM_EASY_ICF_01, /**< pipeline to test easy-custom in code func */
-  TEST_TYPE_UNKNOWN /**< unknonwn */
+  TEST_TYPE_UNKNOWN /**< unknown */
 } TestType;
 
 /**
@@ -952,28 +952,28 @@ _setup_pipeline (TestOption &option)
           option.num_buffers, option.num_buffers, option.num_buffers);
       break;
     case TEST_TYPE_TENSOR_CAP_1:
-      /** other/tensor out, caps are specifed*/
+      /** other/tensor out, caps are specified*/
       str_pipeline = g_strdup_printf (
           "videotestsrc num-buffers=%d ! videoconvert ! video/x-raw,width=160,height=120,format=RGB,framerate=(fraction)%lu/1 ! "
           "tensor_converter ! other/tensor,format=static ! tensor_sink name=test_sink async=false",
           option.num_buffers, fps);
       break;
     case TEST_TYPE_TENSOR_CAP_2:
-      /** other/tensor out, caps are not specifed (other/tensor or other/tensors) */
+      /** other/tensor out, caps are not specified (other/tensor or other/tensors) */
       str_pipeline = g_strdup_printf (
           "videotestsrc num-buffers=%d ! videoconvert ! video/x-raw,width=160,height=120,format=RGB,framerate=(fraction)%lu/1 ! "
           "tensor_converter ! tensor_sink name=test_sink async=false",
           option.num_buffers, fps);
       break;
     case TEST_TYPE_TENSORS_CAP_1:
-      /** other/tensors, caps are specifed (num_tensors is 1) */
+      /** other/tensors, caps are specified (num_tensors is 1) */
       str_pipeline = g_strdup_printf (
           "videotestsrc num-buffers=%d ! videoconvert ! video/x-raw,width=160,height=120,format=RGB,framerate=(fraction)%lu/1 ! "
           "tensor_converter ! other/tensors,format=static ! tensor_sink name=test_sink async=false",
           option.num_buffers, fps);
       break;
     case TEST_TYPE_TENSORS_CAP_2:
-      /** other/tensors, caps are not specifed (num_tensors is 3) */
+      /** other/tensors, caps are not specified (num_tensors is 3) */
       str_pipeline = g_strdup_printf (
           "tensor_mux name=mux ! tensor_sink name=test_sink "
           "videotestsrc num-buffers=%d ! video/x-raw,width=160,height=120,format=RGB,framerate=(fraction)30/1 ! tensor_converter ! mux.sink_0 "
index 73d5ae3..2ffa61b 100644 (file)
@@ -53,7 +53,7 @@ get_file_path (const gchar *filename)
  * num-validation-samples: num-validation-samples, A sample can consist of
  * multiple inputs and labels in tensors(in case of MNIST, all is 1), set how
  * many samples are taken for validation model. epochs : epochs are repetitions
- * of training samples and validation smaples. number of samples received for
+ * of training samples and validation samples. number of samples received for
  * model training is (num-training-samples + num-validation-samples) * epochs
  */
 TEST (tensor_trainer, SetParams)
@@ -166,7 +166,7 @@ TEST (tensor_trainer, invalidFramework0_n)
   /* set invalid param */
   g_object_set (GST_OBJECT (tensor_trainer), "framework", NULL, NULL);
 
-  /* state chagne failure is expected */
+  /* state change failure is expected */
   EXPECT_NE (setPipelineStateSync (pipeline, GST_STATE_PLAYING, UNITTEST_STATECHANGE_TIMEOUT), 0);
 
   gst_object_unref (GST_OBJECT (tensor_trainer));
@@ -209,7 +209,7 @@ TEST (tensor_trainer, invalidFramework1_n)
   /* set invalid param */
   g_object_set (GST_OBJECT (tensor_trainer), "framework", "no_framework", NULL);
 
-  /* state chagne failure is expected */
+  /* state change failure is expected */
   EXPECT_NE (setPipelineStateSync (pipeline, GST_STATE_PLAYING, UNITTEST_STATECHANGE_TIMEOUT), 0);
 
   gst_object_unref (GST_OBJECT (tensor_trainer));
@@ -248,7 +248,7 @@ TEST (tensor_trainer, invalidModelConfig0_n)
   /* set invalid param */
   g_object_set (GST_OBJECT (tensor_trainer), "model-config", NULL, NULL);
 
-  /* state chagne failure is expected */
+  /* state change failure is expected */
   EXPECT_NE (setPipelineStateSync (pipeline, GST_STATE_PLAYING, UNITTEST_STATECHANGE_TIMEOUT), 0);
 
   gst_object_unref (GST_OBJECT (tensor_trainer));
@@ -289,7 +289,7 @@ TEST (tensor_trainer, invalidModelConfig1_n)
   /* set invalid param */
   g_object_set (GST_OBJECT (tensor_trainer), "model-config", non_existent_path, NULL);
 
-  /* state chagne failure is expected */
+  /* state change failure is expected */
   EXPECT_NE (setPipelineStateSync (pipeline, GST_STATE_PLAYING, UNITTEST_STATECHANGE_TIMEOUT), 0);
 
   g_free (non_existent_path);
@@ -332,7 +332,7 @@ TEST (tensor_trainer, invalidModelSavePath0_n)
   /* set invalid param */
   g_object_set (GST_OBJECT (tensor_trainer), "model-save-path", NULL, NULL);
 
-  /* state chagne failure is expected */
+  /* state change failure is expected */
   EXPECT_NE (setPipelineStateSync (pipeline, GST_STATE_PLAYING, UNITTEST_STATECHANGE_TIMEOUT), 0);
 
   gst_object_unref (GST_OBJECT (tensor_trainer));
@@ -378,7 +378,7 @@ TEST (tensor_trainer, invalidModelNumTrainingSamples0_n)
   /** value "-1" is out of range for property 'num-training-samples' of type
      'guint' default value is set */
   g_object_get (GST_OBJECT (tensor_trainer), "num-training-samples", &get_value, NULL);
-  /* state chagne failure is expected */
+  /* state change failure is expected */
   EXPECT_EQ (get_value, 0U);
 
   gst_object_unref (GST_OBJECT (tensor_trainer));
@@ -424,7 +424,7 @@ TEST (tensor_trainer, invalidModelNumValidationSamples0_n)
   /** value "-1" is out of range for property 'num-validation-samples' of type
      'guint' default value is set */
   g_object_get (GST_OBJECT (tensor_trainer), "num-validation-samples", &get_value, NULL);
-  /* state chagne failure is expected */
+  /* state change failure is expected */
   EXPECT_EQ (get_value, 0U);
 
   gst_object_unref (GST_OBJECT (tensor_trainer));
@@ -470,7 +470,7 @@ TEST (tensor_trainer, invalidEpochs0_n)
   /** value "-1" is out of range for property 'epochs' of type 'guint'
      default value is set */
   g_object_get (GST_OBJECT (tensor_trainer), "epochs", &get_value, NULL);
-  /* state chagne failure is expected */
+  /* state change failure is expected */
   EXPECT_EQ (get_value, 1U);
 
   gst_object_unref (GST_OBJECT (tensor_trainer));
@@ -516,7 +516,7 @@ TEST (tensor_trainer, invalidNumInputs0_n)
   /** value "-1" is out of range for property 'num-inputs' of type 'guint'
      default value is set */
   g_object_get (GST_OBJECT (tensor_trainer), "num-inputs", &get_value, NULL);
-  /* state chagne failure is expected */
+  /* state change failure is expected */
   EXPECT_EQ (get_value, 1U);
 
   gst_object_unref (GST_OBJECT (tensor_trainer));
@@ -562,7 +562,7 @@ TEST (tensor_trainer, invalidNumLabels0_n)
   /** value "-1" of type 'gint64' is invalid or out of range for property
      'num-labels' of type 'guint' default value is set */
   g_object_get (GST_OBJECT (tensor_trainer), "num-labels", &get_value, NULL);
-  /* state chagne failure is expected */
+  /* state change failure is expected */
   EXPECT_EQ (get_value, 1U);
 
   gst_object_unref (GST_OBJECT (tensor_trainer));
index ed69163..a1fbc06 100644 (file)
@@ -45,16 +45,16 @@ bool ml_agent_mock_add_model (const gchar *name, const gchar *path, const gchar
 
 /**
  * @brief C-wrapper for the MockModel's method get_model.
- * @param[in] name The model's name to retreive
- * @param[in] version The model's version to retreive
+ * @param[in] name The model's name to retrieve
+ * @param[in] version The model's version to retrieve
  * @return A pointer to the model matching the given information. If there is no model possible, NULL is returned.
  */
 MockModel *ml_agent_mock_get_model (const gchar *name, const guint version);
 
 /**
  * @brief Pass the JSON c-string generated by the ML Agent mock class to the caller.
- * @param[in] name The model's name to retreive
- * @param[in] version The model's version to retreive
+ * @param[in] name The model's name to retrieve
+ * @param[in] version The model's version to retrieve
  * @param[out] description The JSON c-string, containing the information of the model matching the given name and version
  * @param[out] err The return location for a recoverable error. This can be NULL.
  * @return 0 if there is a matching model to the given name and version otherwise a negative integer
index 9a0ba8d..9e87ca0 100644 (file)
@@ -66,7 +66,7 @@ class Pipeline:
         self.sinks = []
 
     ##
-    # @brief add a filter instnace
+    # @brief add a filter instance
     def addFilter(self, _filter):
         self.filters[_filter.name] = _filter
 
index 2b329cc..34f5832 100644 (file)
@@ -3,7 +3,7 @@ if get_option('enable-nnstreamer-check')
   subdir('confchk')
 endif
 
-# Gst/NNS string pipeline desciption <--> pbtxt pipeline description
+# Gst/NNS string pipeline description <--> pbtxt pipeline description
 # for pbtxt pipeline WYSIWYG tools.
 if get_option('enable-pbtxt-converter')
   if (build_platform == 'macos')
index 33e36e8..0416d7f 100644 (file)
@@ -230,7 +230,7 @@ invoke_allocate = """
  * @param[out] output The output tensors.
  * @return 0 if success. Non-zero if failed
  *
- * @note The intput / output dimensions, required for interpreting input/output
+ * @note The input / output dimensions, required for interpreting input/output
  *       pointers, are stored in prop.
  */
 static int
index d64d013..5696175 100644 (file)
@@ -96,7 +96,7 @@ main (int argc, char *argv[])
   _Element *pipeline;
 
   context =
-      g_option_context_new ("- Prototxt to/from GStreamer Pipeline Converver");
+      g_option_context_new ("- Prototxt to/from GStreamer Pipeline Converter");
   g_option_context_add_main_entries (context, entries, NULL);
   if (!g_option_context_parse (context, &argc, &argv, &error)) {
     g_printerr ("Option parsing failed: %s\n", error->message);
index e6fbcd1..ca2c5d5 100644 (file)
@@ -143,11 +143,11 @@ extern _Element *
 nnstparser_element_from_uri (const _URIType type, const gchar *uri,
     const gchar * elementname, void **error);
 
-/** @brief gst_object_unref for psuedo element */
+/** @brief gst_object_unref for pseudo element */
 extern _Element *
 nnstparser_element_unref (_Element * element);
 
-/** @brief gst_object_ref for psuedo element */
+/** @brief gst_object_ref for pseudo element */
 extern _Element *
 nnstparser_element_ref (_Element * element);
 
index d49a16e..f582d82 100644 (file)
@@ -209,8 +209,8 @@ $ hawktracer-to-json --source file_name.htdump --output output_file.json
 
 #### Analyzing the data
 * First of all, install google-chrome (or chromium-brwser) in you own PC. 
-* Open **chrome://tracing/ webapge after running the browser.
-* Click load buttong. Then, open  file output_file.json
+* Open **chrome://tracing/ webpage after running the browser.
+* Click load button. Then, open  file output_file.json
 * You should see a callstack with timing
 
 <img src=hawktracer-chrome-tracing-out.png border=0></img>
index 0f5e8de..6ac8101 100644 (file)
@@ -160,7 +160,7 @@ $ GST_DEBUG="GST_TRACER:7" GST_TRACERS="buffer" gst-launch-1.0 videotestsrc ! fa
 
 #### gstshark-plot (Experimental/Unstable)
 gstshark-plot is a set of [Octave](https://www.gnu.org/software/octave/) scripts included with GstShark. The gstshark-plot scripts are located in scripts/graphics directory, inside the repository. The main script that processes the data is the gstshark-plot script. Currently, the scripts need to be run on this directory, but on upcoming releases the scripts will be accessible from any path. Make sure the GST_SHARK_CTF_DISABLE environment variable is unset, to enable the generation of the full traces.
-Note that you have to run "unset GST_SHARK_LOCATION" statement in order to archive output date into CTF (Commen Trace Format, ./gstshark_yyyy-mm-dd_hh:mm:ss/) folder.
+Note that you have to run "unset GST_SHARK_LOCATION" statement in order to archive output date into CTF (Common Trace Format, ./gstshark_yyyy-mm-dd_hh:mm:ss/) folder.
 * CTF (Common Trace Format) file: Directory with date and time with the traces of the latest session. 
 ```bash
 $ unset GST_SHARK_LOCATION