doc: fix misused "see also" doxygen command
authorAlexander Alekhin <alexander.a.alekhin@gmail.com>
Sat, 21 Mar 2020 00:25:49 +0000 (00:25 +0000)
committerAlexander Alekhin <alexander.a.alekhin@gmail.com>
Sat, 21 Mar 2020 00:25:49 +0000 (00:25 +0000)
doc/js_tutorials/js_gui/js_image_display/js_image_display.markdown
doc/py_tutorials/py_calib3d/py_calibration/py_calibration.markdown
doc/py_tutorials/py_gui/py_image_display/py_image_display.markdown
doc/py_tutorials/py_imgproc/py_contours/py_contours_more_functions/py_contours_more_functions.markdown
doc/py_tutorials/py_imgproc/py_histograms/py_histogram_begins/py_histogram_begins.markdown
doc/tutorials/ml/introduction_to_svm/introduction_to_svm.markdown
doc/tutorials/videoio/video-input-psnr-ssim/video_input_psnr_ssim.markdown
modules/cudaoptflow/include/opencv2/cudaoptflow.hpp
modules/videoio/include/opencv2/videoio.hpp

index efe65e320e2aeea8ae7b2752804f01a03cb6dc21..9ad4ce2e5348a4ec0f01c0380ea188b545b849d5 100644 (file)
@@ -13,7 +13,7 @@ OpenCV.js saves images as cv.Mat type. We use HTML canvas element to transfer cv
 or in reverse. The ImageData interface can represent or set the underlying pixel data of an area of a
 canvas element.
 
-@sa Please refer to canvas docs for more details.
+@note Please refer to canvas docs for more details.
 
 First, create an ImageData obj from canvas:
 @code{.js}
index f56e6390056fb499c65ec846574318e1994acda2..e337999efd32ab54561d7bd7f69d9a3d4e7ef047 100644 (file)
@@ -83,7 +83,7 @@ use 7x6 grid. (Normally a chess board has 8x8 squares and 7x7 internal corners).
 corner points and retval which will be True if pattern is obtained. These corners will be placed in
 an order (from left-to-right, top-to-bottom)
 
-@sa This function may not be able to find the required pattern in all the images. So, one good option
+@note This function may not be able to find the required pattern in all the images. So, one good option
 is to write the code such that, it starts the camera and check each frame for required pattern. Once
 the pattern is obtained, find the corners and store it in a list. Also, provide some interval before
 reading next frame so that we can adjust our chess board in different direction. Continue this
@@ -91,7 +91,7 @@ process until the required number of good patterns are obtained. Even in the exa
 are not sure how many images out of the 14 given are good.  Thus, we must read all the images and take only the good
 ones.
 
-@sa Instead of chess board, we can alternatively use a circular grid.  In this case, we must use the function
+@note Instead of chess board, we can alternatively use a circular grid.  In this case, we must use the function
 **cv.findCirclesGrid()** to find the pattern. Fewer images are sufficient to perform camera calibration using a circular grid.
 
 Once we find the corners, we can increase their accuracy using **cv.cornerSubPix()**. We can also
index 8b8cae0e738b2a0733ad4e756acf3e791c8fcb1a..edb957bd95b6950b39d364f04d309667b6d3efa0 100644 (file)
@@ -132,7 +132,7 @@ A screen-shot of the window will look like this :
 
 ![image](images/matplotlib_screenshot.jpg)
 
-@sa Plenty of plotting options are available in Matplotlib. Please refer to Matplotlib docs for more
+@note Plenty of plotting options are available in Matplotlib. Please refer to Matplotlib docs for more
 details. Some, we will see on the way.
 
 __warning__
index 378099a9319fc5f0e2de9376d775a8c7d65b3a8d..fb5f59bef6619b9cfbb14c10cab75dc2066610ce 100644 (file)
@@ -113,7 +113,7 @@ I got following results:
 
 See, even image rotation doesn't affect much on this comparison.
 
-@sa [Hu-Moments](http://en.wikipedia.org/wiki/Image_moment#Rotation_invariant_moments) are seven
+@note [Hu-Moments](http://en.wikipedia.org/wiki/Image_moment#Rotation_invariant_moments) are seven
 moments invariant to translation, rotation and scale. Seventh one is skew-invariant. Those values
 can be found using **cv.HuMoments()** function.
 
index c26449cad4815214027da24dc1594a4d461877a2..8cb24139e8eeebc8752eec1179d9ad4d9e59d292 100644 (file)
@@ -94,7 +94,7 @@ hist is same as we calculated before. But bins will have 257 elements, because N
 as 0-0.99, 1-1.99, 2-2.99 etc. So final range would be 255-255.99. To represent that, they also add
 256 at end of bins. But we don't need that 256. Upto 255 is sufficient.
 
-@sa Numpy has another function, **np.bincount()** which is much faster than (around 10X)
+@note Numpy has another function, **np.bincount()** which is much faster than (around 10X)
 np.histogram(). So for one-dimensional histograms, you can better try that. Don't forget to set
 minlength = 256 in np.bincount. For example, hist = np.bincount(img.ravel(),minlength=256)
 
index e7bf3f4fb6be56d4b6c05b4b2646b67a53cb89c2..d8bf40e92fe7c42468c6a21e6c311335f84b5212 100644 (file)
@@ -51,7 +51,7 @@ Let's introduce the notation used to define formally a hyperplane:
 
 where \f$\beta\f$ is known as the *weight vector* and \f$\beta_{0}\f$ as the *bias*.
 
-@sa A more in depth description of this and hyperplanes you can find in the section 4.5 (*Separating
+@note A more in depth description of this and hyperplanes you can find in the section 4.5 (*Separating
 Hyperplanes*) of the book: *Elements of Statistical Learning* by T. Hastie, R. Tibshirani and J. H.
 Friedman (@cite HTF01).
 
index 96c6637c5f2b41d6bc16b3b3bfb13ead21fb1282..311ffe4120f464f9403c5cf39e43f2cd3fa9ba3f 100644 (file)
@@ -164,7 +164,7 @@ Describing the methods goes well beyond the purpose of this tutorial. For that I
 the article introducing it. Nevertheless, you can get a good image of it by looking at the OpenCV
 implementation below.
 
-@sa
+@note
     SSIM is described more in-depth in the: "Z. Wang, A. C. Bovik, H. R. Sheikh and E. P.
     Simoncelli, "Image quality assessment: From error visibility to structural similarity," IEEE
     Transactions on Image Processing, vol. 13, no. 4, pp. 600-612, Apr. 2004." article.
index eb8c5ef6e2875adbe1cbfef25ebb10c7855c5f1c..67d502337abfc8024aadd5a11600f6657cbecec6 100644 (file)
@@ -256,8 +256,8 @@ public:
 
 /** @brief Implementation of the Zach, Pock and Bischof Dual TV-L1 Optical Flow method.
  *
- * @sa C. Zach, T. Pock and H. Bischof, "A Duality Based Approach for Realtime TV-L1 Optical Flow".
- * @sa Javier Sanchez, Enric Meinhardt-Llopis and Gabriele Facciolo. "TV-L1 Optical Flow Estimation".
+ * @note C. Zach, T. Pock and H. Bischof, "A Duality Based Approach for Realtime TV-L1 Optical Flow".
+ * @note Javier Sanchez, Enric Meinhardt-Llopis and Gabriele Facciolo. "TV-L1 Optical Flow Estimation".
  */
 class CV_EXPORTS OpticalFlowDual_TVL1 : public DenseOpticalFlow
 {
index d09e62c15de93458dc5c27bedba5d374ff891d1c..38a451b244368c96467d1667222f1a1ab154ded6 100644 (file)
@@ -642,7 +642,8 @@ public:
       documentation of source stream to know the right URL.
     @param apiPreference preferred Capture API backends to use. Can be used to enforce a specific reader
     implementation if multiple are available: e.g. cv::CAP_FFMPEG or cv::CAP_IMAGES or cv::CAP_DSHOW.
-    @sa The list of supported API backends cv::VideoCaptureAPIs
+
+    @sa cv::VideoCaptureAPIs
     */
     CV_WRAP VideoCapture(const String& filename, int apiPreference);
 
@@ -653,7 +654,7 @@ public:
     Use a `domain_offset` to enforce a specific reader implementation if multiple are available like cv::CAP_FFMPEG or cv::CAP_IMAGES or cv::CAP_DSHOW.
     e.g. to open Camera 1 using the MS Media Foundation API use `index = 1 + cv::CAP_MSMF`
 
-    @sa The list of supported API backends cv::VideoCaptureAPIs
+    @sa cv::VideoCaptureAPIs
     */
     CV_WRAP VideoCapture(int index);
 
@@ -665,7 +666,7 @@ public:
     @param apiPreference preferred Capture API backends to use. Can be used to enforce a specific reader
     implementation if multiple are available: e.g. cv::CAP_DSHOW or cv::CAP_MSMF or cv::CAP_V4L2.
 
-    @sa The list of supported API backends cv::VideoCaptureAPIs
+    @sa cv::VideoCaptureAPIs
     */
     CV_WRAP VideoCapture(int index, int apiPreference);