Documentation: fixed about 100 cross-referencing errors.
authorAndrey Kamaev <no@email>
Sat, 13 Aug 2011 16:49:40 +0000 (16:49 +0000)
committerAndrey Kamaev <no@email>
Sat, 13 Aug 2011 16:49:40 +0000 (16:49 +0000)
34 files changed:
doc/ocv.py
modules/calib3d/doc/camera_calibration_and_3d_reconstruction.rst
modules/core/doc/basic_structures.rst
modules/core/doc/drawing_functions.rst
modules/core/doc/dynamic_structures.rst
modules/core/doc/old_basic_structures.rst
modules/core/doc/old_xml_yaml_persistence.rst
modules/core/doc/operations_on_arrays.rst
modules/core/doc/xml_yaml_persistence.rst
modules/features2d/doc/common_interfaces_of_descriptor_matchers.rst
modules/features2d/doc/common_interfaces_of_feature_detectors.rst
modules/flann/doc/flann_fast_approximate_nearest_neighbor_search.rst
modules/gpu/doc/camera_calibration_and_3d_reconstruction.rst
modules/gpu/doc/data_structures.rst
modules/gpu/doc/image_filtering.rst
modules/gpu/doc/image_processing.rst
modules/gpu/doc/initalization_and_information.rst
modules/gpu/doc/introduction.rst
modules/highgui/doc/reading_and_writing_images_and_video.rst
modules/imgproc/doc/feature_detection.rst
modules/imgproc/doc/filtering.rst
modules/imgproc/doc/geometric_transformations.rst
modules/imgproc/doc/histograms.rst
modules/ml/doc/boosting.rst
modules/ml/doc/decision_trees.rst
modules/ml/doc/expectation_maximization.rst
modules/ml/doc/gradient_boosted_trees.rst
modules/ml/doc/k_nearest_neighbors.rst
modules/ml/doc/neural_networks.rst
modules/ml/doc/normal_bayes_classifier.rst
modules/ml/doc/random_trees.rst
modules/ml/doc/statistical_models.rst
modules/ml/doc/support_vector_machines.rst
modules/video/doc/motion_analysis_and_object_tracking.rst

index 7f29f79..353a67a 100644 (file)
@@ -1432,7 +1432,7 @@ class OCVDomain(Domain):
             if "type" in self.objtypes_for_role(typ):
                 return None
             if "cfunction" in self.objtypes_for_role(typ):
-                if not name.lower().startswith(u'cv'):
+                if not name.startswith(u'cv'):
                     name = u'cv' + name
             dict = self.data['objects']
             if name not in dict:
index a83c701..0cf8100 100644 (file)
@@ -184,7 +184,7 @@ The function returns the final re-projection error.
 
 .. seealso::
 
-   :ocv:func:`FindChessboardCorners`,
+   :ocv:func:`findChessboardCorners`,
    :ocv:func:`solvePnP`,
    :ocv:func:`initCameraMatrix2D`, 
    :ocv:func:`stereoCalibrate`,
@@ -272,7 +272,7 @@ For points in an image of a stereo pair, computes the corresponding epilines in
     
     :param whichImage: Index of the image (1 or 2) that contains the  ``points`` .
     
-    :param F: Fundamental matrix that can be estimated using  :ocv:func:`findFundamentalMat`         or  :ocv:func:`StereoRectify` .
+    :param F: Fundamental matrix that can be estimated using  :ocv:func:`findFundamentalMat`         or  :ocv:func:`stereoRectify` .
 
     :param lines: Output vector of the epipolar lines corresponding to the points in the other image. Each line :math:`ax + by + c=0`  is encoded by 3 numbers  :math:`(a, b, c)` .
     
@@ -435,7 +435,7 @@ Finds the positions of internal corners of the chessboard.
 
             * **CV_CALIB_CB_ADAPTIVE_THRESH** Use adaptive thresholding to convert the image to black and white, rather than a fixed threshold level (computed from the average image brightness).
 
-            * **CV_CALIB_CB_NORMALIZE_IMAGE** Normalize the image gamma with  :ocv:func:`EqualizeHist`  before applying fixed or adaptive thresholding.
+            * **CV_CALIB_CB_NORMALIZE_IMAGE** Normalize the image gamma with  :ocv:func:`equalizeHist`  before applying fixed or adaptive thresholding.
 
             * **CV_CALIB_CB_FILTER_QUADS** Use additional criteria (like contour area, perimeter, square-like shape) to filter out false quads extracted at the contour retrieval stage.
 
@@ -628,9 +628,9 @@ the found fundamental matrix. Normally just one matrix is found. But in case of
 :math:`9 \times 3` matrix that stores all 3 matrices sequentially).
 
 The calculated fundamental matrix may be passed further to
-:ocv:func:`ComputeCorrespondEpilines` that finds the epipolar lines
+:ocv:func:`computeCorrespondEpilines` that finds the epipolar lines
 corresponding to the specified points. It can also be passed to
-:ocv:func:`StereoRectifyUncalibrated` to compute the rectification transformation. ::
+:ocv:func:`stereoRectifyUncalibrated` to compute the rectification transformation. ::
 
     // Example. Estimation of fundamental matrix using the RANSAC algorithm
     int point_count = 100;
@@ -726,11 +726,11 @@ Homography matrix is determined up to a scale. Thus, it is normalized so that
 
 .. seealso::
 
-    :ocv:func:`GetAffineTransform`,
-    :ocv:func:`GetPerspectiveTransform`,
-    :ocv:func:`EstimateRigidMotion`,
-    :ocv:func:`WarpPerspective`,
-    :ocv:func:`PerspectiveTransform`
+    :ocv:func:`getAffineTransform`,
+    :ocv:func:`getPerspectiveTransform`,
+    :ocv:func:`estimateRigidTransform`,
+    :ocv:func:`warpPerspective`,
+    :ocv:func:`perspectiveTransform`
 
 
 estimateAffine3D
@@ -800,7 +800,7 @@ Returns the new camera matrix based on the free scaling parameter.
 
     :param newImageSize: Image size after rectification. By default,it is set to  ``imageSize`` .
 
-    :param validPixROI: Optional output rectangle that outlines all-good-pixels region in the undistorted image. See  ``roi1, roi2``  description in  :ocv:func:`StereoRectify` .
+    :param validPixROI: Optional output rectangle that outlines all-good-pixels region in the undistorted image. See  ``roi1, roi2``  description in  :ocv:func:`stereoRectify` .
 
     :param centerPrincipalPoint: Optional flag that indicates whether in the new camera matrix the principal point should be at the image center or not. By default, the principal point is chosen to best fit a subset of the source image (determined by ``alpha``) to the corrected image.
     
@@ -919,7 +919,7 @@ Reprojects a disparity image to 3D space.
 
     :param _3dImage: Output 3-channel floating-point image of the same size as  ``disparity`` . Each element of  ``_3dImage(x,y)``  contains 3D coordinates of the point  ``(x,y)``  computed from the disparity map.
 
-    :param Q: :math:`4 \times 4`  perspective transformation matrix that can be obtained with  :ocv:func:`StereoRectify` .
+    :param Q: :math:`4 \times 4`  perspective transformation matrix that can be obtained with  :ocv:func:`stereoRectify`.
     
     :param handleMissingValues: Indicates, whether the function should handle missing values (i.e. points where the disparity was not computed). If ``handleMissingValues=true``, then pixels with the minimal disparity that corresponds to the outliers (see  :ocv:func:`StereoBM::operator()` ) are transformed to 3D points with a very large Z value (currently set to 10000).
 
@@ -933,8 +933,8 @@ The function transforms a single-channel disparity map to a 3-channel image repr
 
 The matrix ``Q`` can be an arbitrary
 :math:`4 \times 4` matrix (for example, the one computed by
-:ocv:func:`StereoRectify`). To reproject a sparse set of points {(x,y,d),...} to 3D space, use
-:ocv:func:`PerspectiveTransform` .
+:ocv:func:`stereoRectify`). To reproject a sparse set of points {(x,y,d),...} to 3D space, use
+:ocv:func:`perspectiveTransform` .
 
 
 
@@ -962,7 +962,7 @@ Computes an RQ decomposition of 3x3 matrices.
     :param Qz: Optional output 3x3 rotation matrix around z-axis.
 
 The function computes a RQ decomposition using the given rotations. This function is used in
-:ocv:func:`DecomposeProjectionMatrix` to decompose the left 3x3 submatrix of a projection matrix into a camera and a rotation matrix.
+:ocv:func:`decomposeProjectionMatrix` to decompose the left 3x3 submatrix of a projection matrix into a camera and a rotation matrix.
 
 It optionally returns three rotation matrices, one for each axis, and the three Euler angles
 (as the return value)
@@ -1036,12 +1036,12 @@ Class for computing stereo correspondence using the block matching algorithm. ::
         Ptr<CvStereoBMState> state;
     };
 
-The class is a C++ wrapper for the associated functions. In particular, ``StereoBM::operator()`` is the wrapper for
-:ocv:func:`StereoBM::operator()`. 
+The class is a C++ wrapper for the associated functions. In particular, :ocv:func:`StereoBM::operator()` is the wrapper for
+:ocv:cfunc:`cvFindStereoCorrespondenceBM`. 
 
 
 StereoBM::StereoBM
----------------------
+------------------
 The constructors.
 
 .. ocv:function:: StereoBM::StereoBM()
@@ -1401,7 +1401,7 @@ Computes a rectification transform for an uncalibrated stereo camera.
     :param threshold: Optional threshold used to filter out the outliers. If the parameter is greater than zero, all the point pairs that do not comply with the epipolar geometry (that is, the points for which  :math:`|\texttt{points2[i]}^T*\texttt{F}*\texttt{points1[i]}|>\texttt{threshold}` ) are rejected prior to computing the homographies. Otherwise,all the points are considered inliers.
 
 The function computes the rectification transformations without knowing intrinsic parameters of the cameras and their relative position in the space, which explains the suffix "uncalibrated". Another related difference from
-:ocv:func:`StereoRectify` is that the function outputs not the rectification transformations in the object (3D) space, but the planar perspective transformations encoded by the homography matrices ``H1`` and ``H2`` . The function implements the algorithm
+:ocv:func:`stereoRectify` is that the function outputs not the rectification transformations in the object (3D) space, but the planar perspective transformations encoded by the homography matrices ``H1`` and ``H2`` . The function implements the algorithm
 [Hartley99]_.
 
 .. note::
index 208554c..49e7ae2 100644 (file)
@@ -246,7 +246,7 @@ Template class for short numerical vectors, a partial case of :ocv:class:`Matx`:
     typedef Vec<double, 4> Vec4d;
     typedef Vec<double, 6> Vec6d;
     
-It is possible to convert ``Vec<T,2>`` to/from ``Point_``, ``Vec<T,3>`` to/from ``Point3_`` , and ``Vec<T,4>`` to ``CvScalar`` or :ocv:class:`Scalar`. Use ``operator[]`` to access the elements of ``Vec``. 
+It is possible to convert ``Vec<T,2>`` to/from ``Point_``, ``Vec<T,3>`` to/from ``Point3_`` , and ``Vec<T,4>`` to :ocv:struct:`CvScalar` or :ocv:class:`Scalar_`. Use ``operator[]`` to access the elements of ``Vec``. 
 
 All the expected vector operations are also implemented:
 
@@ -1517,11 +1517,11 @@ The method is used in quite a few of OpenCV functions. The point is that element
 This approach, while being very simple, can boost the performance of a simple element-operation by 10-20 percents, especially if the image is rather small and the operation is quite simple.
 
 Another OpenCV idiom in this function, a call of
-:ocv:func:`Mat::create` for the destination array, that allocates the destination array unless it already has the proper size and type. And while the newly allocated arrays are always continuous, you still need to check the destination array because :ocv:func:`create` does not always allocate a new matrix.
+:ocv:func:`Mat::create` for the destination array, that allocates the destination array unless it already has the proper size and type. And while the newly allocated arrays are always continuous, you still need to check the destination array because :ocv:func:`Mat::create` does not always allocate a new matrix.
 
 
 Mat::elemSize
------------------
+-------------
 Returns  the matrix element size in bytes.
 
 .. ocv:function:: size_t Mat::elemSize() const
@@ -1530,7 +1530,7 @@ The method returns the matrix element size in bytes. For example, if the matrix
 
 
 Mat::elemSize1
-------------------
+--------------
 Returns the size of each matrix element channel in bytes.
 
 .. ocv:function:: size_t Mat::elemSize1() const
@@ -1539,7 +1539,7 @@ The method returns the matrix element channel size in bytes, that is, it ignores
 
 
 Mat::type
--------------
+---------
 Returns the type of a matrix element.
 
 .. ocv:function:: int Mat::type() const
@@ -1622,7 +1622,7 @@ Returns a pointer to the specified matrix row.
     :param i: A 0-based row index.
 
 The methods return ``uchar*`` or typed pointer to the specified matrix row. See the sample in
-:ocv:func:`Mat::isContinuous` () to know how to use these methods.
+:ocv:func:`Mat::isContinuous` to know how to use these methods.
 
 
 Mat::at
index 26edd8c..6c96669 100644 (file)
@@ -6,7 +6,7 @@ Drawing Functions
 Drawing functions work with matrices/images of arbitrary depth.
 The boundaries of the shapes can be rendered with antialiasing (implemented only for 8-bit images for now).
 All the functions include the parameter ``color`` that uses an RGB value (that may be constructed
-with ``CV_RGB`` or the  :ocv:class:`Scalar`  constructor
+with ``CV_RGB`` or the  :ocv:class:`Scalar_`  constructor
 ) for color
 images and brightness for grayscale images. For color images, the channel ordering
 is normally *Blue, Green, Red*.
index 379e794..de3c29a 100644 (file)
@@ -43,7 +43,7 @@ The buffer is put in the end of already allocated space in the ``top`` memory bl
 
 If there are no more free blocks, a new block is allocated (or borrowed from the parent, see :ocv:cfunc:`CreateChildMemStorage`) and added to the end of list. Thus, the storage behaves as a stack with ``bottom`` indicating bottom of the stack and the pair (``top``, ``free_space``)
 indicating top of the stack. The stack top may be saved via :ocv:cfunc:`SaveMemStoragePos`, restored via 
-:ocv:cfunc:`RestoreMemStoragePos`, or reset via :ocv:cfunc:`ClearStorage`.
+:ocv:cfunc:`RestoreMemStoragePos`, or reset via :ocv:cfunc:`ClearMemStorage`.
 
 CvMemBlock
 ----------
index d0bc05f..790de4f 100644 (file)
@@ -671,7 +671,7 @@ Creates a matrix header but does not allocate the matrix data.
     
     :param type: Type of the matrix elements, see  :ocv:cfunc:`CreateMat` 
     
-The function allocates a new matrix header and returns a pointer to it. The matrix data can then be allocated using :ocv:cfunc:`CreateData` or set explicitly to user-allocated data via :ocv:func:`SetData`.
+The function allocates a new matrix header and returns a pointer to it. The matrix data can then be allocated using :ocv:cfunc:`CreateData` or set explicitly to user-allocated data via :ocv:cfunc:`SetData`.
 
 CreateMatND
 -----------
@@ -719,7 +719,7 @@ Creates sparse array.
     :param type: Type of array elements. The same as for CvMat
 
 The function allocates a multi-dimensional sparse array. Initially the array contain no elements, that is 
-:ocv:cfunc:`GetPtrND` and other related functions will return 0 for every index.
+:ocv:cfunc:`PtrND` and other related functions will return 0 for every index.
 
 
 CrossProduct
@@ -935,7 +935,7 @@ The function returns a matrix header for the input array that can be a matrix -
 
 The function provides an easy way to handle both types of arrays - ``IplImage`` and  ``CvMat`` using the same code. Input array must have non-zero data pointer, otherwise the function will report an error.
 
-.. seealso:: :ocv:cfunc:`GetImage`, :ocv:cfunc:`GetMatND`, :ocv:func:`cvarrToMat`.
+.. seealso:: :ocv:cfunc:`GetImage`, :ocv:func:`cvarrToMat`.
 
 .. note:: If the input array is ``IplImage`` with planar data layout and COI set, the function returns the pointer to the selected plane and ``COI == 0``. This feature allows user to process ``IplImage`` strctures with planar data layout, even though OpenCV does not support such images.
 
@@ -1250,13 +1250,15 @@ The functions return a pointer to a specific array element. Number of array dime
 The functions can be used for sparse arrays as well - if the requested node does not exist they create it and set it to zero.
 
 All these as well as other functions accessing array elements (
-:ocv:cfunc:`Get`
+:ocv:cfunc:`GetND`
 , 
-:ocv:cfunc:`GetReal`
+:ocv:cfunc:`GetRealND`
 , 
 :ocv:cfunc:`Set`
 , 
-:ocv:cfunc:`SetReal`
+:ocv:cfunc:`SetND`
+, 
+:ocv:cfunc:`SetRealND`
 ) raise an error in case if the element index is out of range.
 
 
index 9fcf593..5364337 100644 (file)
@@ -681,7 +681,7 @@ Starts writing a new structure.
         following the structure name (see the example in  :ocv:struct:`CvFileStorage` 
         description). Mainly it is used with user objects. When the storage
         is read, the encoded type name is used to determine the object type
-        (see  :ocv:struct:`CvTypeInfo`  and  :ocv:cfunc:`FindTypeInfo` ). 
+        (see  :ocv:struct:`CvTypeInfo`  and  :ocv:cfunc:`FindType` ). 
 
     :param attributes: This parameter is not used in the current implementation 
 
index 227ee81..4e77428 100644 (file)
@@ -695,18 +695,17 @@ Normally, the function is used to convert an old-style 2D array (
 ``CvMatND`` using an arbitrary element-wise function.
 
 The last parameter, ``coiMode`` , specifies how to deal with an image with COI set. By default, it is 0 and the function reports an error when an image with COI comes in. And ``coiMode=1`` means that no error is signalled. You have to check COI presence and handle it manually. The modern structures, such as
-:ocv:func:`Mat` and
-:ocv:func:`MatND` do not support COI natively. To process an individual channel of a new-style array, you need either to organize a loop over the array (for example, using matrix iterators) where the channel of interest will be processed, or extract the COI using
+:ocv:class:`Mat` and
+``MatND`` do not support COI natively. To process an individual channel of a new-style array, you need either to organize a loop over the array (for example, using matrix iterators) where the channel of interest will be processed, or extract the COI using
 :ocv:func:`mixChannels` (for new-style arrays) or
 :ocv:func:`extractImageCOI` (for old-style arrays), process this individual channel, and insert it back to the destination array if needed (using
-:ocv:func:`mixChannel` or
+:ocv:func:`mixChannels` or
 :ocv:func:`insertImageCOI` , respectively).
 
 .. seealso::
 
-    :c:func:`cvGetImage`,
-    :c:func:`cvGetMat`,
-    :c:func:`cvGetMatND`,
+    :ocv:cfunc:`cvGetImage`,
+    :ocv:cfunc:`cvGetMat`,
     :ocv:func:`extractImageCOI`,
     :ocv:func:`insertImageCOI`,
     :ocv:func:`mixChannels` 
@@ -1606,7 +1605,7 @@ Calculates an average (mean) of array elements.
 .. ocv:cfunction:: CvScalar cvAvg(const CvArr* src, const CvArr* mask=NULL)
 .. ocv:pyoldfunction:: cv.Avg(src, mask=None)-> CvScalar
 
-    :param src: Source array that should have from 1 to 4 channels so that the result can be stored in  :ocv:func:`Scalar` .
+    :param src: Source array that should have from 1 to 4 channels so that the result can be stored in  :ocv:class:`Scalar_` .
 
     :param mask: Optional operation mask.
 
@@ -1638,7 +1637,7 @@ Calculates a mean and standard deviation of array elements.
 .. ocv:cfunction:: void cvAvgSdv(const CvArr* src, CvScalar* mean, CvScalar* stdDev, const CvArr* mask=NULL)
 .. ocv:pyoldfunction:: cv.AvgSdv(src, mask=None)-> (mean, stdDev)
 
-    :param src: Source array that should have from 1 to 4 channels so that the results can be stored in  :ocv:func:`Scalar` 's.
+    :param src: Source array that should have from 1 to 4 channels so that the results can be stored in  :ocv:class:`Scalar_` 's.
 
     :param mean: Output parameter: computed mean value.
 
@@ -1786,11 +1785,11 @@ Finds the global minimum and maximum in a whole array or sub-array.
 
     :param mask: Optional mask used to select a sub-array.
 
-The functions ``ninMaxLoc`` find the minimum and maximum element values and their positions. The extremums are searched across the whole array or,
+The functions ``minMaxLoc`` find the minimum and maximum element values and their positions. The extremums are searched across the whole array or,
 if ``mask`` is not an empty array, in the specified array region.
 
 The functions do not work with multi-channel arrays. If you need to find minimum or maximum elements across all the channels, use
-:ocv:func:`reshape` first to reinterpret the array as single-channel. Or you may extract the particular channel using either
+:ocv:func:`Mat::reshape` first to reinterpret the array as single-channel. Or you may extract the particular channel using either
 :ocv:func:`extractImageCOI` , or
 :ocv:func:`mixChannels` , or
 :ocv:func:`split` .
@@ -1806,7 +1805,7 @@ In case of a sparse matrix, the minimum is found among non-zero elements only.
     :ocv:func:`extractImageCOI`,
     :ocv:func:`mixChannels`,
     :ocv:func:`split`,
-    :ocv:func:`reshape` 
+    :ocv:func:`Mat::reshape` 
 
 
 
@@ -1931,7 +1930,7 @@ For a not-per-element matrix product, see
 .. seealso::
 
     :ocv:func:`add`,
-    :ocv:func:`substract`,
+    :ocv:func:`subtract`,
     :ocv:func:`divide`,
     :ref:`MatrixExpressions`,
     :ocv:func:`scaleAdd`,
@@ -2530,7 +2529,7 @@ Fills arrays with random numbers.
 
 .. ocv:function:: void RNG::fill( InputOutputArray mat, int distType, InputArray a, InputArray b )
 
-    :param mat: 2D or N-dimensional matrix. Currently matrices with more than 4 channels are not supported by the methods. Use  :ocv:func:`reshape`  as a possible workaround.
+    :param mat: 2D or N-dimensional matrix. Currently matrices with more than 4 channels are not supported by the methods. Use  :ocv:func:`Mat::reshape`  as a possible workaround.
 
     :param distType: Distribution type, ``RNG::UNIFORM``  or  ``RNG::NORMAL`` .
     
index 93532e4..be80309 100644 (file)
@@ -10,7 +10,7 @@ You can store and then restore various OpenCV data structures to/from XML (http:
 (http://www.yaml.org) formats. Also, it is possible store and load arbitrarily complex data structures, which include OpenCV data structures, as well as primitive data types (integer and floating-point numbers and text strings) as their elements.
 
 Use the following procedure to write something to XML or YAML:
- #. Create new :ocv:class:`FileStorage` and open it for writing. It can be done with a single call to :ocv:func:`FileStorage::FileStorage` constructor that takes a filename, or you can use the default constructor and then call :ocv:class:`FileStorage::open`. Format of the file (XML or YAML) is determined from the filename extension (".xml" and ".yml"/".yaml", respectively)
+ #. Create new :ocv:class:`FileStorage` and open it for writing. It can be done with a single call to :ocv:func:`FileStorage::FileStorage` constructor that takes a filename, or you can use the default constructor and then call :ocv:func:`FileStorage::open`. Format of the file (XML or YAML) is determined from the filename extension (".xml" and ".yml"/".yaml", respectively)
  #. Write all the data you want using the streaming operator ``>>``, just like in the case of STL streams.
  #. Close the file using :ocv:func:`FileStorage::release`. ``FileStorage`` destructor also closes the file.
 
index 8ec9c4b..97359b5 100644 (file)
@@ -358,7 +358,7 @@ FlannBasedMatcher
 -----------------
 .. ocv:class:: FlannBasedMatcher
 
-Flann-based descriptor matcher. This matcher trains :ocv:func:`flann::Index` on a train descriptor collection and calls its nearest search methods to find the best matches. So, this matcher may be faster when matching a large train collection than the brute force matcher. ``FlannBasedMatcher`` does not support masking permissible matches of descriptor sets because ``flann::Index`` does not support this. ::
+Flann-based descriptor matcher. This matcher trains :ocv:class:`flann::Index_` on a train descriptor collection and calls its nearest search methods to find the best matches. So, this matcher may be faster when matching a large train collection than the brute force matcher. ``FlannBasedMatcher`` does not support masking permissible matches of descriptor sets because ``flann::Index`` does not support this. ::
 
     class FlannBasedMatcher : public DescriptorMatcher
     {
index 5be7053..926060b 100644 (file)
@@ -144,8 +144,10 @@ The following detector types are supported:
 * ``"SURF"`` -- :ocv:class:`SurfFeatureDetector`
 * ``"ORB"`` -- :ocv:class:`OrbFeatureDetector`
 * ``"MSER"`` -- :ocv:class:`MserFeatureDetector`
-* ``"GFTT"`` -- :ocv:class:`GfttFeatureDetector`
-* ``"HARRIS"`` -- :ocv:class:`HarrisFeatureDetector`
+* ``"GFTT"`` -- :ocv:class:`GoodFeaturesToTrackDetector`
+* ``"HARRIS"`` -- :ocv:class:`GoodFeaturesToTrackDetector` with Harris detector enabled
+* ``"Dense"`` -- :ocv:class:`DenseFeatureDetector`
+* ``"SimpleBlob"`` -- :ocv:class:`SimpleBlobDetector`
 
 Also a combined format is supported: feature detector adapter name ( ``"Grid"`` --
 :ocv:class:`GridAdaptedFeatureDetector`, ``"Pyramid"`` --
index 5819c02..771e897 100644 (file)
@@ -10,7 +10,7 @@ This section documents OpenCV's interface to the FLANN library. FLANN (Fast Libr
 flann::Index\_
 -----------------
 
-.. ocv:class:: cv::flann::Index_
+.. ocv:class:: flann::Index_
 
 The FLANN nearest neighbor index class. This class is templated with the type of elements for which the index is built.
 
index 423f723..0e28562 100644 (file)
@@ -193,7 +193,7 @@ gpu::StereoBeliefPropagation::StereoBeliefPropagation
 
 For more details, see [Felzenszwalb2006]_.
 
-By default, :ocv:class:`StereoBeliefPropagation` uses floating-point arithmetics and the ``CV_32FC1`` type for messages. But it can also use fixed-point arithmetics and the ``CV_16SC1`` message type for better performance. To avoid an overflow in this case, the parameters must satisfy the following requirement:
+By default, :ocv:class:`gpu::StereoBeliefPropagation` uses floating-point arithmetics and the ``CV_32FC1`` type for messages. But it can also use fixed-point arithmetics and the ``CV_16SC1`` message type for better performance. To avoid an overflow in this case, the parameters must satisfy the following requirement:
 
 .. math::
 
index dd22f47..b9fea4f 100644 (file)
@@ -48,7 +48,7 @@ gpu::PtrStep\_
 .. ocv:class:: gpu::PtrStep\_
 
 Structure similar to 
-:ocv:class:`DevMem2D_` but containing only a pointer and row step. Width and height fields are excluded due to performance reasons. The structure is intended for internal use or for users who write device code. 
+:ocv:class:`gpu::DevMem2D_` but containing only a pointer and row step. Width and height fields are excluded due to performance reasons. The structure is intended for internal use or for users who write device code. 
 ::
 
     template<typename T> struct PtrStep_
@@ -79,7 +79,7 @@ gpu::PtrElemStrp\_
 .. ocv:class:: gpu::PtrElemStrp\_
 
 Structure similar to 
-:ocv:class:`DevMem2D_` but containing only a pointer and a row step in elements. Width and height fields are excluded due to performance reasons. This class can only be constructed if ``sizeof(T)`` is a multiple of 256. The structure is intended for internal use or for users who write device code. 
+:ocv:class:`gpu::DevMem2D_` but containing only a pointer and a row step in elements. Width and height fields are excluded due to performance reasons. This class can only be constructed if ``sizeof(T)`` is a multiple of 256. The structure is intended for internal use or for users who write device code. 
 ::
 
     template<typename T> struct PtrElemStep_ : public PtrStep_<T>
@@ -97,7 +97,7 @@ gpu::GpuMat
 .. ocv:class:: gpu::GpuMat
 
 Base storage class for GPU memory with reference counting. Its interface matches the
-:c:type:`Mat` interface with the following limitations:
+:ocv:class:`Mat` interface with the following limitations:
 
 *   
     no arbitrary dimensions support (only 2D)
index 9b5521d..9a8fd46 100644 (file)
@@ -541,7 +541,7 @@ gpu::sepFilter2D
 
 gpu::createDerivFilter_GPU
 ------------------------------
-.. ocv:function:: Ptr<FilterEngine_GPU> createDerivFilter_GPU(int srcType, int dstType, int dx, int dy, int ksize, int rowBorderType = BORDER_DEFAULT, int columnBorderType = -1)
+.. ocv:function:: Ptr<FilterEngine_GPU> gpu::createDerivFilter_GPU(int srcType, int dstType, int dx, int dy, int ksize, int rowBorderType = BORDER_DEFAULT, int columnBorderType = -1)
 
     Creates a filter engine for the generalized Sobel operator.
 
index 60c2e4d..235c4ff 100644 (file)
@@ -278,12 +278,12 @@ gpu::ConvolveBuf::ConvolveBuf
 .. ocv:function:: ConvolveBuf::ConvolveBuf()
 
     Constructs an empty buffer that is properly resized after the first call of the 
-    :ocv:func:`convolve` function.
+    :ocv:func:`gpu::convolve` function.
 
 .. ocv:function:: ConvolveBuf::ConvolveBuf(Size image_size, Size templ_size)
 
     Constructs a buffer for the 
-    :ocv:func:`convolve` function with respective arguments.
+    :ocv:func:`gpu::convolve` function with respective arguments.
 
 
 
index 1308cec..52e7cf7 100644 (file)
@@ -7,7 +7,7 @@ Initalization and Information
 gpu::getCudaEnabledDeviceCount
 ----------------------------------
 
-.. ocv:function:: int getCudaEnabledDeviceCount()
+.. ocv:function:: int gpu::getCudaEnabledDeviceCount()
 
     Returns the number of installed CUDA-enabled devices. Use this function before any other GPU functions calls. If OpenCV is compiled without GPU support, this function returns 0.
 
@@ -15,7 +15,7 @@ gpu::getCudaEnabledDeviceCount
 
 gpu::setDevice
 ------------------
-.. ocv:function:: void setDevice(int device)
+.. ocv:function:: void gpu::setDevice(int device)
 
     Sets a device and initializes it for the current thread. If the call of this function is omitted, a default device is initialized at the fist GPU usage.
 
@@ -25,7 +25,7 @@ gpu::setDevice
 
 gpu::getDevice
 ------------------
-.. ocv:function:: int getDevice()
+.. ocv:function:: int gpu::getDevice()
 
     Returns the current device index set by ``{gpu::getDevice}`` or initialized by default.
 
index 2d2da7f..36bb971 100644 (file)
@@ -15,7 +15,7 @@ The GPU module depends on the CUDA Toolkit and NVIDIA Performance Primitives lib
 The OpenCV GPU module is designed for ease of use and does not require any knowledge of CUDA. Though, such a knowledge will certainly be useful to handle non-trivial cases or achieve the highest performance. It is helpful to understand the cost of various operations, what the GPU does, what the preferred data formats are, and so on. The GPU module is an effective instrument for quick implementation of GPU-accelerated computer vision algorithms. However, if your algorithm involves many simple operations, then, for the best possible performance, you may still need to write your own kernels to avoid extra write and read operations on the intermediate results.
 
 To enable CUDA support, configure OpenCV using ``CMake`` with ``WITH_CUDA=ON`` . When the flag is set and if CUDA is installed, the full-featured OpenCV GPU module is built. Otherwise, the module is still built but at runtime all functions from the module throw
-:ocv:func:`Exception` with ``CV_GpuNotSupported`` error code, except for
+:ocv:class:`Exception` with ``CV_GpuNotSupported`` error code, except for
 :ocv:func:`gpu::getCudaEnabledDeviceCount()`. The latter function returns zero GPU count in this case. Building OpenCV without CUDA support does not perform device code compilation, so it does not require the CUDA Toolkit installed. Therefore, using the
 :ocv:func:`gpu::getCudaEnabledDeviceCount()` function, you can implement a high-level algorithm that will detect GPU presence at runtime and choose an appropriate implementation (CPU or GPU) accordingly.
 
index 44e74b4..1d97ad1 100644 (file)
@@ -205,7 +205,7 @@ Open video file or a capturing device for video capturing
 
     :param device: id of the opened video capturing device (i.e. a camera index).
 
-The methods first call :ocv:cfunc:`VideoCapture::release` to close the already opened file or camera. 
+The methods first call :ocv:func:`VideoCapture::release` to close the already opened file or camera. 
 
 
 VideoCapture::isOpened
index 4b8b251..d29d06e 100644 (file)
@@ -273,9 +273,9 @@ The function can be used to initialize a point-based tracker of an object.
     :ocv:func:`cornerMinEigenVal`, 
     :ocv:func:`cornerHarris`, 
     :ocv:func:`calcOpticalFlowPyrLK`, 
-    :ocv:func:`estimateRigidMotion`, 
-    :ocv:func:`PlanarObjectDetector`, 
-    :ocv:func:`OneWayDescriptor`
+    :ocv:func:`estimateRigidTransform`,
+    :ocv:class:`PlanarObjectDetector`, 
+    :ocv:class:`OneWayDescriptor`
 
 
 
index c0b4dbe..d7c545e 100644 (file)
@@ -148,7 +148,7 @@ where
 .. seealso::
 
     :ocv:class:`BaseColumnFilter`,
-    :ocv:func:`Filter`,
+    :ocv:class:`BaseFilter`,
     :ocv:class:`FilterEngine`,
     :ocv:func:`getLinearRowFilter`,
     :ocv:func:`getMorphologyRowFilter`,
@@ -677,7 +677,7 @@ Returns an engine for smoothing images with the Gaussian filter.
 The function :ocv:func:`createGaussianFilter` computes Gaussian kernel coefficients and then returns a separable linear filter for that kernel. The function is used by
 :ocv:func:`GaussianBlur` . Note that while the function takes just one data type, both for input and output, you can pass this limitation by calling
 :ocv:func:`getGaussianKernel` and then
-:ocv:func:`createSeparableFilter` directly.
+:ocv:func:`createSeparableLinearFilter` directly.
 
 .. seealso::
 
@@ -880,7 +880,7 @@ Erodes an image by using a specific structuring element.
 
     :param borderType: Pixel extrapolation method. See  :ocv:func:`borderInterpolate` for details.
     
-    :param borderValue: Border value in case of a constant border. The default value has a special meaning. See  :ocv:func:`createMorphoogyFilter` for details.
+    :param borderValue: Border value in case of a constant border. The default value has a special meaning. See  :ocv:func:`createMorphologyFilter` for details.
     
 The function erodes the source image using the specified structuring element that determines the shape of a pixel neighborhood over which the minimum is taken:
 
@@ -1183,7 +1183,7 @@ Performs advanced morphological transformations.
 
     :param borderType: Pixel extrapolation method. See  :ocv:func:`borderInterpolate` for details.
     
-    :param borderValue: Border value in case of a constant border. The default value has a special meaning. See  :ocv:func:`createMorphoogyFilter` for details.
+    :param borderValue: Border value in case of a constant border. The default value has a special meaning. See  :ocv:func:`createMorphologyFilter` for details.
 
 The function can perform advanced morphological transformations using an erosion and dilation as basic operations.
 
@@ -1456,7 +1456,7 @@ Smooths the image in one of several ways.
     
 The function smooths an image using one of several methods. Every of the methods has some features and restrictions listed below:
 
- * Blur with no scaling works with single-channel images only and supports accumulation of 8-bit to 16-bit format (similar to :ocv:func:`Sobel` and :ocv:func:`Laplace`) and 32-bit floating point to 32-bit floating-point format.
+ * Blur with no scaling works with single-channel images only and supports accumulation of 8-bit to 16-bit format (similar to :ocv:func:`Sobel` and :ocv:func:`Laplacian`) and 32-bit floating point to 32-bit floating-point format.
 
  * Simple blur and Gaussian blur support 1- or 3-channel, 8-bit and 32-bit floating point images. These two methods can process images in-place.
 
index ad92359..2d82fee 100644 (file)
@@ -70,7 +70,7 @@ The function converts a pair of maps for
 .. seealso::
 
     :ocv:func:`remap`,
-    :ocv:func:`undisort`,
+    :ocv:func:`undistort`,
     :ocv:func:`initUndistortRectifyMap`
 
 
index 98fb76f..43769ea 100644 (file)
@@ -143,7 +143,7 @@ The functions ``calcBackProject`` calculate the back project of the histogram. T
     Find connected components in the resulting picture and choose, for example, the largest component.
 
 This is an approximate algorithm of the
-:ocv:func:`CAMShift` color object tracker.
+:ocv:func:`CamShift` color object tracker.
 
 .. seealso:: :ocv:func:`calcHist`
 .. _compareHist:
@@ -315,7 +315,7 @@ Locates a template within an image by using a histogram comparison.
     
     :param factor: Normalization factor for histograms that affects the normalization scale of the destination image. Pass 1 if not sure. 
     
-The function calculates the back projection by comparing histograms of the source image patches with the given histogram. The function is similar to :ocv:func:`MatchTemplate`, but instead of comparing the raster patch with all its possible positions within the search window, the function ``CalcBackProjectPatch`` compares histograms. See the algorithm diagram below:
+The function calculates the back projection by comparing histograms of the source image patches with the given histogram. The function is similar to :ocv:func:`matchTemplate`, but instead of comparing the raster patch with all its possible positions within the search window, the function ``CalcBackProjectPatch`` compares histograms. See the algorithm diagram below:
 
 .. image:: pics/backprojectpatch.png
 
index a8d368d..27264e4 100644 (file)
@@ -142,7 +142,7 @@ Default and training constructors.
 
 .. ocv:function:: CvBoost::CvBoost( const Mat& trainData, int tflag, const Mat& responses, const Mat& varIdx=Mat(), const Mat& sampleIdx=Mat(), const Mat& varType=Mat(), const Mat& missingDataMask=Mat(), CvBoostParams params=CvBoostParams() )
 
-.. ocv:function::CvBoost::CvBoost( const CvMat* trainData, int tflag, const CvMat* responses, const CvMat* varIdx=0, const CvMat* sampleIdx=0, const CvMat* varType=0, const CvMat* missingDataMask=0, CvBoostParams params=CvBoostParams() )
+.. ocv:function:: CvBoost::CvBoost( const CvMat* trainData, int tflag, const CvMat* responses, const CvMat* varIdx=0, const CvMat* sampleIdx=0, const CvMat* varType=0, const CvMat* missingDataMask=0, CvBoostParams params=CvBoostParams() )
 
 .. ocv:pyfunction:: cv2.Boost(trainData, tflag, responses[, varIdx[, sampleIdx[, varType[, missingDataMask[, params]]]]]) -> <Boost object>
 
@@ -155,9 +155,9 @@ Trains a boosted tree classifier.
 
 .. ocv:function:: bool CvBoost::train( const Mat& trainData, int tflag, const Mat& responses, const Mat& varIdx=Mat(), const Mat& sampleIdx=Mat(), const Mat& varType=Mat(), const Mat& missingDataMask=Mat(), CvBoostParams params=CvBoostParams(), bool update=false )
 
-.. ocv:function::bool CvBoost::train( const CvMat* trainData, int tflag, const CvMat* responses, const CvMat* varIdx=0, const CvMat* sampleIdx=0, const CvMat* varType=0, const CvMat* missingDataMask=0, CvBoostParams params=CvBoostParams(), bool update=false )
+.. ocv:function:: bool CvBoost::train( const CvMat* trainData, int tflag, const CvMat* responses, const CvMat* varIdx=0, const CvMat* sampleIdx=0, const CvMat* varType=0, const CvMat* missingDataMask=0, CvBoostParams params=CvBoostParams(), bool update=false )
 
-.. ocv:function::bool CvBoost::train( CvMLData* data, CvBoostParams params=CvBoostParams(), bool update=false )
+.. ocv:function:: bool CvBoost::train( CvMLData* data, CvBoostParams params=CvBoostParams(), bool update=false )
 
 .. ocv:pyfunction:: cv2.Boost.train(trainData, tflag, responses[, varIdx[, sampleIdx[, varType[, missingDataMask[, params[, update]]]]]]) -> retval
 
@@ -171,7 +171,7 @@ Predicts a response for an input sample.
 
 .. ocv:function:: float CvBoost::predict(  const Mat& sample, const Mat& missing=Mat(), const Range& slice=Range::all(), bool rawMode=false, bool returnSum=false ) const
 
-.. ocv:function::float CvBoost::predict( const CvMat* sample, const CvMat* missing=0, CvMat* weak_responses=0, CvSlice slice=CV_WHOLE_SEQ, bool raw_mode=false, bool return_sum=false ) const
+.. ocv:function:: float CvBoost::predict( const CvMat* sample, const CvMat* missing=0, CvMat* weak_responses=0, CvSlice slice=CV_WHOLE_SEQ, bool raw_mode=false, bool return_sum=false ) const
 
 .. ocv:pyfunction:: cv2.Boost.predict(sample[, missing[, slice[, rawMode[, returnSum]]]]) -> retval
 
@@ -193,7 +193,7 @@ CvBoost::prune
 --------------
 Removes the specified weak classifiers.
 
-.. ocv:function::void CvBoost::prune( CvSlice slice )
+.. ocv:function:: void CvBoost::prune( CvSlice slice )
 
 .. ocv:pyfunction:: cv2.Boost.prune(slice) -> None
 
@@ -208,7 +208,7 @@ CvBoost::calc_error
 -------------------
 Returns error of the boosted tree classifier.
 
-.. ocv:function::float CvBoost::calc_error( CvMLData* _data, int type , std::vector<float> *resp = 0 )
+.. ocv:function:: float CvBoost::calc_error( CvMLData* _data, int type , std::vector<float> *resp = 0 )
 
 The method is identical to :ocv:func:`CvDTree::calc_error` but uses the boosted tree classifier as predictor.
 
@@ -217,7 +217,7 @@ CvBoost::get_weak_predictors
 ----------------------------
 Returns the sequence of weak tree classifiers.
 
-.. ocv:function::CvSeq* CvBoost::get_weak_predictors()
+.. ocv:function:: CvSeq* CvBoost::get_weak_predictors()
 
 The method returns the sequence of weak classifiers. Each element of the sequence is a pointer to the :ocv:class:`CvBoostTree` class or to some of its derivatives.
 
@@ -232,5 +232,5 @@ CvBoost::get_data
 -----------------
 Returns used train data of the boosted tree classifier.
 
-.. ocv:function::const CvDTreeTrainData* CvBoost::get_data() const
+.. ocv:function:: const CvDTreeTrainData* CvBoost::get_data() const
 
index 1c84e17..e3d789b 100644 (file)
@@ -225,11 +225,11 @@ Trains a decision tree.
 
 .. ocv:function:: bool CvDTree::train( const Mat& train_data,  int tflag, const Mat& responses,  const Mat& var_idx=Mat(), const Mat& sample_idx=Mat(), const Mat& var_type=Mat(), const Mat& missing_mask=Mat(), CvDTreeParams params=CvDTreeParams() )
 
-.. ocv:function::bool CvDTree::train( const CvMat* trainData, int tflag, const CvMat* responses, const CvMat* varIdx=0, const CvMat* sampleIdx=0, const CvMat* varType=0, const CvMat* missingDataMask=0, CvDTreeParams params=CvDTreeParams() )
+.. ocv:function:: bool CvDTree::train( const CvMat* trainData, int tflag, const CvMat* responses, const CvMat* varIdx=0, const CvMat* sampleIdx=0, const CvMat* varType=0, const CvMat* missingDataMask=0, CvDTreeParams params=CvDTreeParams() )
 
-.. ocv:function::bool CvDTree::train( CvMLData* trainData, CvDTreeParams params=CvDTreeParams() )
+.. ocv:function:: bool CvDTree::train( CvMLData* trainData, CvDTreeParams params=CvDTreeParams() )
 
-.. ocv:function::bool CvDTree::train( CvDTreeTrainData* trainData, const CvMat* subsampleIdx )
+.. ocv:function:: bool CvDTree::train( CvDTreeTrainData* trainData, const CvMat* subsampleIdx )
 
 .. ocv:pyfunction:: cv2.DTree.train(trainData, tflag, responses[, varIdx[, sampleIdx[, varType[, missingDataMask[, params]]]]]) -> retval
 
@@ -249,7 +249,7 @@ Returns the leaf node of a decision tree corresponding to the input vector.
 
 .. ocv:function:: CvDTreeNode* CvDTree::predict( const Mat& sample, const Mat& missingDataMask=Mat(), bool preprocessedInput=false ) const
 
-.. ocv:function::CvDTreeNode* CvDTree::predict( const CvMat* sample, const CvMat* missingDataMask=0, bool preprocessedInput=false ) const
+.. ocv:function:: CvDTreeNode* CvDTree::predict( const CvMat* sample, const CvMat* missingDataMask=0, bool preprocessedInput=false ) const
 
 .. ocv:pyfunction:: cv2.DTree.predict(sample[, missingDataMask[, preprocessedInput]]) -> retval
 
@@ -267,7 +267,7 @@ CvDTree::calc_error
 -------------------
 Returns error of the decision tree.
 
-.. ocv:function::float CvDTree::calc_error( CvMLData* trainData, int type, std::vector<float> *resp = 0 )
+.. ocv:function:: float CvDTree::calc_error( CvMLData* trainData, int type, std::vector<float> *resp = 0 )
 
     :param data: Data for the decision tree.
     
@@ -288,7 +288,7 @@ Returns the variable importance array.
 
 .. ocv:function:: Mat CvDTree::getVarImportance()
 
-.. ocv:function::const CvMat* CvDTree::get_var_importance()
+.. ocv:function:: const CvMat* CvDTree::get_var_importance()
 
 .. ocv:pyfunction:: cv2.DTree.getVarImportance() -> importanceVector
 
@@ -311,7 +311,7 @@ CvDTree::get_data
 -----------------
 Returns used train data of the decision tree.
 
-.. ocv:function::const CvDTreeTrainData* CvDTree::get_data() const
+.. ocv:function:: const CvDTreeTrainData* CvDTree::get_data() const
 
 Example: building a tree for classifying mushrooms.  See the ``mushroom.cpp`` sample that demonstrates how to build and use the
 decision tree.
index 16ca6a7..820583a 100644 (file)
@@ -176,7 +176,7 @@ Unlike many of the ML models, EM is an unsupervised learning algorithm and it do
 :math:`\texttt{labels}_i=\texttt{arg max}_k(p_{i,k}), i=1..N` (indices of the most probable mixture component for each sample).
 
 The trained model can be used further for prediction, just like any other classifier. The trained model is similar to the
-:ocv:class:`CvBayesClassifier`.
+:ocv:class:`CvNormalBayesClassifier`.
 
 For an example of clustering random samples of the multi-Gaussian distribution using EM, see ``em.cpp`` sample in the OpenCV distribution.
 
index e16a526..38e0481 100644 (file)
@@ -161,7 +161,7 @@ Default and training constructors.
 \r
 .. ocv:function:: CvGBTrees::CvGBTrees( const Mat& trainData, int tflag, const Mat& responses, const Mat& varIdx=Mat(), const Mat& sampleIdx=Mat(), const Mat& varType=Mat(), const Mat& missingDataMask=Mat(), CvGBTreesParams params=CvGBTreesParams() )\r
 \r
-.. ocv:function::CvGBTrees::CvGBTrees( const CvMat* trainData, int tflag, const CvMat* responses, const CvMat* varIdx=0, const CvMat* sampleIdx=0, const CvMat* varType=0, const CvMat* missingDataMask=0, CvGBTreesParams params=CvGBTreesParams() )\r
+.. ocv:function:: CvGBTrees::CvGBTrees( const CvMat* trainData, int tflag, const CvMat* responses, const CvMat* varIdx=0, const CvMat* sampleIdx=0, const CvMat* varType=0, const CvMat* missingDataMask=0, CvGBTreesParams params=CvGBTreesParams() )\r
 \r
 .. ocv:pyfunction:: cv2.GBTrees([trainData, tflag, responses[, varIdx[, sampleIdx[, varType[, missingDataMask[, params]]]]]]) -> <GBTrees object>\r
 \r
@@ -173,9 +173,9 @@ Trains a Gradient boosted tree model.
 \r
 .. ocv:function:: bool CvGBTrees::train(const Mat& trainData, int tflag, const Mat& responses, const Mat& varIdx=Mat(), const Mat& sampleIdx=Mat(), const Mat& varType=Mat(), const Mat& missingDataMask=Mat(), CvGBTreesParams params=CvGBTreesParams(), bool update=false)\r
 \r
-.. ocv:function::bool CvGBTrees::train( const CvMat* trainData, int tflag, const CvMat* responses, const CvMat* varIdx=0, const CvMat* sampleIdx=0, const CvMat* varType=0, const CvMat* missingDataMask=0, CvGBTreesParams params=CvGBTreesParams(), bool update=false )\r
+.. ocv:function:: bool CvGBTrees::train( const CvMat* trainData, int tflag, const CvMat* responses, const CvMat* varIdx=0, const CvMat* sampleIdx=0, const CvMat* varType=0, const CvMat* missingDataMask=0, CvGBTreesParams params=CvGBTreesParams(), bool update=false )\r
 \r
-.. ocv:function::bool CvGBTrees::train(CvMLData* data, CvGBTreesParams params=CvGBTreesParams(), bool update=false)\r
+.. ocv:function:: bool CvGBTrees::train(CvMLData* data, CvGBTreesParams params=CvGBTreesParams(), bool update=false)\r
 \r
 .. ocv:pyfunction:: cv2.GBTrees.train(trainData, tflag, responses[, varIdx[, sampleIdx[, varType[, missingDataMask[, params[, update]]]]]]) -> retval\r
     \r
@@ -200,7 +200,7 @@ Predicts a response for an input sample.
 \r
 .. ocv:function:: float CvGBTrees::predict(const Mat& sample, const Mat& missing=Mat(), const Range& slice = Range::all(), int k=-1) const\r
 \r
-.. ocv:function::float CvGBTrees::predict( const CvMat* sample, const CvMat* missing=0, CvMat* weakResponses=0, CvSlice slice = CV_WHOLE_SEQ, int k=-1 ) const\r
+.. ocv:function:: float CvGBTrees::predict( const CvMat* sample, const CvMat* missing=0, CvMat* weakResponses=0, CvSlice slice = CV_WHOLE_SEQ, int k=-1 ) const\r
 \r
 .. ocv:pyfunction:: cv2.GBTrees.predict(sample[, missing[, slice[, k]]]) -> retval\r
 \r
@@ -232,7 +232,7 @@ Predicts a response for an input sample.
 The method predicts the response corresponding to the given sample\r
 (see :ref:`Predicting with GBT`).\r
 The result is either the class label or the estimated function value. The\r
-:ocv:func:`predict` method enables using the parallel version of the GBT model\r
+:ocv:func:`CvGBTrees::predict` method enables using the parallel version of the GBT model\r
 prediction if the OpenCV is built with the TBB library. In this case, predictions\r
 of single trees are computed in a parallel fashion. \r
 \r
@@ -264,7 +264,7 @@ Calculates a training or testing error.
    :param resp: If non-zero, a vector of predictions on the corresponding data set is\r
     returned.\r
 \r
-If the :ocv:class:`CvMLData` data is used to store the data set, :ocv:func:`calc_error` can be\r
+If the :ocv:class:`CvMLData` data is used to store the data set, :ocv:func:`CvGBTrees::calc_error` can be\r
 used to get a training/testing error easily and (optionally) all predictions\r
 on the training/testing set. If the Intel* TBB* library is used, the error is computed in a\r
 parallel way, namely, predictions for different samples are computed at the same time.\r
index d4f225f..40059d9 100644 (file)
@@ -19,7 +19,7 @@ Default and training constructors.
 
 .. ocv:function:: CvKNearest::CvKNearest( const Mat& trainData, const Mat& responses, const Mat& sampleIdx=Mat(), bool isRegression=false, int max_k=32 )
 
-.. ocv:function::CvKNearest::CvKNearest( const CvMat* trainData, const CvMat* responses, const CvMat* sampleIdx=0, bool isRegression=false, int max_k=32 )
+.. ocv:function:: CvKNearest::CvKNearest( const CvMat* trainData, const CvMat* responses, const CvMat* sampleIdx=0, bool isRegression=false, int max_k=32 )
 
 See :ocv:func:`CvKNearest::train` for additional parameters descriptions.
 
@@ -29,7 +29,7 @@ Trains the model.
 
 .. ocv:function:: bool CvKNearest::train( const Mat& trainData, const Mat& responses, const Mat& sampleIdx=Mat(), bool isRegression=false, int maxK=32, bool updateBase=false )
 
-.. ocv:function::bool CvKNearest::train( const CvMat* trainData, const CvMat* responses, const CvMat* sampleIdx=0, bool is_regression=false, int maxK=32, bool updateBase=false )
+.. ocv:function:: bool CvKNearest::train( const CvMat* trainData, const CvMat* responses, const CvMat* sampleIdx=0, bool is_regression=false, int maxK=32, bool updateBase=false )
 
 .. ocv:pyfunction:: cv2.KNearest.train(trainData, responses[, sampleIdx[, isRegression[, maxK[, updateBase]]]]) -> retval
 
@@ -39,7 +39,7 @@ Trains the model.
 
     :param updateBase: Specifies whether the model is trained from scratch (``update_base=false``), or it is updated using the new training data (``update_base=true``). In the latter case, the parameter ``maxK`` must not be larger than the original value.
 
-The method trains the K-Nearest model. It follows the conventions of the generic :ocv:func:`CvStataModel::train` approach with the following limitations: 
+The method trains the K-Nearest model. It follows the conventions of the generic :ocv:func:`CvStatModel::train` approach with the following limitations: 
 
 * Only ``CV_ROW_SAMPLE`` data layout is supported.
 * Input variables are all ordered.
@@ -54,7 +54,7 @@ Finds the neighbors and predicts responses for input vectors.
 
 .. ocv:function:: float CvKNearest::find_nearest( const Mat& samples, int k, Mat& results, Mat& neighborResponses, Mat& dists) const
 
-.. ocv:function::float CvKNearest::find_nearest( const CvMat* samples, int k, CvMat* results=0, const float** neighbors=0, CvMat* neighborResponses=0, CvMat* dist=0 ) const
+.. ocv:function:: float CvKNearest::find_nearest( const CvMat* samples, int k, CvMat* results=0, const float** neighbors=0, CvMat* neighborResponses=0, CvMat* dist=0 ) const
 
 .. ocv:pyfunction:: cv2.KNearest.find_nearest(samples, k[, results[, neighborResponses[, dists]]]) -> retval, results, neighborResponses, dists
 
index ea5c8bc..68b7b84 100644 (file)
@@ -182,7 +182,7 @@ The constructors.
 
 .. ocv:function:: CvANN_MLP::CvANN_MLP()
 
-.. ocv:function::CvANN_MLP::CvANN_MLP( const CvMat* layerSizes, int activateFunc=CvANN_MLP::SIGMOID_SYM, double fparam1=0, double fparam2=0 )
+.. ocv:function:: CvANN_MLP::CvANN_MLP( const CvMat* layerSizes, int activateFunc=CvANN_MLP::SIGMOID_SYM, double fparam1=0, double fparam2=0 )
 
 .. ocv:pyfunction:: cv2.ANN_MLP(layerSizes[, activateFunc[, fparam1[, fparam2]]]) -> <ANN_MLP object>
 
@@ -194,7 +194,7 @@ Constructs MLP with the specified topology.
 
 .. ocv:function:: void CvANN_MLP::create( const Mat& layerSizes, int activateFunc=CvANN_MLP::SIGMOID_SYM, double fparam1=0, double fparam2=0 )
 
-.. ocv:function::void CvANN_MLP::create( const CvMat* layerSizes, int activateFunc=CvANN_MLP::SIGMOID_SYM, double fparam1=0, double fparam2=0 )
+.. ocv:function:: void CvANN_MLP::create( const CvMat* layerSizes, int activateFunc=CvANN_MLP::SIGMOID_SYM, double fparam1=0, double fparam2=0 )
 
 .. ocv:pyfunction:: cv2.ANN_MLP.create(layerSizes[, activateFunc[, fparam1[, fparam2]]]) -> None
 
@@ -212,7 +212,7 @@ Trains/updates MLP.
 
 .. ocv:function:: int CvANN_MLP::train( const Mat& inputs, const Mat& outputs, const Mat& sampleWeights, const Mat& sampleIdx=Mat(), CvANN_MLP_TrainParams params = CvANN_MLP_TrainParams(), int flags=0 )
 
-.. ocv:function::int CvANN_MLP::train( const CvMat* inputs, const CvMat* outputs, const CvMat* sampleWeights, const CvMat* sampleIdx=0, CvANN_MLP_TrainParams params = CvANN_MLP_TrainParams(), int flags=0 )
+.. ocv:function:: int CvANN_MLP::train( const CvMat* inputs, const CvMat* outputs, const CvMat* sampleWeights, const CvMat* sampleIdx=0, CvANN_MLP_TrainParams params = CvANN_MLP_TrainParams(), int flags=0 )
 
 .. ocv:pyfunction:: cv2.ANN_MLP.train(inputs, outputs, sampleWeights[, sampleIdx[, params[, flags]]]) -> niterations
 
@@ -242,7 +242,7 @@ Predicts responses for input samples.
 
 .. ocv:function:: float CvANN_MLP::predict( const Mat& inputs, Mat& outputs ) const
 
-.. ocv:function::float CvANN_MLP::predict( const CvMat* inputs, CvMat* outputs ) const
+.. ocv:function:: float CvANN_MLP::predict( const CvMat* inputs, CvMat* outputs ) const
 
 .. ocv:pyfunction:: cv2.ANN_MLP.predict(inputs, outputs) -> retval
 
@@ -262,7 +262,7 @@ CvANN_MLP::get_layer_sizes
 --------------------------
 Returns numbers of neurons in each layer of the MLP.
 
-.. ocv:function::const CvMat* CvANN_MLP::get_layer_sizes()
+.. ocv:function:: const CvMat* CvANN_MLP::get_layer_sizes()
 
 The method returns the integer vector specifying the number of neurons in each layer including the input and output layers of the MLP.
 
index 42af24d..6e21958 100644 (file)
@@ -23,7 +23,7 @@ Default and training constructors.
 
 .. ocv:function:: CvNormalBayesClassifier::CvNormalBayesClassifier( const Mat& trainData, const Mat& responses, const Mat& varIdx=Mat(), const Mat& sampleIdx=Mat() )
 
-.. ocv:function::CvNormalBayesClassifier::CvNormalBayesClassifier( const CvMat* trainData, const CvMat* responses, const CvMat* varIdx=0, const CvMat* sampleIdx=0 )
+.. ocv:function:: CvNormalBayesClassifier::CvNormalBayesClassifier( const CvMat* trainData, const CvMat* responses, const CvMat* varIdx=0, const CvMat* sampleIdx=0 )
 
 .. ocv:pyfunction:: cv2.NormalBayesClassifier(trainData, responses[, varIdx[, sampleIdx]]) -> <NormalBayesClassifier object>
 
@@ -35,7 +35,7 @@ Trains the model.
 
 .. ocv:function:: bool CvNormalBayesClassifier::train( const Mat& trainData, const Mat& responses, const Mat& varIdx = Mat(), const Mat& sampleIdx=Mat(), bool update=false )
 
-.. ocv:function::bool CvNormalBayesClassifier::train( const CvMat* trainData, const CvMat* responses, const CvMat* varIdx = 0, const CvMat* sampleIdx=0, bool update=false )
+.. ocv:function:: bool CvNormalBayesClassifier::train( const CvMat* trainData, const CvMat* responses, const CvMat* varIdx = 0, const CvMat* sampleIdx=0, bool update=false )
 
 .. ocv:pyfunction:: cv2.NormalBayesClassifier.train(trainData, responses[, varIdx[, sampleIdx[, update]]]) -> retval
 
@@ -54,7 +54,7 @@ Predicts the response for sample(s).
 
 .. ocv:function:: float CvNormalBayesClassifier::predict(  const Mat& samples,  Mat* results=0 ) const
 
-.. ocv:function::float CvNormalBayesClassifier::predict( const CvMat* samples, CvMat* results=0 ) const
+.. ocv:function:: float CvNormalBayesClassifier::predict( const CvMat* samples, CvMat* results=0 ) const
 
 .. ocv:pyfunction:: cv2.NormalBayesClassifier.predict(samples) -> retval, results
 
index 84a50c2..e3f2f89 100644 (file)
@@ -98,9 +98,9 @@ Trains the Random Trees model.
 
 .. ocv:function:: bool CvRTrees::train( const Mat& trainData, int tflag, const Mat& responses, const Mat& varIdx=Mat(), const Mat& sampleIdx=Mat(), const Mat& varType=Mat(), const Mat& missingDataMask=Mat(), CvRTParams params=CvRTParams() )
 
-.. ocv:function::bool CvRTrees::train( const CvMat* trainData, int tflag, const CvMat* responses, const CvMat* varIdx=0, const CvMat* sampleIdx=0, const CvMat* varType=0, const CvMat* missingDataMask=0, CvRTParams params=CvRTParams() )
+.. ocv:function:: bool CvRTrees::train( const CvMat* trainData, int tflag, const CvMat* responses, const CvMat* varIdx=0, const CvMat* sampleIdx=0, const CvMat* varType=0, const CvMat* missingDataMask=0, CvRTParams params=CvRTParams() )
 
-.. ocv:function::bool CvRTrees::train( CvMLData* data, CvRTParams params=CvRTParams() )
+.. ocv:function:: bool CvRTrees::train( CvMLData* data, CvRTParams params=CvRTParams() )
 
 .. ocv:pyfunction:: cv2.RTrees.train(trainData, tflag, responses[, varIdx[, sampleIdx[, varType[, missingDataMask[, params]]]]]) -> retval
 
@@ -112,7 +112,7 @@ Predicts the output for an input sample.
 
 .. ocv:function:: double CvRTrees::predict(  const Mat& sample,  const Mat& missing=Mat() ) const
 
-.. ocv:function::float CvRTrees::predict( const CvMat* sample, const CvMat* missing = 0 ) const
+.. ocv:function:: float CvRTrees::predict( const CvMat* sample, const CvMat* missing = 0 ) const
 
 .. ocv:pyfunction:: cv2.RTrees.predict(sample[, missing]) -> retval
 
@@ -129,7 +129,7 @@ Returns a fuzzy-predicted class label.
 
 .. ocv:function:: float CvRTrees::predict_prob( const cv::Mat& sample, const cv::Mat& missing = cv::Mat() ) const
 
-.. ocv:function::float CvRTrees::predict_prob( const CvMat* sample, const CvMat* missing = 0 ) const
+.. ocv:function:: float CvRTrees::predict_prob( const CvMat* sample, const CvMat* missing = 0 ) const
 
 .. ocv:pyfunction:: cv2.RTrees.predict_prob(sample[, missing]) -> retval
 
@@ -146,7 +146,7 @@ Returns the variable importance array.
 
 .. ocv:function:: Mat CvRTrees::getVarImportance()
 
-.. ocv:function::const CvMat* CvRTrees::get_var_importance()
+.. ocv:function:: const CvMat* CvRTrees::get_var_importance()
 
 .. ocv:pyfunction:: cv2.RTrees.getVarImportance() -> importanceVector
 
@@ -157,7 +157,7 @@ CvRTrees::get_proximity
 -----------------------
 Retrieves the proximity measure between two training samples.
 
-.. ocv:function::float CvRTrees::get_proximity( const CvMat* sample1, const CvMat* sample2, const CvMat* missing1 = 0, const CvMat* missing2 = 0 ) const
+.. ocv:function:: float CvRTrees::get_proximity( const CvMat* sample1, const CvMat* sample2, const CvMat* missing1 = 0, const CvMat* missing2 = 0 ) const
 
     :param sample_1: The first sample.
 
@@ -173,7 +173,7 @@ CvRTrees::calc_error
 --------------------
 Returns error of the random forest.
 
-.. ocv:function::float CvRTrees::calc_error( CvMLData* data, int type, std::vector<float> *resp = 0 )
+.. ocv:function:: float CvRTrees::calc_error( CvMLData* data, int type, std::vector<float> *resp = 0 )
 
 The method is identical to :ocv:func:`CvDTree::calc_error` but uses the random forest as predictor.
 
@@ -191,7 +191,7 @@ CvRTrees::get_rng
 -----------------
 Returns the state of the used random number generator.
 
-.. ocv:function::CvRNG* CvRTrees::get_rng()
+.. ocv:function:: CvRNG* CvRTrees::get_rng()
 
 
 CvRTrees::get_tree_count
index 8e2bb01..cb5465d 100644 (file)
@@ -120,7 +120,7 @@ Reads the model from the file storage.
 .. ocv:function:: void CvStatModel::read( CvFileStorage* storage, CvFileNode* node )
 
 The method ``read`` restores the complete model state from the specified node of the file storage. Use the function
-:ocv:func:`GetFileNodeByName` to locate the node.
+:ocv:cfunc:`GetFileNodeByName` to locate the node.
 
 The previous model state is cleared by :ocv:func:`CvStatModel::clear`.
 
index e0a5414..1160da9 100644 (file)
@@ -158,7 +158,7 @@ Default and training constructors.
 
 .. ocv:function:: CvSVM::CvSVM( const Mat& trainData, const Mat& responses, const Mat& varIdx=Mat(), const Mat& sampleIdx=Mat(), CvSVMParams params=CvSVMParams() )
 
-.. ocv:function::CvSVM::CvSVM( const CvMat* trainData, const CvMat* responses, const CvMat* varIdx=0, const CvMat* sampleIdx=0, CvSVMParams params=CvSVMParams() )
+.. ocv:function:: CvSVM::CvSVM( const CvMat* trainData, const CvMat* responses, const CvMat* varIdx=0, const CvMat* sampleIdx=0, CvSVMParams params=CvSVMParams() )
 
 .. ocv:pyfunction:: cv2.SVM(trainData, responses[, varIdx[, sampleIdx[, params]]]) -> <SVM object>
 
@@ -170,7 +170,7 @@ Trains an SVM.
 
 .. ocv:function:: bool CvSVM::train( const Mat& trainData, const Mat& responses, const Mat& varIdx=Mat(), const Mat& sampleIdx=Mat(), CvSVMParams params=CvSVMParams() )
 
-.. ocv:function::bool CvSVM::train( const CvMat* trainData, const CvMat* responses, const CvMat* varIdx=0, const CvMat* sampleIdx=0, CvSVMParams params=CvSVMParams() )
+.. ocv:function:: bool CvSVM::train( const CvMat* trainData, const CvMat* responses, const CvMat* varIdx=0, const CvMat* sampleIdx=0, CvSVMParams params=CvSVMParams() )
 
 .. ocv:pyfunction:: cv2.SVM.train(trainData, responses[, varIdx[, sampleIdx[, params]]]) -> retval
 
@@ -194,7 +194,7 @@ Trains an SVM with optimal parameters.
 
 .. ocv:function:: bool CvSVM::train_auto( const Mat& trainData, const Mat& responses, const Mat& varIdx, const Mat& sampleIdx, CvSVMParams params, int k_fold = 10, CvParamGrid Cgrid = CvSVM::get_default_grid(CvSVM::C), CvParamGrid gammaGrid = CvSVM::get_default_grid(CvSVM::GAMMA), CvParamGrid pGrid = CvSVM::get_default_grid(CvSVM::P), CvParamGrid nuGrid  = CvSVM::get_default_grid(CvSVM::NU), CvParamGrid coeffGrid = CvSVM::get_default_grid(CvSVM::COEF), CvParamGrid degreeGrid = CvSVM::get_default_grid(CvSVM::DEGREE), bool balanced=false)
 
-.. ocv:function::bool CvSVM::train_auto( const CvMat* trainData, const CvMat* responses, const CvMat* varIdx, const CvMat* sampleIdx, CvSVMParams params, int kfold = 10, CvParamGrid Cgrid = get_default_grid(CvSVM::C), CvParamGrid gammaGrid = get_default_grid(CvSVM::GAMMA), CvParamGrid pGrid = get_default_grid(CvSVM::P), CvParamGrid nuGrid = get_default_grid(CvSVM::NU), CvParamGrid coeffGrid = get_default_grid(CvSVM::COEF), CvParamGrid degreeGrid = get_default_grid(CvSVM::DEGREE), bool balanced=false )
+.. ocv:function:: bool CvSVM::train_auto( const CvMat* trainData, const CvMat* responses, const CvMat* varIdx, const CvMat* sampleIdx, CvSVMParams params, int kfold = 10, CvParamGrid Cgrid = get_default_grid(CvSVM::C), CvParamGrid gammaGrid = get_default_grid(CvSVM::GAMMA), CvParamGrid pGrid = get_default_grid(CvSVM::P), CvParamGrid nuGrid = get_default_grid(CvSVM::NU), CvParamGrid coeffGrid = get_default_grid(CvSVM::COEF), CvParamGrid degreeGrid = get_default_grid(CvSVM::DEGREE), bool balanced=false )
 
 .. ocv:pyfunction:: cv2.SVM.train_auto(trainData, responses, varIdx, sampleIdx, params[, k_fold[, Cgrid[, gammaGrid[, pGrid[, nuGrid[, coeffGrid[, degreeGrid[, balanced]]]]]]]]) -> retval
 
@@ -226,9 +226,9 @@ Predicts the response for input sample(s).
 
 .. ocv:function:: float CvSVM::predict( const Mat& sample, bool returnDFVal=false ) const
 
-.. ocv:function::float CvSVM::predict( const CvMat* sample, bool returnDFVal=false ) const
+.. ocv:function:: float CvSVM::predict( const CvMat* sample, bool returnDFVal=false ) const
 
-.. ocv:function::float CvSVM::predict( const CvMat* samples, CvMat* results ) const
+.. ocv:function:: float CvSVM::predict( const CvMat* samples, CvMat* results ) const
 
 .. ocv:pyfunction:: cv2.SVM.predict(sample[, returnDFVal]) -> retval
 
index 8d85ab8..512c2cb 100644 (file)
@@ -283,7 +283,7 @@ The function calculates a gradient orientation at each pixel
     \texttt{orientation} (x,y)= \arctan{\frac{d\texttt{mhi}/dy}{d\texttt{mhi}/dx}}
 
 In fact,
-:ocv:func:`fastArctan` and
+:ocv:func:`fastAtan2` and
 :ocv:func:`phase` are used so that the computed angle is measured in degrees and covers the full range 0..360. Also, the ``mask`` is filled to indicate pixels where the computed angle is valid.