Spell checked the documentation with VIM (issue #223)
authorIlya Lysenkov <no@email>
Fri, 13 Apr 2012 19:04:44 +0000 (19:04 +0000)
committerIlya Lysenkov <no@email>
Fri, 13 Apr 2012 19:04:44 +0000 (19:04 +0000)
49 files changed:
modules/core/doc/basic_structures.rst
modules/core/doc/clustering.rst
modules/core/doc/drawing_functions.rst
modules/core/doc/dynamic_structures.rst
modules/core/doc/intro.rst
modules/core/doc/old_basic_structures.rst
modules/core/doc/old_xml_yaml_persistence.rst
modules/core/doc/operations_on_arrays.rst
modules/core/doc/utility_and_system_functions_and_macros.rst
modules/core/doc/xml_yaml_persistence.rst
modules/features2d/doc/common_interfaces_of_feature_detectors.rst
modules/features2d/doc/common_interfaces_of_generic_descriptor_matchers.rst
modules/features2d/doc/feature_detection_and_description.rst
modules/features2d/doc/object_categorization.rst
modules/flann/doc/flann_clustering.rst
modules/flann/doc/flann_fast_approximate_nearest_neighbor_search.rst
modules/gpu/doc/camera_calibration_and_3d_reconstruction.rst
modules/gpu/doc/data_structures.rst
modules/gpu/doc/feature_detection_and_description.rst
modules/gpu/doc/image_filtering.rst
modules/gpu/doc/image_processing.rst
modules/gpu/doc/introduction.rst
modules/gpu/doc/operations_on_matrices.rst
modules/highgui/doc/highgui.rst
modules/highgui/doc/qt_new_functions.rst
modules/highgui/doc/reading_and_writing_images_and_video.rst
modules/highgui/doc/user_interface.rst
modules/imgproc/doc/feature_detection.rst
modules/imgproc/doc/filtering.rst
modules/imgproc/doc/histograms.rst
modules/imgproc/doc/miscellaneous_transformations.rst
modules/imgproc/doc/motion_analysis_and_object_tracking.rst
modules/imgproc/doc/planar_subdivisions.rst
modules/imgproc/doc/structural_analysis_and_shape_descriptors.rst
modules/ml/doc/boosting.rst
modules/ml/doc/decision_trees.rst
modules/ml/doc/ertrees.rst
modules/ml/doc/expectation_maximization.rst
modules/ml/doc/gradient_boosted_trees.rst
modules/ml/doc/mldata.rst
modules/ml/doc/neural_networks.rst
modules/ml/doc/random_trees.rst
modules/ml/doc/statistical_models.rst
modules/ml/doc/support_vector_machines.rst
modules/objdetect/doc/cascade_classification.rst
modules/objdetect/doc/latent_svm.rst
modules/photo/doc/inpainting.rst
modules/stitching/doc/motion_estimation.rst
modules/video/doc/motion_analysis_and_object_tracking.rst

index 9ed1e2e..2d49f60 100644 (file)
@@ -42,7 +42,7 @@ The main purpose of this class is to convert compilation-time type information t
     cout << B.depth() << ", " << B.channels() << endl;
 
 
-So, such traits are used to tell OpenCV which data type you are working with, even if such a type is not native to OpenCV. For example, the matrix ``B`` intialization above is compiled because OpenCV defines the proper specialized template class ``DataType<complex<_Tp> >`` . This mechanism is also useful (and used in OpenCV this way) for generic algorithms implementations.
+So, such traits are used to tell OpenCV which data type you are working with, even if such a type is not native to OpenCV. For example, the matrix ``B`` initialization above is compiled because OpenCV defines the proper specialized template class ``DataType<complex<_Tp> >`` . This mechanism is also useful (and used in OpenCV this way) for generic algorithms implementations.
 
 
 Point\_
@@ -100,7 +100,7 @@ Size\_
 ------
 .. ocv:class:: Size_
 
-Template class for specfying the size of an image or rectangle. The class includes two members called ``width`` and ``height``. The structure can be converted to and from the old OpenCV structures
+Template class for specifying the size of an image or rectangle. The class includes two members called ``width`` and ``height``. The structure can be converted to and from the old OpenCV structures
 ``CvSize`` and ``CvSize2D32f`` . The same set of arithmetic and comparison operations as for ``Point_`` is available.
 
 OpenCV defines the following ``Size_<>`` aliases: ::
@@ -372,7 +372,7 @@ This class provides the following options:
 *
     Heterogeneous collections of objects. The standard STL and most other C++ and OpenCV containers can store only objects of the same type and the same size. The classical solution to store objects of different types in the same container is to store pointers to the base class ``base_class_t*``     instead but then you loose the automatic memory management. Again, by using ``Ptr<base_class_t>()``     instead of the raw pointers, you can solve the problem.
 
-The ``Ptr`` class treats the wrapped object as a black box. The reference counter is allocated and managed separately. The only thing the pointer class needs to know about the object is how to deallocate it. This knowledge is incapsulated in the ``Ptr::delete_obj()`` method that is called when the reference counter becomes 0. If the object is a C++ class instance, no additional coding is needed, because the default implementation of this method calls ``delete obj;`` .
+The ``Ptr`` class treats the wrapped object as a black box. The reference counter is allocated and managed separately. The only thing the pointer class needs to know about the object is how to deallocate it. This knowledge is encapsulated in the ``Ptr::delete_obj()`` method that is called when the reference counter becomes 0. If the object is a C++ class instance, no additional coding is needed, because the default implementation of this method calls ``delete obj;`` .
 However, if the object is deallocated in a different way, the specialized method should be created. For example, if you want to wrap ``FILE`` , the ``delete_obj`` may be implemented as follows: ::
 
     template<> inline void Ptr<FILE>::delete_obj()
@@ -711,7 +711,7 @@ This is a list of implemented matrix operations that can be combined in arbitrar
 *
     ``Mat_<destination_type>()`` constructors to cast the result to the proper type.
 
-.. note:: Comma-separated initializers and probably some other operations may require additional explicit ``Mat()`` or ``Mat_<T>()`` constuctor calls to resolve a possible ambiguity.
+.. note:: Comma-separated initializers and probably some other operations may require additional explicit ``Mat()`` or ``Mat_<T>()`` constructor calls to resolve a possible ambiguity.
 
 Here are examples of matrix expressions:
 
@@ -892,7 +892,7 @@ The method makes a new header for the specified matrix row and returns it. This
         // works, but looks a bit obscure.
         A.row(i) = A.row(j) + 0;
 
-        // this is a bit longe, but the recommended method.
+        // this is a bit longer, but the recommended method.
         A.row(j).copyTo(A.row(i));
 
 Mat::col
@@ -998,7 +998,7 @@ When the operation mask is specified, and the ``Mat::create`` call shown above r
 
 Mat::convertTo
 ------------------
-Converts an array to another datatype with optional scaling.
+Converts an array to another data type with optional scaling.
 
 .. ocv:function:: void Mat::convertTo( OutputArray m, int rtype, double alpha=1, double beta=0 ) const
 
@@ -1010,7 +1010,7 @@ Converts an array to another datatype with optional scaling.
 
     :param beta: Optional delta added to the scaled values.
 
-The method converts source pixel values to the target datatype. ``saturate_cast<>`` is applied at the end to avoid possible overflows:
+The method converts source pixel values to the target data type. ``saturate_cast<>`` is applied at the end to avoid possible overflows:
 
 .. math::
 
@@ -1602,7 +1602,7 @@ The method returns a matrix size: ``Size(cols, rows)`` . When the matrix is more
 
 Mat::empty
 --------------
-Returns ``true`` if the array has no elemens.
+Returns ``true`` if the array has no elements.
 
 .. ocv:function:: bool Mat::empty() const
 
index 425f682..6788651 100644 (file)
@@ -23,7 +23,7 @@ Finds centers of clusters and groups input samples around the clusters.
 
     :param criteria: The algorithm termination criteria, that is, the maximum number of iterations and/or the desired accuracy. The accuracy is specified as ``criteria.epsilon``. As soon as each of the cluster centers moves by less than ``criteria.epsilon`` on some iteration, the algorithm stops.
 
-    :param attempts: Flag to specify the number of times the algorithm is executed using different initial labelings. The algorithm returns the labels that yield the best compactness (see the last function parameter).
+    :param attempts: Flag to specify the number of times the algorithm is executed using different initial labellings. The algorithm returns the labels that yield the best compactness (see the last function parameter).
 
     :param rng: CvRNG state initialized by RNG().
 
index 06c6d8d..a4d8dce 100644 (file)
@@ -210,7 +210,7 @@ Fills the area bounded by one or more polygons.
     :param offset: Optional offset of all points of the contours.
 
 The function ``fillPoly`` fills an area bounded by several polygonal contours. The function can fill complex areas, for example,
-areas with holes, contours with self-intersections (some of thier parts), and so forth.
+areas with holes, contours with self-intersections (some of their parts), and so forth.
 
 
 
@@ -415,7 +415,7 @@ Draws a simple, thick, or filled up-right rectangle.
 
     :param pt1: Vertex of the rectangle.
 
-    :param pt2: Vertex of the recangle opposite to  ``pt1`` .
+    :param pt2: Vertex of the rectangle opposite to  ``pt1`` .
     
     :param r: Alternative specification of the drawn rectangle.
 
index ab38ada..909212d 100644 (file)
@@ -34,7 +34,7 @@ A storage for various OpenCV dynamic data structures, such as ``CvSeq``, ``CvSet
 
 Memory storage is a low-level structure used to store dynamically growing data structures such as sequences, contours, graphs, subdivisions, etc. It is organized as a list of memory blocks of equal size -
 ``bottom`` field is the beginning of the list of blocks and ``top`` is the currently used block, but not necessarily the last block of the list. All blocks between ``bottom`` and ``top``, not including the
-latter, are considered fully occupied; all blocks between ``top`` and the last block, not including  ``top``, are considered free and ``top`` itself is partly ocupied - ``free_space`` contains the number of free bytes left in the end of ``top``.
+latter, are considered fully occupied; all blocks between ``top`` and the last block, not including  ``top``, are considered free and ``top`` itself is partly occupied - ``free_space`` contains the number of free bytes left in the end of ``top``.
 
 A new memory buffer that may be allocated explicitly by :ocv:cfunc:`MemStorageAlloc` function or implicitly by higher-level functions, such as :ocv:cfunc:`SeqPush`,  :ocv:cfunc:`GraphAddEdge` etc.
 
@@ -344,7 +344,7 @@ Creates structure for depth-first graph traversal.
 
             * **CV_GRAPH_BACK_EDGE** stop at back edges ( ``back edge``  is an edge connecting the last visited vertex with some of its ancestors in the search tree)
 
-            * **CV_GRAPH_FORWARD_EDGE** stop at forward edges ( ``forward edge``  is an edge conecting the last visited vertex with some of its descendants in the search tree. The forward edges are only possible during oriented graph traversal)
+            * **CV_GRAPH_FORWARD_EDGE** stop at forward edges ( ``forward edge``  is an edge connecting the last visited vertex with some of its descendants in the search tree. The forward edges are only possible during oriented graph traversal)
 
             * **CV_GRAPH_CROSS_EDGE** stop at cross edges ( ``cross edge``  is an edge connecting different search trees or branches of the same tree. The  ``cross edges``  are only possible during oriented graph traversal)
 
@@ -721,7 +721,7 @@ The function removes a vertex from the graph by using its pointer together with
 
 GraphVtxDegree
 --------------
-Counts the number of edges indicent to the vertex.
+Counts the number of edges incident to the vertex.
 
 .. ocv:cfunction:: int cvGraphVtxDegree( const CvGraph* graph, int vtxIdx )
 
@@ -1228,7 +1228,7 @@ Searches for an element in a sequence.
 
     :param elem_idx: Output parameter; index of the found element
 
-    :param userdata: The user parameter passed to the compasion function; helps to avoid global variables in some cases
+    :param userdata: The user parameter passed to the comparison function; helps to avoid global variables in some cases
 
 ::
 
@@ -1271,7 +1271,7 @@ Sorts sequence element using the specified comparison function.
 
     :param func: The comparison function that returns a negative, zero, or positive value depending on the relationships among the elements (see the above declaration and the example below) - a similar function is used by  ``qsort``  from C runline except that in the latter,  ``userdata``  is not used
 
-    :param userdata: The user parameter passed to the compasion function; helps to avoid global variables in some cases
+    :param userdata: The user parameter passed to the comparison function; helps to avoid global variables in some cases
 
 ::
 
@@ -1558,5 +1558,5 @@ Gathers all node pointers to a single sequence.
 
     :param storage: Container for the sequence
 
-The function puts pointers of all nodes reacheable from  ``first`` into a single sequence. The pointers are written sequentially in the depth-first order.
+The function puts pointers of all nodes reachable from  ``first`` into a single sequence. The pointers are written sequentially in the depth-first order.
 
index fac19ae..106d698 100644 (file)
@@ -91,7 +91,7 @@ you can use::
 
    Ptr<T> ptr = new T(...);
 
-That is, ``Ptr<T> ptr`` incapsulates a pointer to a ``T`` instance and a reference counter associated with the pointer. See the 
+That is, ``Ptr<T> ptr`` encapsulates a pointer to a ``T`` instance and a reference counter associated with the pointer. See the 
 :ocv:class:`Ptr` 
 description for details.
 
index 790de4f..748f3a0 100644 (file)
@@ -750,7 +750,7 @@ or:
 
 DotProduct
 ----------
-Calculates the dot product of two arrays in Euclidian metrics.
+Calculates the dot product of two arrays in Euclidean metrics.
 
 .. ocv:cfunction:: double cvDotProduct(const CvArr* src1, const CvArr* src2)
 .. ocv:pyoldfunction:: cv.DotProduct(src1, src2)-> double
@@ -937,7 +937,7 @@ The function provides an easy way to handle both types of arrays - ``IplImage``
 
 .. seealso:: :ocv:cfunc:`GetImage`, :ocv:func:`cvarrToMat`.
 
-.. note:: If the input array is ``IplImage`` with planar data layout and COI set, the function returns the pointer to the selected plane and ``COI == 0``. This feature allows user to process ``IplImage`` strctures with planar data layout, even though OpenCV does not support such images.
+.. note:: If the input array is ``IplImage`` with planar data layout and COI set, the function returns the pointer to the selected plane and ``COI == 0``. This feature allows user to process ``IplImage`` structures with planar data layout, even though OpenCV does not support such images.
 
 GetNextSparseNode
 -----------------
index 1bfd17e..f79ed54 100644 (file)
@@ -144,7 +144,7 @@ Type information. ::
 
 ..
 
-The structure contains information about one of the standard or user-defined types. Instances of the type may or may not contain a pointer to the corresponding  :ocv:struct:`CvTypeInfo` structure. In any case, there is a way to find the type info structure for a given object using the  :ocv:cfunc:`TypeOf` function. Aternatively, type info can be found by type name using :ocv:cfunc:`FindType`, which is used when an object is read from file storage. The user can register a new type with :ocv:cfunc:`RegisterType`
+The structure contains information about one of the standard or user-defined types. Instances of the type may or may not contain a pointer to the corresponding  :ocv:struct:`CvTypeInfo` structure. In any case, there is a way to find the type info structure for a given object using the  :ocv:cfunc:`TypeOf` function. Alternatively, type info can be found by type name using :ocv:cfunc:`FindType`, which is used when an object is read from file storage. The user can register a new type with :ocv:cfunc:`RegisterType`
 that adds the type information structure into the beginning of the type list. Thus, it is possible to create specialized types from generic standard types and override the basic methods.
 
 Clone
@@ -215,7 +215,7 @@ Finds a node in a map or file storage.
     :param name: The file node name 
 
 The function finds a file node by ``name``. The node is searched either in ``map`` or, if the pointer is NULL, among the top-level file storage nodes. Using this function for maps and  :ocv:cfunc:`GetSeqElem`
-(or sequence reader) for sequences, it is possible to nagivate through the file storage. To speed up multiple queries for a certain key (e.g., in the case of an array of structures) one may use a combination of  :ocv:cfunc:`GetHashedKey` and :ocv:cfunc:`GetFileNode`.
+(or sequence reader) for sequences, it is possible to navigate through the file storage. To speed up multiple queries for a certain key (e.g., in the case of an array of structures) one may use a combination of  :ocv:cfunc:`GetHashedKey` and :ocv:cfunc:`GetFileNode`.
 
 GetFileNodeName
 ---------------
@@ -629,7 +629,7 @@ The function finishes the currently written stream and starts the next stream. I
     </opencv_storage>
     ...
 
-The YAML file will look like this: ::
+The YAML file will look like this: ::
 
     %YAML:1.0
     # stream #1 data
@@ -722,7 +722,7 @@ Writes an object to file storage.
 
     :param ptr: Pointer to the object 
 
-    :param attributes: The attributes of the object. They are specific for each particular type (see the dicsussion below).
+    :param attributes: The attributes of the object. They are specific for each particular type (see the discussion below).
 
 The function writes an object to file storage. First, the appropriate type info is found using :ocv:cfunc:`TypeOf`. Then, the ``write`` method associated with the type info is called.
 
@@ -796,7 +796,7 @@ Writes a file node to another file storage.
 
     :param node: The written node 
 
-    :param embed: If the written node is a collection and this parameter is not zero, no extra level of hiararchy is created. Instead, all the elements of  ``node``  are written into the currently written structure. Of course, map elements can only be embedded into another map, and sequence elements can only be embedded into another sequence. 
+    :param embed: If the written node is a collection and this parameter is not zero, no extra level of hierarchy is created. Instead, all the elements of  ``node``  are written into the currently written structure. Of course, map elements can only be embedded into another map, and sequence elements can only be embedded into another sequence. 
 
 The function writes a copy of a file node to file storage. Possible applications of the function are merging several file storages into one and conversion between XML and YAML formats.
 
index 4ffbaa4..979e21f 100644 (file)
@@ -208,7 +208,7 @@ Calculates the per-element bit-wise conjunction of two arrays or an array and a
 
     :param src2: Second source array or a scalar.
 
-    :param dst: Destination arrayb that has the same size and type as the input array(s).
+    :param dst: Destination array that has the same size and type as the input array(s).
     
     :param mask: Optional operation mask, 8-bit single channel array, that specifies elements of the destination array to be changed.
 
@@ -1213,7 +1213,7 @@ Performs generalized matrix multiplication.
 .. ocv:pyfunction:: cv2.gemm(src1, src2, alpha, src3, gamma[, dst[, flags]]) -> dst
 
 .. ocv:cfunction:: void cvGEMM( const CvArr* src1, const CvArr* src2, double alpha, const CvArr* src3, double beta, CvArr* dst, int tABC=0)
-.. ocv:pyoldfunction:: cv.GEMM(src1, src2, alphs, src3, beta, dst, tABC=0)-> None
+.. ocv:pyoldfunction:: cv.GEMM(src1, src2, alpha, src3, beta, dst, tABC=0)-> None
 
     :param src1: First multiplied input matrix that should have  ``CV_32FC1`` , ``CV_64FC1`` , ``CV_32FC2`` , or  ``CV_64FC2``  type.
 
@@ -1404,7 +1404,7 @@ The function checks the range as follows:
 
 That is, ``dst`` (I) is set to 255 (all ``1`` -bits) if ``src`` (I) is within the specified 1D, 2D, 3D, ... box and 0 otherwise.
 
-When the lower and/or upper bounary parameters are scalars, the indexes ``(I)`` at ``lowerb`` and ``upperb`` in the above formulas should be omitted.
+When the lower and/or upper boundary parameters are scalars, the indexes ``(I)`` at ``lowerb`` and ``upperb`` in the above formulas should be omitted.
 
 
 invert
@@ -1429,7 +1429,7 @@ Finds the inverse or pseudo-inverse of a matrix.
 
             * **DECOMP_SVD** Singular value decomposition (SVD) method.
 
-            * **DECOMP_CHOLESKY** Cholesky decomposion. The matrix must be symmetrical and positively defined.
+            * **DECOMP_CHOLESKY** Cholesky decomposition. The matrix must be symmetrical and positively defined.
 
 The function ``invert`` inverts the matrix ``src`` and stores the result in ``dst`` .
 When the matrix ``src`` is singular or non-square, the function computes the pseudo-inverse matrix (the ``dst`` matrix) so that ``norm(src*dst - I)`` is minimal, where I is an identity matrix.
@@ -2128,7 +2128,7 @@ Normalizes the norm or value range of an array.
     
     :param alpha: Norm value to normalize to or the lower range boundary in case of the range normalization.
 
-    :param beta: Upper range boundary in case ofthe range normalization. It is not used for the norm normalization.
+    :param beta: Upper range boundary in case of the range normalization. It is not used for the norm normalization.
 
     :param normType: Normalization type. See the details below.
 
@@ -3054,7 +3054,7 @@ If you need to extract a single channel or do some other sophisticated channel p
 
 sqrt
 ----
-Calculates a quare root of array elements.
+Calculates a square root of array elements.
 
 .. ocv:function:: void sqrt(InputArray src, OutputArray dst)
 
@@ -3236,7 +3236,7 @@ Performs SVD of a matrix
     
     :param vt: Transposed matrix of right singular values
     
-    :param flags: Opertion flags - see :ocv:func:`SVD::SVD`.
+    :param flags: Operation flags - see :ocv:func:`SVD::SVD`.
 
 The methods/functions perform SVD of matrix. Unlike ``SVD::SVD`` constructor and ``SVD::operator()``, they store the results to the user-provided matrices. ::
 
index 1895a41..5751e09 100644 (file)
@@ -31,7 +31,7 @@ Aligns a buffer size to the specified number of bytes.
 
     :param n: Alignment size that must be a power of two.
 
-The function returns the minimum number that is greater or equal to ``sz`` and is divisble by ``n`` :
+The function returns the minimum number that is greater or equal to ``sz`` and is divisible by ``n`` :
 
 .. math::
 
index cd20977..f16b4ed 100644 (file)
@@ -148,7 +148,7 @@ FileStorage
 -----------
 .. ocv:class:: FileStorage
 
-XML/YAML file storage class that incapsulates all the information necessary for writing or reading data to/from a file.
+XML/YAML file storage class that encapsulates all the information necessary for writing or reading data to/from a file.
 
 FileStorage::FileStorage
 ------------------------
@@ -179,7 +179,7 @@ Opens a file.
 
 .. ocv:function:: bool FileStorage::open(const string& filename, int flags, const string& encoding=string())
 
-See description of parameters in :ocv:func:`FileStorage::FileStorage`. The method calls :ocv:func:`FileStorage::release` before openning the file.
+See description of parameters in :ocv:func:`FileStorage::FileStorage`. The method calls :ocv:func:`FileStorage::release` before opening the file.
 
 
 FileStorage::isOpened
@@ -583,7 +583,7 @@ Reads node elements to the buffer with the specified format.
 
     :param vec: Pointer to the destination array.
 
-    :param len: Number of elements to read. If it is greater than number of remaning elements then all of them will be read.
+    :param len: Number of elements to read. If it is greater than number of remaining elements then all of them will be read.
 
 Usually it is more convenient to use :ocv:func:`operator >>` instead of this method.
 
@@ -687,6 +687,6 @@ Reads node elements to the buffer with the specified format.
 
     :param vec: Pointer to the destination array.
 
-    :param maxCount: Number of elements to read. If it is greater than number of remaning elements then all of them will be read.
+    :param maxCount: Number of elements to read. If it is greater than number of remaining elements then all of them will be read.
 
 Usually it is more convenient to use :ocv:func:`operator >>` instead of this method.
index 8a8c2f6..577ac6e 100644 (file)
@@ -500,7 +500,7 @@ The constructor
 
     :param max_features: Maximum desired number of features.
 
-    :param max_iters: Maximum number of times to try adjusting the feature detector parameters. For :ocv:class:`FastAdjuster` , this number can be high, but with ``Star`` or ``Surf``  many iterations can be time-comsuming.  At each iteration the detector is rerun.
+    :param max_iters: Maximum number of times to try adjusting the feature detector parameters. For :ocv:class:`FastAdjuster` , this number can be high, but with ``Star`` or ``Surf``  many iterations can be time-consuming.  At each iteration the detector is rerun.
 
 AdjusterAdapter
 ---------------
index 7289b53..fbe2729 100644 (file)
@@ -196,7 +196,7 @@ Finds the ``k`` best matches for each query keypoint.
 
 .. ocv:function:: void GenericDescriptorMatcher::knnMatch(           const Mat& queryImage, vector<KeyPoint>& queryKeypoints,      vector<vector<DMatch> >& matches, int k,       const vector<Mat>& masks=vector<Mat>(),       bool compactResult=false )
     
-The methods are extended variants of ``GenericDescriptorMatch::match``. The parameters are similar, and the  the semantics is similar to ``DescriptorMatcher::knnMatch``. But this class does not require explicitly computed keypoint descriptors.
+The methods are extended variants of ``GenericDescriptorMatch::match``. The parameters are similar, and the semantics is similar to ``DescriptorMatcher::knnMatch``. But this class does not require explicitly computed keypoint descriptors.
 
 
 
index ae90623..6638b26 100644 (file)
@@ -15,7 +15,7 @@ Detects corners using the FAST algorithm
 
     :param threshold: Threshold on difference between intensity of the central pixel and pixels on a circle around this pixel. See the algorithm description below.
 
-    :param nonmaxSupression: If it is true, non-maximum supression is applied to detected corners (keypoints).
+    :param nonmaxSupression: If it is true, non-maximum suppression is applied to detected corners (keypoints).
 
 Detects corners using the FAST algorithm by E. Rosten (*Machine Learning for High-speed Corner Detection*, 2006).
 
@@ -43,7 +43,7 @@ Maximally stable extremal region extractor. ::
     };
 
 The class encapsulates all the parameters of the MSER extraction algorithm (see
-http://en.wikipedia.org/wiki/Maximally_stable_extremal_regions). Also see http://opencv.willowgarage.com/wiki/documentation/cpp/features2d/MSER for usefull comments and parameters description.
+http://en.wikipedia.org/wiki/Maximally_stable_extremal_regions). Also see http://opencv.willowgarage.com/wiki/documentation/cpp/features2d/MSER for useful comments and parameters description.
 
 
 StarDetector
index a5f82b5..d952092 100644 (file)
@@ -186,7 +186,7 @@ Computes an image descriptor using the set visual vocabulary.
 
 BOWImgDescriptorExtractor::descriptorSize
 ---------------------------------------------
-Returns an image discriptor size if the vocabulary is set. Otherwise, it returns 0.
+Returns an image descriptor size if the vocabulary is set. Otherwise, it returns 0.
 
 .. ocv:function:: int BOWImgDescriptorExtractor::descriptorSize() const
 
index 8dd2fa0..1e065d3 100644 (file)
@@ -11,7 +11,7 @@ Clusters features using hierarchical k-means algorithm.
 
     :param features: The points to be clustered. The matrix must have elements of type ``Distance::ElementType``.
     
-    :param centers: The centers of the clusters obtained. The matrix must have type Distance::ResultType. The number of rows in this matrix represents the number of clusters desired, however, because of the way the cut in the hierarchical tree is chosen, the number of clusters computed will be the highest number of the form  ``(branching-1)*k+1``  that's lower than the number of clusters desired, where  ``branching``  is the tree's branching factor (see description of the KMeansIndexParams). 
+    :param centers: The centers of the clusters obtained. The matrix must have type ``Distance::ResultType``. The number of rows in this matrix represents the number of clusters desired, however, because of the way the cut in the hierarchical tree is chosen, the number of clusters computed will be the highest number of the form  ``(branching-1)*k+1``  that's lower than the number of clusters desired, where  ``branching``  is the tree's branching factor (see description of the KMeansIndexParams). 
     
     :param params: Parameters used in the construction of the hierarchical k-means tree.
 
index 05ef45a..de2781a 100644 (file)
@@ -71,7 +71,7 @@ The method constructs a fast search structure from a set of features using the s
     
            * **centers_init** The algorithm to use for selecting the initial centers when performing a k-means clustering step. The possible values are  ``CENTERS_RANDOM``  (picks the initial cluster centers randomly),  ``CENTERS_GONZALES``  (picks the initial centers using Gonzales' algorithm) and  ``CENTERS_KMEANSPP``  (picks the initial centers using the algorithm suggested in  arthur_kmeanspp_2007 ) 
     
-           * **cb_index** This parameter (cluster boundary index) influences the way exploration is performed in the hierarchical kmeans tree. When  ``cb_index``  is zero the next kmeans domain to be explored is choosen to be the one with the closest center. A value greater then zero also takes into account the size of the domain. 
+           * **cb_index** This parameter (cluster boundary index) influences the way exploration is performed in the hierarchical kmeans tree. When  ``cb_index``  is zero the next kmeans domain to be explored is chosen to be the one with the closest center. A value greater then zero also takes into account the size of the domain. 
 
     *
        **CompositeIndexParams** When using a parameters object of this type the index created combines the randomized kd-trees  and the hierarchical k-means tree. ::
@@ -205,7 +205,7 @@ Saves the index to a file.
 
 flann::Index_<T>::getIndexParameters
 --------------------------------------------
-Returns the index paramreters.
+Returns the index parameters.
 
 .. ocv:function:: const IndexParams* flann::Index_<T>::getIndexParameters()
 
index 808238b..e95b453 100644 (file)
@@ -279,7 +279,7 @@ Class computing stereo correspondence using the constant space belief propagatio
     };
 
 
-The class implements algorithm described in [Yang2010]_. ``StereoConstantSpaceBP`` supports both local minimum and global minimum data cost initialization algortihms. For more details, see the paper mentioned above. By default, a local algorithm is used. To enable a global algorithm, set ``use_local_init_data_cost`` to ``false`` .
+The class implements algorithm described in [Yang2010]_. ``StereoConstantSpaceBP`` supports both local minimum and global minimum data cost initialization algorithms. For more details, see the paper mentioned above. By default, a local algorithm is used. To enable a global algorithm, set ``use_local_init_data_cost`` to ``false`` .
 
 
 
@@ -323,7 +323,7 @@ Enables the :ocv:class:`gpu::StereoConstantSpaceBP` constructors.
 
 For more details, see [Yang2010]_.
 
-By default, ``StereoConstantSpaceBP`` uses floating-point arithmetics and the ``CV_32FC1`` type for messages. But it can also use fixed-point arithmetics and the ``CV_16SC1`` message type for better perfomance. To avoid an overflow in this case, the parameters must satisfy the following requirement:
+By default, ``StereoConstantSpaceBP`` uses floating-point arithmetics and the ``CV_32FC1`` type for messages. But it can also use fixed-point arithmetics and the ``CV_16SC1`` message type for better performance. To avoid an overflow in this case, the parameters must satisfy the following requirement:
 
 .. math::
 
@@ -359,7 +359,7 @@ gpu::DisparityBilateralFilter
 -----------------------------
 .. ocv:class:: gpu::DisparityBilateralFilter
 
-Class refinining a disparity map using joint bilateral filtering. ::
+Class refining a disparity map using joint bilateral filtering. ::
 
     class CV_EXPORTS DisparityBilateralFilter
     {
index 375b998..3021890 100644 (file)
@@ -172,7 +172,7 @@ Ensures that the size of a matrix is big enough and the matrix has a proper type
 
     :param cols: Minimum desired number of columns.
 
-    :param size: Rows and coumns passed as a structure.
+    :param size: Rows and columns passed as a structure.
 
     :param type: Desired matrix type.
 
index 68118e1..d63f055 100644 (file)
@@ -168,7 +168,7 @@ Constructor.
 
     :param threshold: Threshold on difference between intensity of the central pixel and pixels on a circle around this pixel.
 
-    :param nonmaxSupression: If it is true, non-maximum supression is applied to detected corners (keypoints).
+    :param nonmaxSupression: If it is true, non-maximum suppression is applied to detected corners (keypoints).
 
     :param keypointsRatio: Inner buffer size for keypoints store is determined as (keypointsRatio * image_width * image_height).
 
@@ -188,7 +188,7 @@ Finds the keypoints using FAST detector.
     :param keypoints: The output vector of keypoints. Can be stored both in CPU and GPU memory. For GPU memory:
 
             * keypoints.ptr<Vec2s>(LOCATION_ROW)[i] will contain location of i'th point
-            * keypoints.ptr<float>(RESPONSE_ROW)[i] will contaion response of i'th point (if non-maximum supression is applied)
+            * keypoints.ptr<float>(RESPONSE_ROW)[i] will contain response of i'th point (if non-maximum suppression is applied)
 
 
 
@@ -238,7 +238,7 @@ Gets final array of keypoints.
 
     :param keypoints: The output vector of keypoints.
 
-The function performs nonmax supression if needed and returns final count of keypoints.
+The function performs non-max suppression if needed and returns final count of keypoints.
 
 
 
@@ -529,7 +529,7 @@ Converts matrices obtained via :ocv:func:`gpu::BruteForceMatcher_GPU::matchSingl
 
 gpu::BruteForceMatcher_GPU::knnMatch
 ----------------------------------------
-Finds the k best matches for each descriptor from a query set with train descriptors.
+Finds the ``k`` best matches for each descriptor from a query set with train descriptors.
 
 .. ocv:function:: void gpu::BruteForceMatcher_GPU::knnMatch(const GpuMat& query, const GpuMat& train, std::vector< std::vector<DMatch> >&matches, int k, const GpuMat& mask = GpuMat(), bool compactResult = false)
 
@@ -551,7 +551,7 @@ Finds the k best matches for each descriptor from a query set with train descrip
 
     :param stream: Stream for the asynchronous version.
 
-The function returns detected k (or less if not possible) matches in the increasing order by distance.
+The function returns detected ``k`` (or less if not possible) matches in the increasing order by distance.
 
 The third variant of the method stores the results in GPU memory.
 
index 78fb1bf..f63e242 100644 (file)
@@ -109,7 +109,7 @@ By using ``FilterEngine_GPU`` instead of functions you can avoid unnecessary mem
     filter.release();
 
 
-``FilterEngine_GPU`` can process a rectangular sub-region of an image. By default, if ``roi == Rect(0,0,-1,-1)`` , ``FilterEngine_GPU`` processes the inner region of an image ( ``Rect(anchor.x, anchor.y, src_size.width - ksize.width, src_size.height - ksize.height)`` ) because some filters do not check whether indices are outside the image for better perfomance. See below to understand which filters support processing the whole image and which do not and identify image type limitations.
+``FilterEngine_GPU`` can process a rectangular sub-region of an image. By default, if ``roi == Rect(0,0,-1,-1)`` , ``FilterEngine_GPU`` processes the inner region of an image ( ``Rect(anchor.x, anchor.y, src_size.width - ksize.width, src_size.height - ksize.height)`` ) because some filters do not check whether indices are outside the image for better performance. See below to understand which filters support processing the whole image and which do not and identify image type limitations.
 
 .. note:: The GPU filters do not support the in-place mode.
 
@@ -469,7 +469,7 @@ Creates a primitive column filter with the specified kernel.
 
 .. ocv:function:: Ptr<BaseColumnFilter_GPU> gpu::getLinearColumnFilter_GPU(int bufType, int dstType, const Mat& columnKernel, int anchor = -1, int borderType = BORDER_CONSTANT)
 
-    :param bufType: Inermediate buffer type with as many channels as  ``dstType`` .
+    :param bufType: Intermediate buffer type with as many channels as  ``dstType`` .
 
     :param dstType: Destination array type. ``CV_8UC1`` , ``CV_8UC4`` , ``CV_16SC1`` , ``CV_16SC2`` , ``CV_16SC3`` , ``CV_32SC1`` , ``CV_32FC1`` destination types are supported.
 
@@ -581,7 +581,7 @@ Applies the generalized Sobel operator to an image.
 
     :param dy: Derivative order in respect of y.
 
-    :param ksize: Size of the extended Sobel kernel. Possible valies are 1, 3, 5 or 7.
+    :param ksize: Size of the extended Sobel kernel. Possible values are 1, 3, 5 or 7.
 
     :param scale: Optional scale factor for the computed derivative values. By default, no scaling is applied. For details, see  :ocv:func:`getDerivKernels` .
 
index c29a8a6..7795d0d 100644 (file)
@@ -61,7 +61,7 @@ Performs a mean-shift segmentation of the source image and eliminates small segm
 
     :param sr: Color window radius.
 
-    :param minsize: Minimum segment size. Smaller segements are merged.
+    :param minsize: Minimum segment size. Smaller segments are merged.
 
     :param criteria: Termination criteria. See :ocv:class:`TermCriteria`.
 
@@ -229,7 +229,7 @@ The source matrix should be continuous, otherwise reallocation and data copying
 
     * If the source matrix is complex and the output is not specified as real, the destination matrix is complex and has the ``dft_size``    size and ``CV_32FC2``    type. The destination matrix contains a full result of the DFT (forward or inverse).
 
-    * If the source matrix is complex and the output is specified as real, the function assumes that its input is the result of the forward transform (see the next item). The destionation matrix has the ``dft_size`` size and ``CV_32FC1`` type. It contains the result of the inverse DFT.
+    * If the source matrix is complex and the output is specified as real, the function assumes that its input is the result of the forward transform (see the next item). The destination matrix has the ``dft_size`` size and ``CV_32FC1`` type. It contains the result of the inverse DFT.
 
     * If the source matrix is real (its type is ``CV_32FC1`` ), forward DFT is performed. The result of the DFT is packed into complex ( ``CV_32FC2`` ) matrix. So, the width of the destination matrix is ``dft_size.width / 2 + 1`` . But if the source is a single column, the height is reduced instead of the width.
 
@@ -392,7 +392,7 @@ Converts an image from one color space to another.
 
     :param stream: Stream for the asynchronous version.
 
-3-channel color spaces (like ``HSV``, ``XYZ``, and so on) can be stored in a 4-channel image for better perfomance.
+3-channel color spaces (like ``HSV``, ``XYZ``, and so on) can be stored in a 4-channel image for better performance.
 
 .. seealso:: :ocv:func:`cvtColor`
 
index e7a3c31..2e7ee3d 100644 (file)
@@ -43,7 +43,7 @@ Utilizing Multiple GPUs
 -----------------------
 
 In the current version, each of the OpenCV GPU algorithms can use only a single GPU. So, to utilize multiple GPUs, you have to manually distribute the work between GPUs. 
-Switching active devie can be done using :ocv:func:`gpu::setDevice()` function.  For more details please read Cuda C Programing Guid.
+Switching active devie can be done using :ocv:func:`gpu::setDevice()` function.  For more details please read Cuda C Programing Guide.
 
 While developing algorithms for multiple GPUs, note a data passing overhead. For primitive functions and small images, it can be significant, which may eliminate all the advantages of having multiple GPUs. But for high-level algorithms, consider using multi-GPU acceleration. For example, the Stereo Block Matching algorithm has been successfully parallelized using the following algorithm:
 
index f55fbd3..b6543f8 100644 (file)
@@ -191,9 +191,9 @@ Computes polar angles of complex matrix elements.
 
     :param y: Source matrix containing imaginary components ( ``CV_32FC1`` ).
 
-    :param angle: Destionation matrix of angles ( ``CV_32FC1`` ).
+    :param angle: Destination matrix of angles ( ``CV_32FC1`` ).
 
-    :param angleInDegrees: Flag for angles that must be evaluated in degress.
+    :param angleInDegrees: Flag for angles that must be evaluated in degrees.
 
     :param stream: Stream for the asynchronous version.
 
@@ -213,9 +213,9 @@ Converts Cartesian coordinates into polar.
 
     :param magnitude: Destination matrix of float magnitudes ( ``CV_32FC1`` ).
 
-    :param angle: Destionation matrix of angles ( ``CV_32FC1`` ).
+    :param angle: Destination matrix of angles ( ``CV_32FC1`` ).
 
-    :param angleInDegrees: Flag for angles that must be evaluated in degress.
+    :param angleInDegrees: Flag for angles that must be evaluated in degrees.
 
     :param stream: Stream for the asynchronous version.
 
@@ -237,7 +237,7 @@ Converts polar coordinates into Cartesian.
 
     :param y: Destination matrix of imaginary components ( ``CV_32FC1`` ).
 
-    :param angleInDegrees: Flag that indicates angles in degress.
+    :param angleInDegrees: Flag that indicates angles in degrees.
 
     :param stream: Stream for the asynchronous version.
 
index 566349e..02beddb 100644 (file)
@@ -8,7 +8,7 @@ applications and can be used within functionally rich UI frameworks (such as Qt*
 It provides easy interface to:
 
 * Create and manipulate windows that can display images and "remember" their content (no need to handle repaint events from OS).
-* Add trackbars to the windows, handle simple mouse events as well as keyboard commmands.
+* Add trackbars to the windows, handle simple mouse events as well as keyboard commands.
 * Read and write images to/from disk or memory.
 * Read video from camera or file and write video to a file.
 
index 5d39642..7d27353 100644 (file)
@@ -105,7 +105,7 @@ Provides parameters of a window.
 
     :param name: Name of the window.
 
-    :param prop_id: Window property to retrive. The following operation flags are available:
+    :param prop_id: Window property to retrieve. The following operation flags are available:
         
             * **CV_WND_PROP_FULLSCREEN**  Change if the window is fullscreen ( ``CV_WINDOW_NORMAL``  or  ``CV_WINDOW_FULLSCREEN`` ).
             
@@ -224,11 +224,11 @@ Displays a text on the window statusbar during the specified period of time.
 
 The function ``displayOverlay`` displays useful information/tips on top of the window for a certain amount of time
 *delayms*
-. This information is displayed on the window statubar (the window must be created with the ``CV_GUI_EXPANDED`` flags).
+. This information is displayed on the window statusbar (the window must be created with the ``CV_GUI_EXPANDED`` flags).
 
 createOpenGLCallback
 ------------------------
-Creates a callback function called to draw OpenGL on top the the image display by ``windowname``.
+Creates a callback function called to draw OpenGL on top the image display by ``windowname``.
 
 .. ocv:function:: void createOpenGLCallback( const string& window_name, OpenGLCallback callbackOpenGL, void* userdata =NULL, double angle=-1, double zmin=-1, double zmax=-1)
 
index 1395b5d..0d70b05 100644 (file)
@@ -309,7 +309,7 @@ Decodes and returns the grabbed video frame.
 
 .. ocv:pyoldfunction:: cv.RetrieveFrame(capture) -> iplimage
 
-The methods/functions decode and retruen the just grabbed frame. If no frames has been grabbed (camera has been disconnected, or there are no more frames in video file), the methods return false and the functions return NULL pointer.
+The methods/functions decode and return the just grabbed frame. If no frames has been grabbed (camera has been disconnected, or there are no more frames in video file), the methods return false and the functions return NULL pointer.
 
 .. note:: OpenCV 1.x functions ``cvRetrieveFrame`` and ``cv.RetrieveFrame`` return image stored inside the video capturing structure. It is not allowed to modify or release the image! You can copy the frame using :ocv:cfunc:`cvCloneImage` and then do whatever you want with the copy.
 
@@ -328,7 +328,7 @@ Grabs, decodes and returns the next video frame.
 
 .. ocv:pyoldfunction:: cv.QueryFrame(capture) -> iplimage
 
-The methods/functions combine :ocv:func:`VideoCapture::grab` and :ocv:func:`VideoCapture::retrieve` in one call. This is the most convenient method for reading video files or capturing data from decode and retruen the just grabbed frame. If no frames has been grabbed (camera has been disconnected, or there are no more frames in video file), the methods return false and the functions return NULL pointer.
+The methods/functions combine :ocv:func:`VideoCapture::grab` and :ocv:func:`VideoCapture::retrieve` in one call. This is the most convenient method for reading video files or capturing data from decode and return the just grabbed frame. If no frames has been grabbed (camera has been disconnected, or there are no more frames in video file), the methods return false and the functions return NULL pointer.
 
 .. note:: OpenCV 1.x functions ``cvRetrieveFrame`` and ``cv.RetrieveFrame`` return image stored inside the video capturing structure. It is not allowed to modify or release the image! You can copy the frame using :ocv:cfunc:`cvCloneImage` and then do whatever you want with the copy.
 
index c964f30..29066e5 100644 (file)
@@ -24,7 +24,7 @@ Creates a trackbar and attaches it to the specified window.
 
     :param userdata: User data that is passed as is to the callback. It can be used to handle trackbar events without using global variables.
 
-The function ``createTrackbar`` creates a trackbar (a slider or range control) with the specified name and range, assigns a variable ``value`` to be a position syncronized with the trackbar and specifies the callback function ``onChange`` to be called on the trackbar position change. The created trackbar is displayed in the specified window ``winname``.
+The function ``createTrackbar`` creates a trackbar (a slider or range control) with the specified name and range, assigns a variable ``value`` to be a position synchronized with the trackbar and specifies the callback function ``onChange`` to be called on the trackbar position change. The created trackbar is displayed in the specified window ``winname``.
 
 .. note::
     
index 817a52f..4e6b9fd 100644 (file)
@@ -55,7 +55,7 @@ Calculates eigenvalues and eigenvectors of image blocks for corner detection.
     :param borderType: Pixel extrapolation method. See  :ocv:func:`borderInterpolate` .
 
 For every pixel
-:math:`p` , the function ``cornerEigenValsAndVecs`` considers a ``blockSize`` :math:`\times` ``blockSize`` neigborhood
+:math:`p` , the function ``cornerEigenValsAndVecs`` considers a ``blockSize`` :math:`\times` ``blockSize`` neighborhood
 :math:`S(p)` . It calculates the covariation matrix of derivatives over the neighborhood as:
 
 .. math::
@@ -541,4 +541,4 @@ The corners can be found as local maximums of the functions, as shown below: ::
 
 .. [Shi94] J. Shi and C. Tomasi. *Good Features to Track*. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 593-600, June 1994.
 
-.. [Yuen90] Yuen, H. K. and Princen, J. and Illingworth, J. and Kittler, J., *Comparative study of Hough transform methods for circle finding*. Image Vision Comput. 8 1, pp 71–77 (1990)
\ No newline at end of file
+.. [Yuen90] Yuen, H. K. and Princen, J. and Illingworth, J. and Kittler, J., *Comparative study of Hough transform methods for circle finding*. Image Vision Comput. 8 1, pp 71–77 (1990)
index 380e130..2bfc2d0 100644 (file)
@@ -715,13 +715,13 @@ Creates a non-separable linear filter engine.
 
     :param delta: Value added to the filtered results before storing them.
 
-    :param bits: Number of the fractional bits. the parameter is used when the kernel is an integer matrix representing fixed-point filter coefficients.
+    :param bits: Number of the fractional bits. The parameter is used when the kernel is an integer matrix representing fixed-point filter coefficients.
 
     :param rowBorderType: Pixel extrapolation method in the vertical direction. For details, see  :ocv:func:`borderInterpolate`.
     
     :param columnBorderType: Pixel extrapolation method in the horizontal direction.
     
-    :param borderValue: Border vaule used in case of a constant border.
+    :param borderValue: Border value used in case of a constant border.
 
 The function returns a pointer to a 2D linear filter for the specified kernel, the source array type, and the destination array type. The function is a higher-level function that calls ``getLinearFilter`` and passes the retrieved 2D filter to the
 :ocv:class:`FilterEngine` constructor.
index 4ea6fa3..268d12b 100644 (file)
@@ -34,7 +34,7 @@ Calculates a histogram of a set of arrays.
 
     :param ranges: Array of the ``dims``  arrays of the histogram bin boundaries in each dimension. When the histogram is uniform ( ``uniform`` =true), then for each dimension  ``i``  it is enough to specify the lower (inclusive) boundary  :math:`L_0`  of the 0-th histogram bin and the upper (exclusive) boundary  :math:`U_{\texttt{histSize}[i]-1}`  for the last histogram bin  ``histSize[i]-1`` . That is, in case of a uniform histogram each of  ``ranges[i]``  is an array of 2 elements. When the histogram is not uniform ( ``uniform=false`` ), then each of  ``ranges[i]``  contains  ``histSize[i]+1``  elements:  :math:`L_0, U_0=L_1, U_1=L_2, ..., U_{\texttt{histSize[i]}-2}=L_{\texttt{histSize[i]}-1}, U_{\texttt{histSize[i]}-1}` . The array elements, that are not between  :math:`L_0`  and  :math:`U_{\texttt{histSize[i]}-1}` , are not counted in the histogram.
 
-    :param uniform: Flag indicatinfg whether the histogram is uniform or not (see above).
+    :param uniform: Flag indicating whether the histogram is uniform or not (see above).
 
     :param accumulate: Accumulation flag. If it is set, the histogram is not cleared in the beginning when it is allocated. This feature enables you to compute a single histogram from several sets of arrays, or to update the histogram in time.
 
@@ -123,7 +123,7 @@ Calculates the back projection of a histogram.
 
     :param hist: Input histogram that can be dense or sparse.
 
-    :param backProject: Destination back projection aray that is a single-channel array of the same size and depth as  ``arrays[0]`` .
+    :param backProject: Destination back projection array that is a single-channel array of the same size and depth as  ``arrays[0]`` .
     
     :param ranges: Array of arrays of the histogram bin boundaries in each dimension. See  :ocv:func:`calcHist` .
     
index 9fe27cd..a7cc79c 100644 (file)
@@ -449,7 +449,7 @@ basic distances. Since the distance function should be symmetric,
 all of the horizontal and vertical shifts must have the same cost (denoted as ``a`` ), all the diagonal shifts must have the
 same cost (denoted as ``b`` ), and all knight's moves must have
 the same cost (denoted as ``c`` ). For the ``CV_DIST_C`` and ``CV_DIST_L1`` types, the distance is calculated precisely,
-whereas for ``CV_DIST_L2`` (Euclidian distance) the distance
+whereas for ``CV_DIST_L2`` (Euclidean distance) the distance
 can be calculated only with a relative error (a
 :math:`5\times 5` mask
 gives more accurate results). For ``a``,``b`` , and ``c`` , OpenCV uses the values suggested in the original paper:
@@ -722,7 +722,7 @@ Currently, the Otsu's method is implemented only for 8-bit images.
 
 watershed
 -------------
-Performs a marker-based image segmentation using the watershed algrorithm.
+Performs a marker-based image segmentation using the watershed algorithm.
 
 .. ocv:function:: void watershed( InputArray image, InputOutputArray markers )
 
index f4f81cb..40ad850 100644 (file)
@@ -144,7 +144,7 @@ The function supports multi-channel images. Each channel is processed independen
 
 phaseCorrelate
 --------------
-The function is used to detect translational shifts that occur between two images. The operation takes advantage of the Fourier shift theorem for detecting the translational shift in the frequency domain. It can be used for fast image registration as well as motion esitimation. For more information please see http://en.wikipedia.org/wiki/Phase\_correlation .
+The function is used to detect translational shifts that occur between two images. The operation takes advantage of the Fourier shift theorem for detecting the translational shift in the frequency domain. It can be used for fast image registration as well as motion estimation. For more information please see http://en.wikipedia.org/wiki/Phase\_correlation .
 
 Calculates the cross-power spectrum of two supplied source arrays. The arrays are padded if needed with :ocv:func:`getOptimalDFTSize`.
 
index 2be890d..7cd8ee8 100644 (file)
@@ -109,7 +109,7 @@ Point of an original or dual subdivision.
 ..
 
 * id
-    This integer can be used to index auxillary data associated with each vertex of the planar subdivision.
+    This integer can be used to index auxiliary data associated with each vertex of the planar subdivision.
 
 CalcSubdivVoronoi2D
 -------------------
@@ -254,7 +254,7 @@ Returns the location of a point within a Delaunay triangulation.
 
     :param edge: Output edge that the point belongs to or is located to the right of it.
 
-    :param vertex: Optional output vertex double pointer the input point coinsides with.
+    :param vertex: Optional output vertex double pointer the input point coincides with.
 
 The function locates the input point within the subdivision. There are five cases:
 
@@ -280,7 +280,7 @@ The function locates the input point within the subdivision. There are five case
     will contain a pointer to the vertex.
 
 *
-    The point is outside the subdivsion reference rectangle. The function returns 
+    The point is outside the subdivision reference rectangle. The function returns 
     ``CV_PTLOC_OUTSIDE_RECT``
     and no pointers are filled.
 
index 0694aea..31045df 100644 (file)
@@ -398,7 +398,7 @@ Finds the convex hull of a point set.
 
     :param points: Input 2D point set, stored in ``std::vector`` or ``Mat``.
 
-    :param hull: Output convex hull. It is either an integer vector of indices or vector of points. In the first case, the ``hull`` elements are 0-based indices of the convex hull points in the original array (since the set of convex hull points is a subset of the original point set). In the second case, ``hull`` elements aree the convex hull points themselves.
+    :param hull: Output convex hull. It is either an integer vector of indices or vector of points. In the first case, the ``hull`` elements are 0-based indices of the convex hull points in the original array (since the set of convex hull points is a subset of the original point set). In the second case, ``hull`` elements are the convex hull points themselves.
     
     :param storage: Output memory storage in the old API (``cvConvexHull2`` returns a sequence containing the convex hull points or their indices).
 
index 27264e4..c6355a1 100644 (file)
@@ -83,7 +83,7 @@ The constructors.
 
     :param boost_type: Type of the boosting algorithm. Possible values are:
         
-        * **CvBoost::DISCRETE** Discrete AbaBoost.
+        * **CvBoost::DISCRETE** Discrete AdaBoost.
         * **CvBoost::REAL** Real AdaBoost. It is a technique that utilizes confidence-rated predictions and works well with categorical data.
         * **CvBoost::LOGIT** LogitBoost. It can produce good regression fits.
         * **CvBoost::GENTLE** Gentle AdaBoost. It puts less weight on outlier data points and for that reason is often good with regression data. 
index eb4f5b4..bf72ddc 100644 (file)
@@ -159,9 +159,9 @@ The constructors.
 
     :param max_depth: The maximum possible depth of the tree. That is the training algorithms attempts to split a node while its depth is less than ``max_depth``. The actual depth may be smaller if the other termination criteria are met (see the outline of the training procedure in the beginning of the section), and/or if the tree is pruned. 
     
-    :param min_sample_count: If the number of samples in a node is less than this parameter then the node will not be splitted.
+    :param min_sample_count: If the number of samples in a node is less than this parameter then the node will not be split.
 
-    :param regression_accuracy: Termination criteria for regression trees. If all absolute differences between an estimated value in a node and values of train samples in this node are less than this parameter then the node will not be splitted.
+    :param regression_accuracy: Termination criteria for regression trees. If all absolute differences between an estimated value in a node and values of train samples in this node are less than this parameter then the node will not be split.
  
     :param use_surrogates: If true then surrogate splits will be built. These splits allow to work with missing data and compute variable importance correctly.
 
@@ -275,7 +275,7 @@ Returns error of the decision tree.
 
         * **CV_TRAIN_ERROR** Error on train samples.
 
-        * **CV_TEST_ERROR** Erron on test samples.
+        * **CV_TEST_ERROR** Error on test samples.
 
     :param resp: If it is not null then size of this vector will be set to the number of samples and each element will be set to result of prediction on the corresponding sample.
 
index 29f581c..9e289e6 100644 (file)
@@ -5,11 +5,11 @@ Extremely randomized trees have been introduced by Pierre Geurts, Damien Ernst a
 
 #. Extremely randomized trees don't apply the bagging procedure to constract the training samples for each tree. The same input training set is used to train all trees.
 
-#. Extremely randomized trees pick a node split very extremely (both a variable index and variable spliting value are chosen randomly), whereas Random Forest finds the best split (optimal one by variable index and variable spliting value) among random subset of variables.
+#. Extremely randomized trees pick a node split very extremely (both a variable index and variable splitting value are chosen randomly), whereas Random Forest finds the best split (optimal one by variable index and variable splitting value) among random subset of variables.
 
 
 CvERTrees
 ----------
 .. ocv:class:: CvERTrees
 
-    The class implements the Extremely randomized trees algorithm. ``CvERTrees`` is inherited from :ocv:class:`CvRTrees` and has the same interface, so see description of :ocv:class:`CvRTrees` class to get detailes. To set the training parameters of Extremely randomized trees the same class :ocv:class:`CvRTParams` is used.
+    The class implements the Extremely randomized trees algorithm. ``CvERTrees`` is inherited from :ocv:class:`CvRTrees` and has the same interface, so see description of :ocv:class:`CvRTrees` class to get details. To set the training parameters of Extremely randomized trees the same class :ocv:class:`CvRTParams` is used.
index 820583a..7de8373 100644 (file)
@@ -61,7 +61,7 @@ At the second step (Maximization step or M-step), the mixture parameter estimate
 Alternatively, the algorithm may start with the M-step when the initial values for
 :math:`p_{i,k}` can be provided. Another alternative when
 :math:`p_{i,k}` are unknown is to use a simpler clustering algorithm to pre-cluster the input samples and thus obtain initial
-:math:`p_{i,k}` . Often (including macnine learning) the
+:math:`p_{i,k}` . Often (including machine learning) the
 :ocv:func:`kmeans` algorithm is used for that purpose.
 
 One of the main problems of the EM algorithm is a large number
@@ -115,7 +115,7 @@ The constructors
     :param start_step: The start step of the EM algorithm: 
 
         * **CvEM::START_E_STEP** Start with Expectation step. You need to provide means :math:`a_k` of mixture components to use this option. Optionally you can pass weights :math:`\pi_k` and covariance matrices :math:`S_k` of mixture components.
-        * **CvEM::START_M_STEP** Start with Maximization step. You need to provide initial probabilites :math:`p_{i,k}` to use this option.
+        * **CvEM::START_M_STEP** Start with Maximization step. You need to provide initial probabilities :math:`p_{i,k}` to use this option.
         * **CvEM::START_AUTO_STEP** Start with Expectation step. You need not provide any parameters because they will be estimated by the k-means algorithm.
 
     :param term_crit: The termination criteria of the EM algorithm. The EM algorithm can be terminated by the number of iterations ``term_crit.max_iter`` (number of M-steps) or when relative change of likelihood logarithm is less than ``term_crit.epsilon``.
@@ -139,7 +139,7 @@ The default constructor represents a rough rule-of-the-thumb:
     }
 
 
-With another contstructor it is possible to override a variety of parameters from a single number of mixtures (the only essential problem-dependent parameter) to initial values for the mixture parameters.
+With another constructor it is possible to override a variety of parameters from a single number of mixtures (the only essential problem-dependent parameter) to initial values for the mixture parameters.
 
 
 CvEM
@@ -250,7 +250,7 @@ Returns vectors of probabilities for each training sample.
 
 .. ocv:pyfunction:: cv2.EM.getProbs() -> probs
 
-For each training sample :math:`i` (that have been passed to the constructor or to :ocv:func:`CvEM::train`) returns probabilites :math:`p_{i,k}` to belong to a mixture component :math:`k`.
+For each training sample :math:`i` (that have been passed to the constructor or to :ocv:func:`CvEM::train`) returns probabilities :math:`p_{i,k}` to belong to a mixture component :math:`k`.
 
 
 CvEM::getLikelihood
index 4916655..4f0b381 100644 (file)
@@ -19,10 +19,10 @@ Training the GBT model
 ----------------------\r
 \r
 Gradient Boosted Trees model represents an ensemble of single regression trees\r
-built in a greedy fashion. Training procedure is an iterative proccess\r
+built in a greedy fashion. Training procedure is an iterative process\r
 similar to the numerical optimization via the gradient descent method. Summary loss\r
 on the training set depends only on the current model predictions for the\r
-thaining samples,  in other words\r
+training samples,  in other words\r
 :math:`\sum^N_{i=1}L(y_i, F(x_i)) \equiv \mathcal{L}(F(x_1), F(x_2), ... , F(x_N))\r
 \equiv \mathcal{L}(F)`. And the :math:`\mathcal{L}(F)`\r
 gradient can be computed as follows:\r
@@ -37,7 +37,7 @@ antigradient vector components. Step length is computed corresponding to the
 loss function and separately for every region determined by the tree leaf. It\r
 can be eliminated by changing values of the leaves  directly.\r
 \r
-See below the main scheme of the training proccess:\r
+See below the main scheme of the training process:\r
 \r
 #.\r
     Find the best constant model.\r
@@ -86,7 +86,7 @@ As a result, you get the following model:
 .. math:: f(x) = f_0 + \nu\cdot\sum^M_{i=1}T_i(x) ,\r
 \r
 where :math:`f_0` is the initial guess (the best constant model) and :math:`\nu`\r
-is a regularization parameter from the interval :math:`(0,1]`, futher called\r
+is a regularization parameter from the interval :math:`(0,1]`, further called\r
 *shrinkage*.\r
 \r
 .. _Predicting with GBT:\r
@@ -94,7 +94,7 @@ is a regularization parameter from the interval :math:`(0,1]`, futher called
 Predicting with the GBT Model\r
 -----------------------------\r
 \r
-To get the GBT model prediciton, you need to compute the sum of responses of\r
+To get the GBT model prediction, you need to compute the sum of responses of\r
 all the trees in the ensemble. For regression problems, it is the answer.\r
 For classification problems, the result is :math:`\arg\max_{i=1..K}(f_i(x))`.\r
 \r
@@ -108,7 +108,7 @@ CvGBTreesParams
 \r
 GBT training parameters.\r
 \r
-The structure contains parameters for each sigle decision tree in the ensemble,\r
+The structure contains parameters for each single decision tree in the ensemble,\r
 as well as the whole model characteristics. The structure is derived from\r
 :ocv:class:`CvDTreeParams` but not all of the decision tree parameters are supported:\r
 cross-validation, pruning, and class priorities are not used.\r
@@ -205,10 +205,10 @@ Predicts a response for an input sample.
 .. ocv:pyfunction:: cv2.GBTrees.predict(sample[, missing[, slice[, k]]]) -> retval\r
 \r
    :param sample: Input feature vector that has the same format as every training set\r
-    element. If not all the variables were actualy used during training,\r
+    element. If not all the variables were actually used during training,\r
     ``sample`` contains forged values at the appropriate places.\r
     \r
-   :param missing: Missing values mask, which is a dimentional matrix of the same size as\r
+   :param missing: Missing values mask, which is a dimensional matrix of the same size as\r
     ``sample`` having the ``CV_8U`` type. ``1`` corresponds to the missing value\r
     in the same position in the ``sample`` vector. If there are no missing values\r
     in the feature vector, an empty matrix can be passed instead of the missing mask.\r
@@ -225,7 +225,7 @@ Predicts a response for an input sample.
     \r
    :param k: Number of tree ensembles built in case of the classification problem\r
     (see :ref:`Training GBT`). Use this\r
-    parameter to change the ouput to sum of the trees' predictions in the\r
+    parameter to change the output to sum of the trees' predictions in the\r
     ``k``-th ensemble only. To get the total GBT model prediction, ``k`` value\r
     must be -1. For regression problems, ``k`` is also equal to -1.\r
  \r
index 8c5d470..a72e7ec 100644 (file)
@@ -62,9 +62,9 @@ Reads the data set from a ``.csv``-like ``filename`` file and stores all read va
 
     :param filename: The input file name
 
-While reading the data, the method tries to define the type of variables (predictors and responses): ordered or categorical. If a value of the variable is not numerical (except for the label for a missing value), the type of the variable is set to ``CV_VAR_CATEGORICAL``. If all existing values of the variable are numerical, the type of the variable is set to ``CV_VAR_ORDERED``. So, the default definition of variables types works correctly for all cases except the case of a categorical variable with numerical class labeles. In this case, the type ``CV_VAR_ORDERED`` is set. You should change the type to ``CV_VAR_CATEGORICAL`` using the method :ocv:func:`CvMLData::change_var_type`. For categorical variables, a common map is built to convert a string class label to the numerical class label. Use :ocv:func:`CvMLData::get_class_labels_map` to obtain this map. 
+While reading the data, the method tries to define the type of variables (predictors and responses): ordered or categorical. If a value of the variable is not numerical (except for the label for a missing value), the type of the variable is set to ``CV_VAR_CATEGORICAL``. If all existing values of the variable are numerical, the type of the variable is set to ``CV_VAR_ORDERED``. So, the default definition of variables types works correctly for all cases except the case of a categorical variable with numerical class labels. In this case, the type ``CV_VAR_ORDERED`` is set. You should change the type to ``CV_VAR_CATEGORICAL`` using the method :ocv:func:`CvMLData::change_var_type`. For categorical variables, a common map is built to convert a string class label to the numerical class label. Use :ocv:func:`CvMLData::get_class_labels_map` to obtain this map. 
 
-Also, when reading the data, the method constructs the mask of missing values. For example, values are egual to `'?'`.
+Also, when reading the data, the method constructs the mask of missing values. For example, values are equal to `'?'`.
 
 CvMLData::get_values
 --------------------
index 27de505..f0250f0 100644 (file)
@@ -74,7 +74,7 @@ using
 :ocv:funcx:`PCA::operator()` or similar technique, and train a smaller network
 on only essential features.
 
-Another MPL feature is an inability to handle categorical
+Another MLP feature is an inability to handle categorical
 data as is. However, there is a workaround. If a certain feature in the
 input or output (in case of ``n`` -class classifier for
 :math:`n>2` ) layer is categorical and can take
index 20495eb..7845121 100644 (file)
@@ -9,7 +9,7 @@ Random trees have been introduced by Leo Breiman and Adele Cutler:
 http://www.stat.berkeley.edu/users/breiman/RandomForests/
 . The algorithm can deal with both classification and regression problems. Random trees is a collection (ensemble) of tree predictors that is called
 *forest*
-further in this section (the term has been also introduced by L. Breiman). The classification works as follows: the random trees classifier takes the input feature vector, classifies it with every tree in the forest, and outputs the class label that recieved the majority of "votes". In case of a regression, the classifier response is the average of the responses over all the trees in the forest.
+further in this section (the term has been also introduced by L. Breiman). The classification works as follows: the random trees classifier takes the input feature vector, classifies it with every tree in the forest, and outputs the class label that received the majority of "votes". In case of a regression, the classifier response is the average of the responses over all the trees in the forest.
 
 All the trees are trained with the same parameters but on different training sets. These sets are generated from the original training set using the bootstrap procedure: for each training set, you randomly select the same number of vectors as in the original set ( ``=N`` ). The vectors are chosen with replacement. That is, some vectors will occur more than once and some will be absent. At each node of each trained tree,  not all the variables are used to find the best split, but a random subset of them. With each node a new subset is generated. However, its size is fixed for all the nodes and all the trees. It is a training parameter set to
 :math:`\sqrt{number\_of\_variables}` by default. None of the built trees are pruned.
@@ -67,7 +67,7 @@ The constructors.
 
     :param nactive_vars: The size of the randomly selected subset of features at each tree node and that are used to find the best split(s). If you set it to 0 then the size will be set to the square root of the total number of features.
 
-    :param max_num_of_trees_in_the_forest: The maximum number of trees in the forest (suprise, suprise). Typically the more trees you have the better the accuracy. However, the improvement in accuracy generally diminishes and asymptotes pass a certain number of trees. Also to keep in mind, the number of tree increases the prediction time linearly.
+    :param max_num_of_trees_in_the_forest: The maximum number of trees in the forest (surprise, surprise). Typically the more trees you have the better the accuracy. However, the improvement in accuracy generally diminishes and asymptotes pass a certain number of trees. Also to keep in mind, the number of tree increases the prediction time linearly.
 
     :param forest_accuracy: Sufficient accuracy (OOB error).
 
@@ -77,7 +77,7 @@ The constructors.
         
         * **CV_TERMCRIT_EPS** Terminate learning by the ``forest_accuracy``;
 
-        * **CV_TERMCRIT_ITER | CV_TERMCRIT_EPS** Use both termination criterias.
+        * **CV_TERMCRIT_ITER | CV_TERMCRIT_EPS** Use both termination criteria.
 
 For meaning of other parameters see :ocv:func:`CvDTreeParams::CvDTreeParams`.
 
index cb5465d..d79b50d 100644 (file)
@@ -42,7 +42,7 @@ In this declaration, some methods are commented off. These are methods for which
 
 CvStatModel::CvStatModel
 ------------------------
-The default constuctor.
+The default constructor.
 
 .. ocv:function:: CvStatModel::CvStatModel()
 
index fc12ce5..8fcac03 100644 (file)
@@ -121,7 +121,7 @@ The constructors.
 
     :param coef0: Parameter ``coef0`` of a kernel function (POLY / SIGMOID).
 
-    :param Cvalue: Parameter ``C`` of a SVM optimiazation problem (C_SVC / EPS_SVR / NU_SVR).
+    :param Cvalue: Parameter ``C`` of a SVM optimization problem (C_SVC / EPS_SVR / NU_SVR).
 
     :param nu: Parameter :math:`\nu` of a SVM optimization problem (NU_SVC / ONE_CLASS / NU_SVR).
 
index 8079fbc..4d19fe1 100644 (file)
@@ -12,7 +12,7 @@ First, a classifier (namely a *cascade of boosted classifiers working with haar-
 
 After a classifier is trained, it can be applied to a region of interest (of the same size as used during the training) in an input image. The classifier outputs a "1" if the region is likely to show the object (i.e., face/car), and "0" otherwise. To search for the object in the whole image one can move the search window across the image and check every location using the classifier. The classifier is designed so that it can be easily "resized" in order to be able to find the objects of interest at different sizes, which is more efficient than resizing the image itself. So, to find an object of an unknown size in the image the scan procedure should be done several times at different scales.
 
-The word "cascade" in the classifier name means that the resultant classifier consists of several simpler classifiers (*stages*) that are applied subsequently to a region of interest until at some stage the candidate is rejected or all the stages are passed. The word "boosted" means that the classifiers at every stage of the cascade are complex themselves and they are built out of basic classifiers using one of four different ``boosting`` techniques (weighted voting). Currently Discrete Adaboost, Real Adaboost, Gentle Adaboost and Logitboost are supported. The basic classifiers are decision-tree classifiers with at least 2 leaves. Haar-like features are the input to the basic classifers, and are calculated as described below. The current algorithm uses the following Haar-like features:
+The word "cascade" in the classifier name means that the resultant classifier consists of several simpler classifiers (*stages*) that are applied subsequently to a region of interest until at some stage the candidate is rejected or all the stages are passed. The word "boosted" means that the classifiers at every stage of the cascade are complex themselves and they are built out of basic classifiers using one of four different ``boosting`` techniques (weighted voting). Currently Discrete Adaboost, Real Adaboost, Gentle Adaboost and Logitboost are supported. The basic classifiers are decision-tree classifiers with at least 2 leaves. Haar-like features are the input to the basic classifiers, and are calculated as described below. The current algorithm uses the following Haar-like features:
 
 
 .. image:: pics/haarfeatures.png
@@ -205,7 +205,7 @@ Detects objects of different sizes in the input image. The detected objects are
 
     :param scaleFactor: Parameter specifying how much the image size is reduced at each image scale.
 
-    :param minNeighbors: Parameter specifying how many neighbors each candiate rectangle should have to retain it.
+    :param minNeighbors: Parameter specifying how many neighbors each candidate rectangle should have to retain it.
 
     :param flags: Parameter with the same meaning for an old cascade as in the function ``cvHaarDetectObjects``. It is not used for a new cascade.
 
index 7a740ba..a22fe8d 100644 (file)
@@ -248,7 +248,7 @@ and corresponding confidence levels.
     
 LatentSvmDetector::getClassNames
 --------------------------------
-Return the class (model) names that were passed in constructor or method ``load`` or extructed from models filenames in those methods.
+Return the class (model) names that were passed in constructor or method ``load`` or extracted from models filenames in those methods.
 
 .. ocv:function:: const vector<string>& LatentSvmDetector::getClassNames() const
 
index 3fb81ea..f37aa52 100644 (file)
@@ -20,7 +20,7 @@ Restores the selected region in an image using the region neighborhood.
 
     :param dst: Output image with the same size and type as  ``src`` .
     
-    :param inpaintRadius: Radius of a circlular neighborhood of each point inpainted that is considered by the algorithm.
+    :param inpaintRadius: Radius of a circular neighborhood of each point inpainted that is considered by the algorithm.
 
     :param flags: Inpainting method that could be one of the following:
 
index d746471..123ddd7 100644 (file)
@@ -233,7 +233,7 @@ Wave correction kind. ::
 
 detail::waveCorrect
 -------------------
-Tries to make panorama more horizontal (or verical).
+Tries to make panorama more horizontal (or vertical).
 
 .. ocv:function:: void waveCorrect(std::vector<Mat> &rmats, WaveCorrectKind kind)
 
index da79335..3aca9e2 100644 (file)
@@ -79,7 +79,7 @@ Computes a dense optical flow using the Gunnar Farneback's algorithm.
 
             * **OPTFLOW_FARNEBACK_GAUSSIAN** Use the Gaussian  :math:`\texttt{winsize}\times\texttt{winsize}`  filter instead of a box filter of the same size for optical flow estimation. Usually, this option gives z more accurate flow than with a box filter, at the cost of lower speed. Normally,  ``winsize``  for a Gaussian window should be set to a larger value to achieve the same level of robustness.
 
-The function finds an optical flow for each ``prevImg`` pixel using the [Farneback2003]_ alorithm so that
+The function finds an optical flow for each ``prevImg`` pixel using the [Farneback2003]_ algorithm so that
 
 .. math::
 
@@ -98,7 +98,7 @@ Computes an optimal affine transformation between two 2D point sets.
 
     :param dst: Second input 2D point set of the same size and the same type as ``A``, or another image.
 
-    :param fullAffine: If true, the function finds an optimal affine transformation with no additional resrictions (6 degrees of freedom). Otherwise, the class of transformations to choose from is limited to combinations of translation, rotation, and uniform scaling (5 degrees of freedom).
+    :param fullAffine: If true, the function finds an optimal affine transformation with no additional restrictions (6 degrees of freedom). Otherwise, the class of transformations to choose from is limited to combinations of translation, rotation, and uniform scaling (5 degrees of freedom).
 
 The function finds an optimal affine transform *[A|b]* (a ``2 x 3`` floating-point matrix) that approximates best the affine transformation between:
 
@@ -182,9 +182,9 @@ Calculates a gradient orientation of a motion history image.
 
     :param orientation: Output motion gradient orientation image that has the same type and the same size as  ``mhi`` . Each pixel of the image is a motion orientation, from 0 to 360 degrees.
 
-    :param delta1: Minimal (or maximal) allowed difference between  ``mhi``  values within a pixel neighorhood.
+    :param delta1: Minimal (or maximal) allowed difference between  ``mhi``  values within a pixel neighborhood.
     
-    :param delta2: Maximal (or minimal) allowed difference between  ``mhi``  values within a pixel neighorhood. That is, the function finds the minimum ( :math:`m(x,y)` ) and maximum ( :math:`M(x,y)` )  ``mhi``  values over  :math:`3 \times 3`  neighborhood of each pixel and marks the motion orientation at  :math:`(x, y)`  as valid only if
+    :param delta2: Maximal (or minimal) allowed difference between  ``mhi``  values within a pixel neighborhood. That is, the function finds the minimum ( :math:`m(x,y)` ) and maximum ( :math:`M(x,y)` )  ``mhi``  values over  :math:`3 \times 3`  neighborhood of each pixel and marks the motion orientation at  :math:`(x, y)`  as valid only if
 
         .. math::
 
@@ -282,7 +282,7 @@ Finds an object center, size, and orientation.
 
     :returns: (in old interfaces) Number of iterations CAMSHIFT took to converge 
 
-The function implements the CAMSHIFT object tracking algrorithm
+The function implements the CAMSHIFT object tracking algorithm
 [Bradski98]_.
 First, it finds an object center using
 :ocv:func:`meanShift` and then adjusts the window size and finds the optimal rotation. The function returns the rotated rectangle structure that includes the object position, size, and orientation. The next position of the search window can be obtained with ``RotatedRect::boundingRect()`` .
@@ -448,16 +448,16 @@ BackgroundSubtractorMOG
 
 .. ocv:class:: BackgroundSubtractorMOG : public BackgroundSubtractor
 
-Gaussian Mixture-based Backbround/Foreground Segmentation Algorithm.
+Gaussian Mixture-based Background/Foreground Segmentation Algorithm.
 
-The class implements the algorithm described in P. KadewTraKuPong and R. Bowden, *An improved adaptive background mixture model for real-time tracking with shadow detection*, Proc. 2nd European Workshp on Advanced Video-Based Surveillance Systems, 2001: http://personal.ee.surrey.ac.uk/Personal/R.Bowden/publications/avbs01/avbs01.pdf
+The class implements the algorithm described in P. KadewTraKuPong and R. Bowden, *An improved adaptive background mixture model for real-time tracking with shadow detection*, Proc. 2nd European Workshop on Advanced Video-Based Surveillance Systems, 2001: http://personal.ee.surrey.ac.uk/Personal/R.Bowden/publications/avbs01/avbs01.pdf
 
 
 
 
 BackgroundSubtractorMOG::BackgroundSubtractorMOG
 ------------------------------------------------
-The contructors
+The constructors.
 
 .. ocv:function:: BackgroundSubtractorMOG::BackgroundSubtractorMOG()
 
@@ -489,7 +489,7 @@ Parameters are the same as in :ocv:funcx:`BackgroundSubtractor::operator()`
 
 BackgroundSubtractorMOG2
 ------------------------
-Gaussian Mixture-based Backbround/Foreground Segmentation Algorithm.
+Gaussian Mixture-based Background/Foreground Segmentation Algorithm.
 
 .. ocv:class:: BackgroundSubtractorMOG2 : public BackgroundSubtractor
 
@@ -497,7 +497,7 @@ Gaussian Mixture-based Backbround/Foreground Segmentation Algorithm.
 
     .. ocv:member:: int nmixtures
     
-        Maximum allowed number of mixture comonents. Actual number is determined dynamically per pixel.
+        Maximum allowed number of mixture components. Actual number is determined dynamically per pixel.
 
     .. ocv:member:: float backgroundRatio