Merge pull request #1263 from abidrahmank:pyCLAHE_24
[profile/ivi/opencv.git] / modules / imgproc / doc / miscellaneous_transformations.rst
1 Miscellaneous Image Transformations
2 ===================================
3
4 .. highlight:: cpp
5
6
7 adaptiveThreshold
8 ---------------------
9 Applies an adaptive threshold to an array.
10
11 .. ocv:function:: void adaptiveThreshold( InputArray src, OutputArray dst, double maxValue,                        int adaptiveMethod, int thresholdType,                        int blockSize, double C )
12
13 .. ocv:pyfunction:: cv2.adaptiveThreshold(src, maxValue, adaptiveMethod, thresholdType, blockSize, C[, dst]) -> dst
14
15 .. ocv:cfunction:: void cvAdaptiveThreshold( const CvArr* src, CvArr* dst, double max_value, int adaptive_method=CV_ADAPTIVE_THRESH_MEAN_C, int threshold_type=CV_THRESH_BINARY, int block_size=3, double param1=5 )
16
17 .. ocv:pyoldfunction:: cv.AdaptiveThreshold(src, dst, maxValue, adaptive_method=CV_ADAPTIVE_THRESH_MEAN_C, thresholdType=CV_THRESH_BINARY, blockSize=3, param1=5)-> None
18
19     :param src: Source 8-bit single-channel image.
20
21     :param dst: Destination image of the same size and the same type as  ``src`` .
22
23     :param maxValue: Non-zero value assigned to the pixels for which the condition is satisfied. See the details below.
24
25     :param adaptiveMethod: Adaptive thresholding algorithm to use, ``ADAPTIVE_THRESH_MEAN_C``  or  ``ADAPTIVE_THRESH_GAUSSIAN_C`` . See the details below.
26
27     :param thresholdType: Thresholding type that must be either  ``THRESH_BINARY``  or  ``THRESH_BINARY_INV`` .
28
29     :param blockSize: Size of a pixel neighborhood that is used to calculate a threshold value for the pixel: 3, 5, 7, and so on.
30
31     :param C: Constant subtracted from the mean or weighted mean (see the details below). Normally, it is positive but may be zero or negative as well.
32
33 The function transforms a grayscale image to a binary image according to the formulae:
34
35     * **THRESH_BINARY**
36
37         .. math::
38
39              dst(x,y) =  \fork{\texttt{maxValue}}{if $src(x,y) > T(x,y)$}{0}{otherwise}
40
41     * **THRESH_BINARY_INV**
42
43         .. math::
44
45              dst(x,y) =  \fork{0}{if $src(x,y) > T(x,y)$}{\texttt{maxValue}}{otherwise}
46
47 where
48 :math:`T(x,y)` is a threshold calculated individually for each pixel.
49
50 *
51     For the method ``ADAPTIVE_THRESH_MEAN_C``  , the threshold value
52     :math:`T(x,y)`     is a mean of the
53     :math:`\texttt{blockSize} \times \texttt{blockSize}`     neighborhood of
54     :math:`(x, y)`     minus ``C``     .
55
56 *
57     For the method ``ADAPTIVE_THRESH_GAUSSIAN_C`` , the threshold value
58     :math:`T(x, y)`     is a weighted sum (cross-correlation with a Gaussian window) of the
59     :math:`\texttt{blockSize} \times \texttt{blockSize}`     neighborhood of
60     :math:`(x, y)`      minus ``C``     . The default sigma (standard deviation) is used for the specified ``blockSize``   . See
61     :ocv:func:`getGaussianKernel`     .
62
63 The function can process the image in-place.
64
65 .. seealso::
66
67     :ocv:func:`threshold`,
68     :ocv:func:`blur`,
69     :ocv:func:`GaussianBlur`
70
71
72
73 cvtColor
74 --------
75 Converts an image from one color space to another.
76
77 .. ocv:function:: void cvtColor( InputArray src, OutputArray dst, int code, int dstCn=0 )
78
79 .. ocv:pyfunction:: cv2.cvtColor(src, code[, dst[, dstCn]]) -> dst
80
81 .. ocv:cfunction:: void cvCvtColor( const CvArr* src, CvArr* dst, int code )
82 .. ocv:pyoldfunction:: cv.CvtColor(src, dst, code)-> None
83
84     :param src: input image: 8-bit unsigned, 16-bit unsigned ( ``CV_16UC...`` ), or single-precision floating-point.
85
86     :param dst: output image of the same size and depth as ``src``.
87
88     :param code: color space conversion code (see the description below).
89
90     :param dstCn: number of channels in the destination image; if the parameter is 0, the number of the channels is derived automatically from  ``src``  and   ``code`` .
91
92 The function converts an input image from one color
93 space to another. In case of a transformation to-from RGB color space, the order of the channels should be specified explicitly (RGB or BGR).
94 Note that the default color format in OpenCV is often referred to as RGB but it is actually BGR (the bytes are reversed). So the first byte in a standard (24-bit) color image will be an 8-bit Blue component, the second byte will be Green, and the third byte will be Red. The fourth, fifth, and sixth bytes would then be the second pixel (Blue, then Green, then Red), and so on.
95
96 The conventional ranges for R, G, and B channel values are:
97
98 *
99     0 to 255 for ``CV_8U``     images
100
101 *
102     0 to 65535 for ``CV_16U``     images
103
104 *
105     0 to 1 for ``CV_32F``     images
106
107 In case of linear transformations, the range does not matter.
108 But in case of a non-linear transformation, an input RGB image should be normalized to the proper value range to get the correct results, for example, for RGB
109 :math:`\rightarrow` L*u*v* transformation. For example, if you have a 32-bit floating-point image directly converted from an 8-bit image without any scaling, then it will have the 0..255 value range instead of 0..1 assumed by the function. So, before calling ``cvtColor`` , you need first to scale the image down: ::
110
111     img *= 1./255;
112     cvtColor(img, img, CV_BGR2Luv);
113
114 If you use ``cvtColor`` with 8-bit images, the conversion will have some information lost. For many applications, this will not be noticeable but it is recommended to use 32-bit images in applications that need the full range of colors or that convert an image before an operation and then convert back.
115
116 The function can do the following transformations:
117
118 *
119     RGB :math:`\leftrightarrow` GRAY ( ``CV_BGR2GRAY, CV_RGB2GRAY, CV_GRAY2BGR, CV_GRAY2RGB``     )
120     Transformations within RGB space like adding/removing the alpha channel, reversing the channel order, conversion to/from 16-bit RGB color (R5:G6:B5 or R5:G5:B5), as well as conversion to/from grayscale using:
121
122     .. math::
123
124         \text{RGB[A] to Gray:} \quad Y  \leftarrow 0.299  \cdot R + 0.587  \cdot G + 0.114  \cdot B
125
126     and
127
128     .. math::
129
130         \text{Gray to RGB[A]:} \quad R  \leftarrow Y, G  \leftarrow Y, B  \leftarrow Y, A  \leftarrow 0
131
132     The conversion from a RGB image to gray is done with:
133
134     ::
135
136         cvtColor(src, bwsrc, CV_RGB2GRAY);
137
138     ..
139
140     More advanced channel reordering can also be done with
141     :ocv:func:`mixChannels`     .
142
143 *
144     RGB
145     :math:`\leftrightarrow`     CIE XYZ.Rec 709 with D65 white point ( ``CV_BGR2XYZ, CV_RGB2XYZ, CV_XYZ2BGR, CV_XYZ2RGB``     ):
146
147     .. math::
148
149         \begin{bmatrix} X  \\ Y  \\ Z
150           \end{bmatrix} \leftarrow \begin{bmatrix} 0.412453 & 0.357580 & 0.180423 \\ 0.212671 & 0.715160 & 0.072169 \\ 0.019334 & 0.119193 & 0.950227
151           \end{bmatrix} \cdot \begin{bmatrix} R  \\ G  \\ B
152           \end{bmatrix}
153
154     .. math::
155
156         \begin{bmatrix} R  \\ G  \\ B
157           \end{bmatrix} \leftarrow \begin{bmatrix} 3.240479 & -1.53715 & -0.498535 \\ -0.969256 &  1.875991 & 0.041556 \\ 0.055648 & -0.204043 & 1.057311
158           \end{bmatrix} \cdot \begin{bmatrix} X  \\ Y  \\ Z
159           \end{bmatrix}
160
161     :math:`X`,    :math:`Y`     and
162     :math:`Z`     cover the whole value range (in case of floating-point images,
163     :math:`Z`     may exceed 1).
164
165 *
166     RGB
167     :math:`\leftrightarrow`     YCrCb JPEG (or YCC) ( ``CV_BGR2YCrCb, CV_RGB2YCrCb, CV_YCrCb2BGR, CV_YCrCb2RGB``     )
168
169     .. math::
170
171         Y  \leftarrow 0.299  \cdot R + 0.587  \cdot G + 0.114  \cdot B
172
173     .. math::
174
175         Cr  \leftarrow (R-Y)  \cdot 0.713 + delta
176
177     .. math::
178
179         Cb  \leftarrow (B-Y)  \cdot 0.564 + delta
180
181     .. math::
182
183         R  \leftarrow Y + 1.403  \cdot (Cr - delta)
184
185     .. math::
186
187         G  \leftarrow Y - 0.714  \cdot (Cr - delta) - 0.344  \cdot (Cb - delta)
188
189     .. math::
190
191         B  \leftarrow Y + 1.773  \cdot (Cb - delta)
192
193     where
194
195     .. math::
196
197         delta =  \left \{ \begin{array}{l l} 128 &  \mbox{for 8-bit images} \\ 32768 &  \mbox{for 16-bit images} \\ 0.5 &  \mbox{for floating-point images} \end{array} \right .
198
199     Y, Cr, and Cb cover the whole value range.
200
201 *
202     RGB :math:`\leftrightarrow` HSV ( ``CV_BGR2HSV, CV_RGB2HSV, CV_HSV2BGR, CV_HSV2RGB``     )
203       In case of 8-bit and 16-bit images,
204       R, G, and B are converted to the floating-point format and scaled to fit the 0 to 1 range.
205
206     .. math::
207
208         V  \leftarrow max(R,G,B)
209
210     .. math::
211
212         S  \leftarrow \fork{\frac{V-min(R,G,B)}{V}}{if $V \neq 0$}{0}{otherwise}
213
214     .. math::
215
216         H  \leftarrow \forkthree{{60(G - B)}/{(V-min(R,G,B))}}{if $V=R$}{{120+60(B - R)}/{(V-min(R,G,B))}}{if $V=G$}{{240+60(R - G)}/{(V-min(R,G,B))}}{if $V=B$}
217
218     If
219     :math:`H<0`     then
220     :math:`H \leftarrow H+360`  . On output
221     :math:`0 \leq V \leq 1`,    :math:`0 \leq S \leq 1`,    :math:`0 \leq H \leq 360`     .
222
223     The values are then converted to the destination data type:
224
225     * 8-bit images
226
227         .. math::
228
229             V  \leftarrow 255 V, S  \leftarrow 255 S, H  \leftarrow H/2  \text{(to fit to 0 to 255)}
230
231     * 16-bit images (currently not supported)
232
233         .. math::
234
235             V <- 65535 V, S <- 65535 S, H <- H
236
237     * 32-bit images
238         H, S, and V are left as is
239
240 *
241     RGB :math:`\leftrightarrow` HLS ( ``CV_BGR2HLS, CV_RGB2HLS, CV_HLS2BGR, CV_HLS2RGB`` ).
242       In case of 8-bit and 16-bit images,
243       R, G, and B are converted to the floating-point format and scaled to fit the 0 to 1 range.
244
245     .. math::
246
247         V_{max}  \leftarrow {max}(R,G,B)
248
249     .. math::
250
251         V_{min}  \leftarrow {min}(R,G,B)
252
253     .. math::
254
255         L  \leftarrow \frac{V_{max} + V_{min}}{2}
256
257     .. math::
258
259         S  \leftarrow \fork { \frac{V_{max} - V_{min}}{V_{max} + V_{min}} }{if  $L < 0.5$ }
260             { \frac{V_{max} - V_{min}}{2 - (V_{max} + V_{min})} }{if  $L \ge 0.5$ }
261
262     .. math::
263
264         H  \leftarrow \forkthree {{60(G - B)}/{S}}{if  $V_{max}=R$ }
265           {{120+60(B - R)}/{S}}{if  $V_{max}=G$ }
266           {{240+60(R - G)}/{S}}{if  $V_{max}=B$ }
267
268     If
269     :math:`H<0`     then
270     :math:`H \leftarrow H+360`  . On output
271     :math:`0 \leq L \leq 1`,    :math:`0 \leq S \leq 1`,    :math:`0 \leq H \leq 360`     .
272
273     The values are then converted to the destination data type:
274
275     * 8-bit images
276
277         .. math::
278
279             V  \leftarrow 255 \cdot V, S  \leftarrow 255 \cdot S, H  \leftarrow H/2 \; \text{(to fit to 0 to 255)}
280
281     * 16-bit images (currently not supported)
282
283         .. math::
284
285             V <- 65535 \cdot V, S <- 65535 \cdot S, H <- H
286
287     * 32-bit images
288         H, S, V are left as is
289
290 *
291     RGB :math:`\leftrightarrow` CIE L*a*b* ( ``CV_BGR2Lab, CV_RGB2Lab, CV_Lab2BGR, CV_Lab2RGB`` ).
292       In case of 8-bit and 16-bit images,
293       R, G, and B are converted to the floating-point format and scaled to fit the 0 to 1 range.
294
295     .. math::
296
297         \vecthree{X}{Y}{Z} \leftarrow \vecthreethree{0.412453}{0.357580}{0.180423}{0.212671}{0.715160}{0.072169}{0.019334}{0.119193}{0.950227} \cdot \vecthree{R}{G}{B}
298
299     .. math::
300
301         X  \leftarrow X/X_n,  \text{where} X_n = 0.950456
302
303     .. math::
304
305         Z  \leftarrow Z/Z_n,  \text{where} Z_n = 1.088754
306
307     .. math::
308
309         L  \leftarrow \fork{116*Y^{1/3}-16}{for $Y>0.008856$}{903.3*Y}{for $Y \le 0.008856$}
310
311     .. math::
312
313         a  \leftarrow 500 (f(X)-f(Y)) + delta
314
315     .. math::
316
317         b  \leftarrow 200 (f(Y)-f(Z)) + delta
318
319     where
320
321     .. math::
322
323         f(t)= \fork{t^{1/3}}{for $t>0.008856$}{7.787 t+16/116}{for $t\leq 0.008856$}
324
325     and
326
327     .. math::
328
329         delta =  \fork{128}{for 8-bit images}{0}{for floating-point images}
330
331     This outputs
332     :math:`0 \leq L \leq 100`,    :math:`-127 \leq a \leq 127`,    :math:`-127 \leq b \leq 127`  . The values are then converted to the destination data type:
333
334     * 8-bit images
335
336         .. math::
337
338             L  \leftarrow L*255/100, \; a  \leftarrow a + 128, \; b  \leftarrow b + 128
339
340     * 16-bit images
341         (currently not supported)
342
343     * 32-bit images
344         L, a, and b are left as is
345
346 *
347     RGB :math:`\leftrightarrow` CIE L*u*v* ( ``CV_BGR2Luv, CV_RGB2Luv, CV_Luv2BGR, CV_Luv2RGB`` ).
348       In case of 8-bit and 16-bit images,
349       R, G, and B are converted to the floating-point format and scaled to fit 0 to 1 range.
350
351     .. math::
352
353         \vecthree{X}{Y}{Z} \leftarrow \vecthreethree{0.412453}{0.357580}{0.180423}{0.212671}{0.715160}{0.072169}{0.019334}{0.119193}{0.950227} \cdot \vecthree{R}{G}{B}
354
355     .. math::
356
357         L  \leftarrow \fork{116 Y^{1/3}}{for $Y>0.008856$}{903.3 Y}{for $Y\leq 0.008856$}
358
359     .. math::
360
361         u'  \leftarrow 4*X/(X + 15*Y + 3 Z)
362
363     .. math::
364
365         v'  \leftarrow 9*Y/(X + 15*Y + 3 Z)
366
367     .. math::
368
369         u  \leftarrow 13*L*(u' - u_n)  \quad \text{where} \quad u_n=0.19793943
370
371     .. math::
372
373         v  \leftarrow 13*L*(v' - v_n)  \quad \text{where} \quad v_n=0.46831096
374
375     This outputs
376     :math:`0 \leq L \leq 100`,    :math:`-134 \leq u \leq 220`,    :math:`-140 \leq v \leq 122`     .
377
378     The values are then converted to the destination data type:
379
380     * 8-bit images
381
382         .. math::
383
384             L  \leftarrow 255/100 L, \; u  \leftarrow 255/354 (u + 134), \; v  \leftarrow 255/256 (v + 140)
385
386     * 16-bit images
387         (currently not supported)
388
389     * 32-bit images
390         L, u, and v are left as is
391
392     The above formulae for converting RGB to/from various color spaces have been taken from multiple sources on the web, primarily from the Charles Poynton site
393     http://www.poynton.com/ColorFAQ.html
394
395 *
396     Bayer :math:`\rightarrow`     RGB ( ``CV_BayerBG2BGR, CV_BayerGB2BGR, CV_BayerRG2BGR, CV_BayerGR2BGR, CV_BayerBG2RGB, CV_BayerGB2RGB, CV_BayerRG2RGB, CV_BayerGR2RGB``     ). The Bayer pattern is widely used in CCD and CMOS cameras. It enables you to get color pictures from a single plane where R,G, and B pixels (sensors of a particular component) are interleaved as follows:
397
398     .. image:: pics/bayer.png
399
400     The output RGB components of a pixel are interpolated from 1, 2, or
401     4 neighbors of the pixel having the same color. There are several
402     modifications of the above pattern that can be achieved by shifting
403     the pattern one pixel left and/or one pixel up. The two letters
404     :math:`C_1`     and
405     :math:`C_2`     in the conversion constants ``CV_Bayer``     :math:`C_1 C_2`     ``2BGR``     and ``CV_Bayer``     :math:`C_1 C_2`     ``2RGB``     indicate the particular pattern
406     type. These are components from the second row, second and third
407     columns, respectively. For example, the above pattern has a very
408     popular "BG" type.
409
410
411 distanceTransform
412 -----------------
413 Calculates the distance to the closest zero pixel for each pixel of the source image.
414
415 .. ocv:function:: void distanceTransform( InputArray src, OutputArray dst, int distanceType, int maskSize )
416
417 .. ocv:function:: void distanceTransform( InputArray src, OutputArray dst, OutputArray labels, int distanceType, int maskSize, int labelType=DIST_LABEL_CCOMP )
418
419 .. ocv:pyfunction:: cv2.distanceTransform(src, distanceType, maskSize[, dst]) -> dst
420
421 .. ocv:cfunction:: void cvDistTransform( const CvArr* src, CvArr* dst, int distance_type=CV_DIST_L2, int mask_size=3, const float* mask=NULL, CvArr* labels=NULL, int labelType=CV_DIST_LABEL_CCOMP )
422
423 .. ocv:pyoldfunction:: cv.DistTransform(src, dst, distance_type=CV_DIST_L2, mask_size=3, mask=None, labels=None) -> None
424
425     :param src: 8-bit, single-channel (binary) source image.
426
427     :param dst: Output image with calculated distances. It is a 32-bit floating-point, single-channel image of the same size as  ``src`` .
428
429     :param distanceType: Type of distance. It can be  ``CV_DIST_L1, CV_DIST_L2`` , or  ``CV_DIST_C`` .
430
431     :param maskSize: Size of the distance transform mask. It can be 3, 5, or  ``CV_DIST_MASK_PRECISE``  (the latter option is only supported by the first function). In case of the ``CV_DIST_L1``  or  ``CV_DIST_C``  distance type, the parameter is forced to 3 because a  :math:`3\times 3`  mask gives the same result as  :math:`5\times 5`  or any larger aperture.
432
433     :param labels: Optional output 2D array of labels (the discrete Voronoi diagram). It has the type  ``CV_32SC1``  and the same size as  ``src`` . See the details below.
434
435     :param labelType: Type of the label array to build. If ``labelType==DIST_LABEL_CCOMP`` then each connected component of zeros in ``src`` (as well as all the non-zero pixels closest to the connected component) will be assigned the same label. If ``labelType==DIST_LABEL_PIXEL`` then each zero pixel (and all the non-zero pixels closest to it) gets its own label.
436
437 The functions ``distanceTransform`` calculate the approximate or precise
438 distance from every binary image pixel to the nearest zero pixel.
439 For zero image pixels, the distance will obviously be zero.
440
441 When ``maskSize == CV_DIST_MASK_PRECISE`` and ``distanceType == CV_DIST_L2`` , the function runs the algorithm described in [Felzenszwalb04]_. This algorithm is parallelized with the TBB library.
442
443 In other cases, the algorithm
444 [Borgefors86]_
445 is used. This means that
446 for a pixel the function finds the shortest path to the nearest zero pixel
447 consisting of basic shifts: horizontal,
448 vertical, diagonal, or knight's move (the latest is available for a
449 :math:`5\times 5` mask). The overall distance is calculated as a sum of these
450 basic distances. Since the distance function should be symmetric,
451 all of the horizontal and vertical shifts must have the same cost (denoted as ``a`` ), all the diagonal shifts must have the
452 same cost (denoted as ``b`` ), and all knight's moves must have
453 the same cost (denoted as ``c`` ). For the ``CV_DIST_C`` and ``CV_DIST_L1`` types, the distance is calculated precisely,
454 whereas for ``CV_DIST_L2`` (Euclidean distance) the distance
455 can be calculated only with a relative error (a
456 :math:`5\times 5` mask
457 gives more accurate results). For ``a``,``b`` , and ``c`` , OpenCV uses the values suggested in the original paper:
458
459 .. table::
460
461     ==============  ===================  ======================
462     ``CV_DIST_C``   :math:`(3\times 3)`  a = 1, b = 1 \
463     ==============  ===================  ======================
464     ``CV_DIST_L1``  :math:`(3\times 3)`  a = 1, b = 2 \
465     ``CV_DIST_L2``  :math:`(3\times 3)`  a=0.955, b=1.3693 \
466     ``CV_DIST_L2``  :math:`(5\times 5)`  a=1, b=1.4, c=2.1969 \
467     ==============  ===================  ======================
468
469 Typically, for a fast, coarse distance estimation ``CV_DIST_L2``, a
470 :math:`3\times 3` mask is used. For a more accurate distance estimation ``CV_DIST_L2`` , a
471 :math:`5\times 5` mask or the precise algorithm is used.
472 Note that both the precise and the approximate algorithms are linear on the number of pixels.
473
474 The second variant of the function does not only compute the minimum distance for each pixel
475 :math:`(x, y)` but also identifies the nearest connected
476 component consisting of zero pixels (``labelType==DIST_LABEL_CCOMP``) or the nearest zero pixel (``labelType==DIST_LABEL_PIXEL``). Index of the component/pixel is stored in
477 :math:`\texttt{labels}(x, y)` .
478 When ``labelType==DIST_LABEL_CCOMP``, the function automatically finds connected components of zero pixels in the input image and marks them with distinct labels. When ``labelType==DIST_LABEL_CCOMP``, the function scans through the input image and marks all the zero pixels with distinct labels.
479
480 In this mode, the complexity is still linear.
481 That is, the function provides a very fast way to compute the Voronoi diagram for a binary image.
482 Currently, the second variant can use only the approximate distance transform algorithm, i.e. ``maskSize=CV_DIST_MASK_PRECISE`` is not supported yet.
483
484 .. note::
485
486    * An example on using the distance transform can be found at opencv_source_code/samples/cpp/distrans.cpp
487
488    * (Python) An example on using the distance transform can be found at opencv_source/samples/python2/distrans.py
489
490 floodFill
491 ---------
492 Fills a connected component with the given color.
493
494 .. ocv:function:: int floodFill( InputOutputArray image, Point seedPoint, Scalar newVal, Rect* rect=0, Scalar loDiff=Scalar(), Scalar upDiff=Scalar(), int flags=4 )
495
496 .. ocv:function:: int floodFill( InputOutputArray image, InputOutputArray mask, Point seedPoint, Scalar newVal, Rect* rect=0, Scalar loDiff=Scalar(), Scalar upDiff=Scalar(), int flags=4 )
497
498 .. ocv:pyfunction:: cv2.floodFill(image, mask, seedPoint, newVal[, loDiff[, upDiff[, flags]]]) -> retval, rect
499
500 .. ocv:cfunction:: void cvFloodFill( CvArr* image, CvPoint seed_point, CvScalar new_val, CvScalar lo_diff=cvScalarAll(0), CvScalar up_diff=cvScalarAll(0), CvConnectedComp* comp=NULL, int flags=4, CvArr* mask=NULL )
501 .. ocv:pyoldfunction:: cv.FloodFill(image, seed_point, new_val, lo_diff=(0, 0, 0, 0), up_diff=(0, 0, 0, 0), flags=4, mask=None)-> comp
502
503     :param image: Input/output 1- or 3-channel, 8-bit, or floating-point image. It is modified by the function unless the  ``FLOODFILL_MASK_ONLY``  flag is set in the second variant of the function. See the details below.
504
505     :param mask: (For the second function only) Operation mask that should be a single-channel 8-bit image, 2 pixels wider and 2 pixels taller. The function uses and updates the mask, so you take responsibility of initializing the  ``mask``  content. Flood-filling cannot go across non-zero pixels in the mask. For example, an edge detector output can be used as a mask to stop filling at edges. It is possible to use the same mask in multiple calls to the function to make sure the filled area does not overlap.
506
507         .. note:: Since the mask is larger than the filled image, a pixel  :math:`(x, y)`  in  ``image``  corresponds to the pixel  :math:`(x+1, y+1)`  in the  ``mask`` .
508
509     :param seedPoint: Starting point.
510
511     :param newVal: New value of the repainted domain pixels.
512
513     :param loDiff: Maximal lower brightness/color difference between the currently observed pixel and one of its neighbors belonging to the component, or a seed pixel being added to the component.
514
515     :param upDiff: Maximal upper brightness/color difference between the currently observed pixel and one of its neighbors belonging to the component, or a seed pixel being added to the component.
516
517     :param rect: Optional output parameter set by the function to the minimum bounding rectangle of the repainted domain.
518
519     :param flags: Operation flags. Lower bits contain a connectivity value, 4 (default) or 8, used within the function. Connectivity determines which neighbors of a pixel are considered. Upper bits can be 0 or a combination of the following flags:
520
521             * **FLOODFILL_FIXED_RANGE** If set, the difference between the current pixel and seed pixel is considered. Otherwise, the difference between neighbor pixels is considered (that is, the range is floating).
522
523             * **FLOODFILL_MASK_ONLY**  If set, the function does not change the image ( ``newVal``  is ignored), but fills the mask.  The flag can be used for the second variant only.
524
525 The functions ``floodFill`` fill a connected component starting from the seed point with the specified color. The connectivity is determined by the color/brightness closeness of the neighbor pixels. The pixel at
526 :math:`(x,y)` is considered to belong to the repainted domain if:
527
528 *
529     .. math::
530
531         \texttt{src} (x',y')- \texttt{loDiff} \leq \texttt{src} (x,y)  \leq \texttt{src} (x',y')+ \texttt{upDiff}
532
533     in case of a grayscale image and floating range
534
535 *
536
537     .. math::
538
539         \texttt{src} ( \texttt{seedPoint} .x, \texttt{seedPoint} .y)- \texttt{loDiff} \leq \texttt{src} (x,y)  \leq \texttt{src} ( \texttt{seedPoint} .x, \texttt{seedPoint} .y)+ \texttt{upDiff}
540
541     in case of a grayscale image and fixed range
542
543 *
544
545     .. math::
546
547         \texttt{src} (x',y')_r- \texttt{loDiff} _r \leq \texttt{src} (x,y)_r \leq \texttt{src} (x',y')_r+ \texttt{upDiff} _r,
548
549     .. math::
550
551         \texttt{src} (x',y')_g- \texttt{loDiff} _g \leq \texttt{src} (x,y)_g \leq \texttt{src} (x',y')_g+ \texttt{upDiff} _g
552
553     and
554
555     .. math::
556
557         \texttt{src} (x',y')_b- \texttt{loDiff} _b \leq \texttt{src} (x,y)_b \leq \texttt{src} (x',y')_b+ \texttt{upDiff} _b
558
559     in case of a color image and floating range
560
561
562 *
563
564     .. math::
565
566         \texttt{src} ( \texttt{seedPoint} .x, \texttt{seedPoint} .y)_r- \texttt{loDiff} _r \leq \texttt{src} (x,y)_r \leq \texttt{src} ( \texttt{seedPoint} .x, \texttt{seedPoint} .y)_r+ \texttt{upDiff} _r,
567
568     .. math::
569
570         \texttt{src} ( \texttt{seedPoint} .x, \texttt{seedPoint} .y)_g- \texttt{loDiff} _g \leq \texttt{src} (x,y)_g \leq \texttt{src} ( \texttt{seedPoint} .x, \texttt{seedPoint} .y)_g+ \texttt{upDiff} _g
571
572     and
573
574     .. math::
575
576         \texttt{src} ( \texttt{seedPoint} .x, \texttt{seedPoint} .y)_b- \texttt{loDiff} _b \leq \texttt{src} (x,y)_b \leq \texttt{src} ( \texttt{seedPoint} .x, \texttt{seedPoint} .y)_b+ \texttt{upDiff} _b
577
578     in case of a color image and fixed range
579
580 where
581 :math:`src(x',y')` is the value of one of pixel neighbors that is already known to belong to the component. That is, to be added to the connected component, a color/brightness of the pixel should be close enough to:
582
583 *
584     Color/brightness of one of its neighbors that already belong to the connected component in case of a floating range.
585
586 *
587     Color/brightness of the seed point in case of a fixed range.
588
589 Use these functions to either mark a connected component with the specified color in-place, or build a mask and then extract the contour, or copy the region to another image, and so on.
590
591 .. seealso:: :ocv:func:`findContours`
592
593 .. note::
594
595    * An example using the FloodFill technique can be found at opencv_source_code/samples/cpp/ffilldemo.cpp
596
597    * (Python) An example using the FloodFill technique can be found at opencv_source_code/samples/python2/floodfill.cpp
598
599 integral
600 --------
601 Calculates the integral of an image.
602
603 .. ocv:function:: void integral( InputArray src, OutputArray sum, int sdepth=-1 )
604
605 .. ocv:function:: void integral( InputArray src, OutputArray sum, OutputArray sqsum, int sdepth=-1 )
606
607 .. ocv:function:: void integral( InputArray src, OutputArray sum, OutputArray sqsum, OutputArray tilted, int sdepth=-1 )
608
609 .. ocv:pyfunction:: cv2.integral(src[, sum[, sdepth]]) -> sum
610
611 .. ocv:pyfunction:: cv2.integral2(src[, sum[, sqsum[, sdepth]]]) -> sum, sqsum
612
613 .. ocv:pyfunction:: cv2.integral3(src[, sum[, sqsum[, tilted[, sdepth]]]]) -> sum, sqsum, tilted
614
615 .. ocv:cfunction:: void cvIntegral( const CvArr* image, CvArr* sum, CvArr* sqsum=NULL, CvArr* tilted_sum=NULL )
616
617 .. ocv:pyoldfunction:: cv.Integral(image, sum, sqsum=None, tiltedSum=None)-> None
618
619     :param image: input image as :math:`W \times H`, 8-bit or floating-point (32f or 64f).
620
621     :param sum: integral image as  :math:`(W+1)\times (H+1)` , 32-bit integer or floating-point (32f or 64f).
622
623     :param sqsum: integral image for squared pixel values; it is :math:`(W+1)\times (H+1)`, double-precision floating-point (64f) array.
624
625     :param tilted: integral for the image rotated by 45 degrees; it is :math:`(W+1)\times (H+1)` array  with the same data type as ``sum``.
626
627     :param sdepth: desired depth of the integral and the tilted integral images,  ``CV_32S``, ``CV_32F``,  or  ``CV_64F``.
628
629 The functions calculate one or more integral images for the source image as follows:
630
631 .. math::
632
633     \texttt{sum} (X,Y) =  \sum _{x<X,y<Y}  \texttt{image} (x,y)
634
635 .. math::
636
637     \texttt{sqsum} (X,Y) =  \sum _{x<X,y<Y}  \texttt{image} (x,y)^2
638
639 .. math::
640
641     \texttt{tilted} (X,Y) =  \sum _{y<Y,abs(x-X+1) \leq Y-y-1}  \texttt{image} (x,y)
642
643 Using these integral images, you can calculate sa um, mean, and standard deviation over a specific up-right or rotated rectangular region of the image in a constant time, for example:
644
645 .. math::
646
647     \sum _{x_1 \leq x < x_2,  \, y_1  \leq y < y_2}  \texttt{image} (x,y) =  \texttt{sum} (x_2,y_2)- \texttt{sum} (x_1,y_2)- \texttt{sum} (x_2,y_1)+ \texttt{sum} (x_1,y_1)
648
649 It makes possible to do a fast blurring or fast block correlation with a variable window size, for example. In case of multi-channel images, sums for each channel are accumulated independently.
650
651 As a practical example, the next figure shows the calculation of the integral of a straight rectangle ``Rect(3,3,3,2)`` and of a tilted rectangle ``Rect(5,1,2,3)`` . The selected pixels in the original ``image`` are shown, as well as the relative pixels in the integral images ``sum`` and ``tilted`` .
652
653 .. image:: pics/integral.png
654
655
656
657
658
659 threshold
660 ---------
661 Applies a fixed-level threshold to each array element.
662
663 .. ocv:function:: double threshold( InputArray src, OutputArray dst, double thresh, double maxval, int type )
664
665 .. ocv:pyfunction:: cv2.threshold(src, thresh, maxval, type[, dst]) -> retval, dst
666
667 .. ocv:cfunction:: double cvThreshold( const CvArr* src, CvArr* dst, double threshold, double max_value, int threshold_type )
668
669 .. ocv:pyoldfunction:: cv.Threshold(src, dst, threshold, maxValue, thresholdType)-> None
670
671     :param src: input array (single-channel, 8-bit or 32-bit floating point).
672
673     :param dst: output array of the same size and type as ``src``.
674
675     :param thresh: threshold value.
676
677     :param maxval: maximum value to use with the ``THRESH_BINARY`` and ``THRESH_BINARY_INV`` thresholding types.
678
679     :param type: thresholding type (see the details below).
680
681 The function applies fixed-level thresholding
682 to a single-channel array. The function is typically used to get a
683 bi-level (binary) image out of a grayscale image (
684 :ocv:func:`compare` could
685 be also used for this purpose) or for removing a noise, that is, filtering
686 out pixels with too small or too large values. There are several
687 types of thresholding supported by the function. They are determined by ``type`` :
688
689     * **THRESH_BINARY**
690
691         .. math::
692
693               \texttt{dst} (x,y) =  \fork{\texttt{maxval}}{if $\texttt{src}(x,y) > \texttt{thresh}$}{0}{otherwise}
694
695     * **THRESH_BINARY_INV**
696
697         .. math::
698
699               \texttt{dst} (x,y) =  \fork{0}{if $\texttt{src}(x,y) > \texttt{thresh}$}{\texttt{maxval}}{otherwise}
700
701     * **THRESH_TRUNC**
702
703         .. math::
704
705               \texttt{dst} (x,y) =  \fork{\texttt{threshold}}{if $\texttt{src}(x,y) > \texttt{thresh}$}{\texttt{src}(x,y)}{otherwise}
706
707     * **THRESH_TOZERO**
708
709         .. math::
710
711               \texttt{dst} (x,y) =  \fork{\texttt{src}(x,y)}{if $\texttt{src}(x,y) > \texttt{thresh}$}{0}{otherwise}
712
713     * **THRESH_TOZERO_INV**
714
715         .. math::
716
717               \texttt{dst} (x,y) =  \fork{0}{if $\texttt{src}(x,y) > \texttt{thresh}$}{\texttt{src}(x,y)}{otherwise}
718
719 Also, the special value ``THRESH_OTSU`` may be combined with
720 one of the above values. In this case, the function determines the optimal threshold
721 value using the Otsu's algorithm and uses it instead of the specified ``thresh`` .
722 The function returns the computed threshold value.
723 Currently, the Otsu's method is implemented only for 8-bit images.
724
725
726 .. image:: pics/threshold.png
727
728 .. seealso::
729
730     :ocv:func:`adaptiveThreshold`,
731     :ocv:func:`findContours`,
732     :ocv:func:`compare`,
733     :ocv:func:`min`,
734     :ocv:func:`max`
735
736
737 watershed
738 ---------
739 Performs a marker-based image segmentation using the watershed algorithm.
740
741 .. ocv:function:: void watershed( InputArray image, InputOutputArray markers )
742
743 .. ocv:cfunction:: void cvWatershed( const CvArr* image, CvArr* markers )
744
745 .. ocv:pyfunction:: cv2.watershed(image, markers) -> None
746
747     :param image: Input 8-bit 3-channel image.
748
749     :param markers: Input/output 32-bit single-channel image (map) of markers. It should have the same size as  ``image`` .
750
751 The function implements one of the variants of watershed, non-parametric marker-based segmentation algorithm, described in [Meyer92]_.
752
753 Before passing the image to the function, you have to roughly outline the desired regions in the image ``markers`` with positive (``>0``) indices. So, every region is represented as one or more connected components with the pixel values 1, 2, 3, and so on. Such markers can be retrieved from a binary mask using :ocv:func:`findContours` and :ocv:func:`drawContours` (see the ``watershed.cpp`` demo). The markers are "seeds" of the future image regions. All the other pixels in ``markers`` , whose relation to the outlined regions is not known and should be defined by the algorithm, should be set to 0's. In the function output, each pixel in markers is set to a value of the "seed" components or to -1 at boundaries between the regions.
754
755 Visual demonstration and usage example of the function can be found in the OpenCV samples directory (see the ``watershed.cpp`` demo).
756
757 .. note:: Any two neighbor connected components are not necessarily separated by a watershed boundary (-1's pixels); for example, they can touch each other in the initial marker image passed to the function.
758
759 .. seealso:: :ocv:func:`findContours`
760
761 .. note::
762
763    * An example using the watershed algorithm can be found at opencv_source_code/samples/cpp/watershed.cpp
764
765    * (Python) An example using the watershed algorithm can be found at opencv_source_code/samples/python2/watershed.py
766
767 grabCut
768 -------
769 Runs the GrabCut algorithm.
770
771 .. ocv:function:: void grabCut( InputArray img, InputOutputArray mask, Rect rect, InputOutputArray bgdModel, InputOutputArray fgdModel, int iterCount, int mode=GC_EVAL )
772
773 .. ocv:pyfunction:: cv2.grabCut(img, mask, rect, bgdModel, fgdModel, iterCount[, mode]) -> None
774
775     :param img: Input 8-bit 3-channel image.
776
777     :param mask: Input/output 8-bit single-channel mask. The mask is initialized by the function when  ``mode`` is set to ``GC_INIT_WITH_RECT``. Its elements may have one of following values:
778
779         * **GC_BGD** defines an obvious background pixels.
780
781         * **GC_FGD** defines an obvious foreground (object) pixel.
782
783         * **GC_PR_BGD** defines a possible background pixel.
784
785         * **GC_PR_FGD** defines a possible foreground pixel.
786
787     :param rect: ROI containing a segmented object. The pixels outside of the ROI are marked as "obvious background". The parameter is only used when  ``mode==GC_INIT_WITH_RECT`` .
788
789     :param bgdModel: Temporary array for the background model. Do not modify it while you are processing the same image.
790
791     :param fgdModel: Temporary arrays for the foreground model. Do not modify it while you are processing the same image.
792
793     :param iterCount: Number of iterations the algorithm should make before returning the result. Note that the result can be refined with further calls with  ``mode==GC_INIT_WITH_MASK``  or  ``mode==GC_EVAL`` .
794
795     :param mode: Operation mode that could be one of the following:
796
797         * **GC_INIT_WITH_RECT**     The function initializes the state and the mask using the provided rectangle. After that it runs  ``iterCount``  iterations of the algorithm.
798
799         * **GC_INIT_WITH_MASK**     The function initializes the state using the provided mask. Note that  ``GC_INIT_WITH_RECT``  and  ``GC_INIT_WITH_MASK``  can be combined. Then, all the pixels outside of the ROI are automatically initialized with  ``GC_BGD`` .
800
801         * **GC_EVAL**     The value means that the algorithm should just resume.
802
803 The function implements the `GrabCut image segmentation algorithm <http://en.wikipedia.org/wiki/GrabCut>`_.
804 See the sample ``grabcut.cpp`` to learn how to use the function.
805
806 .. [Borgefors86] Borgefors, Gunilla, *Distance transformations in digital images*. Comput. Vision Graph. Image Process. 34 3, pp 344–371 (1986)
807
808 .. [Felzenszwalb04] Felzenszwalb, Pedro F. and Huttenlocher, Daniel P. *Distance Transforms of Sampled Functions*, TR2004-1963, TR2004-1963 (2004)
809
810 .. [Meyer92] Meyer, F. *Color Image Segmentation*, ICIP92, 1992
811
812 .. [Telea04] Alexandru Telea, *An Image Inpainting Technique Based on the Fast Marching Method*. Journal of Graphics, GPU, and Game Tools 9 1, pp 23-34 (2004)
813
814 .. note::
815
816    * An example using the GrabCut algorithm can be found at opencv_source_code/samples/cpp/grabcut.cpp
817
818    * (Python) An example using the GrabCut algorithm can be found at opencv_source_code/samples/python2/grabcut.py