v4l2object: Fix colorimetry transfer lookup for 4K video
[platform/upstream/gst-plugins-good.git] / sys / v4l2 / gstv4l2object.c
1 /* GStreamer
2  *
3  * Copyright (C) 2001-2002 Ronald Bultje <rbultje@ronald.bitfreak.net>
4  *               2006 Edgard Lima <edgard.lima@gmail.com>
5  *
6  * gstv4l2object.c: base class for V4L2 elements
7  *
8  * This library is free software; you can redistribute it and/or modify
9  * it under the terms of the GNU Library General Public License as published
10  * by the Free Software Foundation; either version 2 of the License, or
11  * (at your option) any later version. This library is distributed in the hope
12  * that it will be useful, but WITHOUT ANY WARRANTY; without even the
13  * implied warranty of MERCHANTABILITY or FITNESS FOR A PARTICULAR
14  * PURPOSE.  See the GNU Library General Public License for more details.
15  * You should have received a copy of the GNU Library General Public
16  * License along with this library; if not, write to the Free Software
17  * Foundation, Inc., 51 Franklin St, Fifth Floor, Boston, MA 02110-1301,
18  * USA.
19  */
20
21 #ifdef HAVE_CONFIG_H
22 #include <config.h>
23 #endif
24
25 #define _GNU_SOURCE             /* Enable mmap64() */
26
27 #include <sys/stat.h>
28 #include <fcntl.h>
29 #include <errno.h>
30 #include <unistd.h>
31 #include <string.h>
32 #include <sys/mman.h>
33 #include <sys/ioctl.h>
34
35
36 #ifdef HAVE_GUDEV
37 #include <gudev/gudev.h>
38 #endif
39
40 #include "gstv4l2object.h"
41 #include "gstv4l2tuner.h"
42 #include "gstv4l2colorbalance.h"
43
44 #include "gst/gst-i18n-plugin.h"
45
46 #include <gst/video/video.h>
47
48 GST_DEBUG_CATEGORY_EXTERN (v4l2_debug);
49 #define GST_CAT_DEFAULT v4l2_debug
50
51 #define DEFAULT_PROP_DEVICE_NAME        NULL
52 #define DEFAULT_PROP_DEVICE_FD          -1
53 #define DEFAULT_PROP_FLAGS              0
54 #define DEFAULT_PROP_TV_NORM            0
55 #define DEFAULT_PROP_IO_MODE            GST_V4L2_IO_AUTO
56
57 #define ENCODED_BUFFER_SIZE             (2 * 1024 * 1024)
58
59 enum
60 {
61   PROP_0,
62   V4L2_STD_OBJECT_PROPS,
63 };
64
65 /*
66  * common format / caps utilities:
67  */
68 typedef enum
69 {
70   GST_V4L2_RAW = 1 << 0,
71   GST_V4L2_CODEC = 1 << 1,
72   GST_V4L2_TRANSPORT = 1 << 2,
73   GST_V4L2_NO_PARSE = 1 << 3,
74   GST_V4L2_ALL = 0xffff
75 } GstV4L2FormatFlags;
76
77 typedef struct
78 {
79   guint32 format;
80   gboolean dimensions;
81   GstV4L2FormatFlags flags;
82 } GstV4L2FormatDesc;
83
84 static const GstV4L2FormatDesc gst_v4l2_formats[] = {
85   /* RGB formats */
86   {V4L2_PIX_FMT_RGB332, TRUE, GST_V4L2_RAW},
87   {V4L2_PIX_FMT_ARGB555, TRUE, GST_V4L2_RAW},
88   {V4L2_PIX_FMT_XRGB555, TRUE, GST_V4L2_RAW},
89   {V4L2_PIX_FMT_ARGB555X, TRUE, GST_V4L2_RAW},
90   {V4L2_PIX_FMT_XRGB555X, TRUE, GST_V4L2_RAW},
91   {V4L2_PIX_FMT_RGB565, TRUE, GST_V4L2_RAW},
92   {V4L2_PIX_FMT_RGB565X, TRUE, GST_V4L2_RAW},
93   {V4L2_PIX_FMT_BGR666, TRUE, GST_V4L2_RAW},
94   {V4L2_PIX_FMT_BGR24, TRUE, GST_V4L2_RAW},
95   {V4L2_PIX_FMT_RGB24, TRUE, GST_V4L2_RAW},
96   {V4L2_PIX_FMT_ABGR32, TRUE, GST_V4L2_RAW},
97   {V4L2_PIX_FMT_XBGR32, TRUE, GST_V4L2_RAW},
98   {V4L2_PIX_FMT_ARGB32, TRUE, GST_V4L2_RAW},
99   {V4L2_PIX_FMT_XRGB32, TRUE, GST_V4L2_RAW},
100
101   /* Deprecated Packed RGB Image Formats (alpha ambiguity) */
102   {V4L2_PIX_FMT_RGB444, TRUE, GST_V4L2_RAW},
103   {V4L2_PIX_FMT_RGB555, TRUE, GST_V4L2_RAW},
104   {V4L2_PIX_FMT_RGB555X, TRUE, GST_V4L2_RAW},
105   {V4L2_PIX_FMT_BGR32, TRUE, GST_V4L2_RAW},
106   {V4L2_PIX_FMT_RGB32, TRUE, GST_V4L2_RAW},
107
108   /* Grey formats */
109   {V4L2_PIX_FMT_GREY, TRUE, GST_V4L2_RAW},
110   {V4L2_PIX_FMT_Y4, TRUE, GST_V4L2_RAW},
111   {V4L2_PIX_FMT_Y6, TRUE, GST_V4L2_RAW},
112   {V4L2_PIX_FMT_Y10, TRUE, GST_V4L2_RAW},
113   {V4L2_PIX_FMT_Y12, TRUE, GST_V4L2_RAW},
114   {V4L2_PIX_FMT_Y16, TRUE, GST_V4L2_RAW},
115   {V4L2_PIX_FMT_Y16_BE, TRUE, GST_V4L2_RAW},
116   {V4L2_PIX_FMT_Y10BPACK, TRUE, GST_V4L2_RAW},
117
118   /* Palette formats */
119   {V4L2_PIX_FMT_PAL8, TRUE, GST_V4L2_RAW},
120
121   /* Chrominance formats */
122   {V4L2_PIX_FMT_UV8, TRUE, GST_V4L2_RAW},
123
124   /* Luminance+Chrominance formats */
125   {V4L2_PIX_FMT_YVU410, TRUE, GST_V4L2_RAW},
126   {V4L2_PIX_FMT_YVU420, TRUE, GST_V4L2_RAW},
127   {V4L2_PIX_FMT_YVU420M, TRUE, GST_V4L2_RAW},
128   {V4L2_PIX_FMT_YUYV, TRUE, GST_V4L2_RAW},
129   {V4L2_PIX_FMT_YYUV, TRUE, GST_V4L2_RAW},
130   {V4L2_PIX_FMT_YVYU, TRUE, GST_V4L2_RAW},
131   {V4L2_PIX_FMT_UYVY, TRUE, GST_V4L2_RAW},
132   {V4L2_PIX_FMT_VYUY, TRUE, GST_V4L2_RAW},
133   {V4L2_PIX_FMT_YUV422P, TRUE, GST_V4L2_RAW},
134   {V4L2_PIX_FMT_YUV411P, TRUE, GST_V4L2_RAW},
135   {V4L2_PIX_FMT_Y41P, TRUE, GST_V4L2_RAW},
136   {V4L2_PIX_FMT_YUV444, TRUE, GST_V4L2_RAW},
137   {V4L2_PIX_FMT_YUV555, TRUE, GST_V4L2_RAW},
138   {V4L2_PIX_FMT_YUV565, TRUE, GST_V4L2_RAW},
139   {V4L2_PIX_FMT_YUV32, TRUE, GST_V4L2_RAW},
140   {V4L2_PIX_FMT_YUV410, TRUE, GST_V4L2_RAW},
141   {V4L2_PIX_FMT_YUV420, TRUE, GST_V4L2_RAW},
142   {V4L2_PIX_FMT_YUV420M, TRUE, GST_V4L2_RAW},
143   {V4L2_PIX_FMT_HI240, TRUE, GST_V4L2_RAW},
144   {V4L2_PIX_FMT_HM12, TRUE, GST_V4L2_RAW},
145   {V4L2_PIX_FMT_M420, TRUE, GST_V4L2_RAW},
146
147   /* two planes -- one Y, one Cr + Cb interleaved  */
148   {V4L2_PIX_FMT_NV12, TRUE, GST_V4L2_RAW},
149   {V4L2_PIX_FMT_NV12M, TRUE, GST_V4L2_RAW},
150   {V4L2_PIX_FMT_NV12MT, TRUE, GST_V4L2_RAW},
151   {V4L2_PIX_FMT_NV12MT_16X16, TRUE, GST_V4L2_RAW},
152   {V4L2_PIX_FMT_NV21, TRUE, GST_V4L2_RAW},
153   {V4L2_PIX_FMT_NV21M, TRUE, GST_V4L2_RAW},
154   {V4L2_PIX_FMT_NV16, TRUE, GST_V4L2_RAW},
155   {V4L2_PIX_FMT_NV16M, TRUE, GST_V4L2_RAW},
156   {V4L2_PIX_FMT_NV61, TRUE, GST_V4L2_RAW},
157   {V4L2_PIX_FMT_NV61M, TRUE, GST_V4L2_RAW},
158   {V4L2_PIX_FMT_NV24, TRUE, GST_V4L2_RAW},
159   {V4L2_PIX_FMT_NV42, TRUE, GST_V4L2_RAW},
160
161   /* Bayer formats - see http://www.siliconimaging.com/RGB%20Bayer.htm */
162   {V4L2_PIX_FMT_SBGGR8, TRUE, GST_V4L2_CODEC},
163   {V4L2_PIX_FMT_SGBRG8, TRUE, GST_V4L2_CODEC},
164   {V4L2_PIX_FMT_SGRBG8, TRUE, GST_V4L2_CODEC},
165   {V4L2_PIX_FMT_SRGGB8, TRUE, GST_V4L2_CODEC},
166
167   /* compressed formats */
168   {V4L2_PIX_FMT_MJPEG, FALSE, GST_V4L2_CODEC},
169   {V4L2_PIX_FMT_JPEG, FALSE, GST_V4L2_CODEC},
170   {V4L2_PIX_FMT_PJPG, FALSE, GST_V4L2_CODEC},
171   {V4L2_PIX_FMT_DV, FALSE, GST_V4L2_TRANSPORT},
172   {V4L2_PIX_FMT_MPEG, FALSE, GST_V4L2_TRANSPORT},
173   {V4L2_PIX_FMT_H264, FALSE, GST_V4L2_CODEC},
174   {V4L2_PIX_FMT_H264_NO_SC, FALSE, GST_V4L2_CODEC},
175   {V4L2_PIX_FMT_H264_MVC, FALSE, GST_V4L2_CODEC},
176   {V4L2_PIX_FMT_H263, FALSE, GST_V4L2_CODEC},
177   {V4L2_PIX_FMT_MPEG1, FALSE, GST_V4L2_CODEC},
178   {V4L2_PIX_FMT_MPEG2, FALSE, GST_V4L2_CODEC},
179   {V4L2_PIX_FMT_MPEG4, FALSE, GST_V4L2_CODEC},
180   {V4L2_PIX_FMT_XVID, FALSE, GST_V4L2_CODEC},
181   {V4L2_PIX_FMT_VC1_ANNEX_G, FALSE, GST_V4L2_CODEC},
182   {V4L2_PIX_FMT_VC1_ANNEX_L, FALSE, GST_V4L2_CODEC},
183   {V4L2_PIX_FMT_VP8, FALSE, GST_V4L2_CODEC | GST_V4L2_NO_PARSE},
184   {V4L2_PIX_FMT_VP9, FALSE, GST_V4L2_CODEC | GST_V4L2_NO_PARSE},
185
186   /*  Vendor-specific formats   */
187   {V4L2_PIX_FMT_WNVA, TRUE, GST_V4L2_CODEC},
188   {V4L2_PIX_FMT_SN9C10X, TRUE, GST_V4L2_CODEC},
189   {V4L2_PIX_FMT_PWC1, TRUE, GST_V4L2_CODEC},
190   {V4L2_PIX_FMT_PWC2, TRUE, GST_V4L2_CODEC},
191 };
192
193 #define GST_V4L2_FORMAT_COUNT (G_N_ELEMENTS (gst_v4l2_formats))
194
195 static GSList *gst_v4l2_object_get_format_list (GstV4l2Object * v4l2object);
196
197
198 #define GST_TYPE_V4L2_DEVICE_FLAGS (gst_v4l2_device_get_type ())
199 static GType
200 gst_v4l2_device_get_type (void)
201 {
202   static GType v4l2_device_type = 0;
203
204   if (v4l2_device_type == 0) {
205     static const GFlagsValue values[] = {
206       {V4L2_CAP_VIDEO_CAPTURE, "Device supports video capture", "capture"},
207       {V4L2_CAP_VIDEO_OUTPUT, "Device supports video playback", "output"},
208       {V4L2_CAP_VIDEO_OVERLAY, "Device supports video overlay", "overlay"},
209
210       {V4L2_CAP_VBI_CAPTURE, "Device supports the VBI capture", "vbi-capture"},
211       {V4L2_CAP_VBI_OUTPUT, "Device supports the VBI output", "vbi-output"},
212
213       {V4L2_CAP_TUNER, "Device has a tuner or modulator", "tuner"},
214       {V4L2_CAP_AUDIO, "Device has audio inputs or outputs", "audio"},
215
216       {0, NULL, NULL}
217     };
218
219     v4l2_device_type =
220         g_flags_register_static ("GstV4l2DeviceTypeFlags", values);
221   }
222
223   return v4l2_device_type;
224 }
225
226 #define GST_TYPE_V4L2_TV_NORM (gst_v4l2_tv_norm_get_type ())
227 static GType
228 gst_v4l2_tv_norm_get_type (void)
229 {
230   static GType v4l2_tv_norm = 0;
231
232   if (!v4l2_tv_norm) {
233     static const GEnumValue tv_norms[] = {
234       {0, "none", "none"},
235
236       {V4L2_STD_NTSC, "NTSC", "NTSC"},
237       {V4L2_STD_NTSC_M, "NTSC-M", "NTSC-M"},
238       {V4L2_STD_NTSC_M_JP, "NTSC-M-JP", "NTSC-M-JP"},
239       {V4L2_STD_NTSC_M_KR, "NTSC-M-KR", "NTSC-M-KR"},
240       {V4L2_STD_NTSC_443, "NTSC-443", "NTSC-443"},
241
242       {V4L2_STD_PAL, "PAL", "PAL"},
243       {V4L2_STD_PAL_BG, "PAL-BG", "PAL-BG"},
244       {V4L2_STD_PAL_B, "PAL-B", "PAL-B"},
245       {V4L2_STD_PAL_B1, "PAL-B1", "PAL-B1"},
246       {V4L2_STD_PAL_G, "PAL-G", "PAL-G"},
247       {V4L2_STD_PAL_H, "PAL-H", "PAL-H"},
248       {V4L2_STD_PAL_I, "PAL-I", "PAL-I"},
249       {V4L2_STD_PAL_DK, "PAL-DK", "PAL-DK"},
250       {V4L2_STD_PAL_D, "PAL-D", "PAL-D"},
251       {V4L2_STD_PAL_D1, "PAL-D1", "PAL-D1"},
252       {V4L2_STD_PAL_K, "PAL-K", "PAL-K"},
253       {V4L2_STD_PAL_M, "PAL-M", "PAL-M"},
254       {V4L2_STD_PAL_N, "PAL-N", "PAL-N"},
255       {V4L2_STD_PAL_Nc, "PAL-Nc", "PAL-Nc"},
256       {V4L2_STD_PAL_60, "PAL-60", "PAL-60"},
257
258       {V4L2_STD_SECAM, "SECAM", "SECAM"},
259       {V4L2_STD_SECAM_B, "SECAM-B", "SECAM-B"},
260       {V4L2_STD_SECAM_G, "SECAM-G", "SECAM-G"},
261       {V4L2_STD_SECAM_H, "SECAM-H", "SECAM-H"},
262       {V4L2_STD_SECAM_DK, "SECAM-DK", "SECAM-DK"},
263       {V4L2_STD_SECAM_D, "SECAM-D", "SECAM-D"},
264       {V4L2_STD_SECAM_K, "SECAM-K", "SECAM-K"},
265       {V4L2_STD_SECAM_K1, "SECAM-K1", "SECAM-K1"},
266       {V4L2_STD_SECAM_L, "SECAM-L", "SECAM-L"},
267       {V4L2_STD_SECAM_LC, "SECAM-Lc", "SECAM-Lc"},
268
269       {0, NULL, NULL}
270     };
271
272     v4l2_tv_norm = g_enum_register_static ("V4L2_TV_norms", tv_norms);
273   }
274
275   return v4l2_tv_norm;
276 }
277
278 GType
279 gst_v4l2_io_mode_get_type (void)
280 {
281   static GType v4l2_io_mode = 0;
282
283   if (!v4l2_io_mode) {
284     static const GEnumValue io_modes[] = {
285       {GST_V4L2_IO_AUTO, "GST_V4L2_IO_AUTO", "auto"},
286       {GST_V4L2_IO_RW, "GST_V4L2_IO_RW", "rw"},
287       {GST_V4L2_IO_MMAP, "GST_V4L2_IO_MMAP", "mmap"},
288       {GST_V4L2_IO_USERPTR, "GST_V4L2_IO_USERPTR", "userptr"},
289       {GST_V4L2_IO_DMABUF, "GST_V4L2_IO_DMABUF", "dmabuf"},
290       {GST_V4L2_IO_DMABUF_IMPORT, "GST_V4L2_IO_DMABUF_IMPORT",
291           "dmabuf-import"},
292
293       {0, NULL, NULL}
294     };
295     v4l2_io_mode = g_enum_register_static ("GstV4l2IOMode", io_modes);
296   }
297   return v4l2_io_mode;
298 }
299
300 void
301 gst_v4l2_object_install_properties_helper (GObjectClass * gobject_class,
302     const char *default_device)
303 {
304   g_object_class_install_property (gobject_class, PROP_DEVICE,
305       g_param_spec_string ("device", "Device", "Device location",
306           default_device, G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
307   g_object_class_install_property (gobject_class, PROP_DEVICE_NAME,
308       g_param_spec_string ("device-name", "Device name",
309           "Name of the device", DEFAULT_PROP_DEVICE_NAME,
310           G_PARAM_READABLE | G_PARAM_STATIC_STRINGS));
311   g_object_class_install_property (gobject_class, PROP_DEVICE_FD,
312       g_param_spec_int ("device-fd", "File descriptor",
313           "File descriptor of the device", -1, G_MAXINT, DEFAULT_PROP_DEVICE_FD,
314           G_PARAM_READABLE | G_PARAM_STATIC_STRINGS));
315   g_object_class_install_property (gobject_class, PROP_FLAGS,
316       g_param_spec_flags ("flags", "Flags", "Device type flags",
317           GST_TYPE_V4L2_DEVICE_FLAGS, DEFAULT_PROP_FLAGS,
318           G_PARAM_READABLE | G_PARAM_STATIC_STRINGS));
319
320   /**
321    * GstV4l2Src:brightness:
322    *
323    * Picture brightness, or more precisely, the black level
324    */
325   g_object_class_install_property (gobject_class, PROP_BRIGHTNESS,
326       g_param_spec_int ("brightness", "Brightness",
327           "Picture brightness, or more precisely, the black level", G_MININT,
328           G_MAXINT, 0,
329           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS | GST_PARAM_CONTROLLABLE));
330   /**
331    * GstV4l2Src:contrast:
332    *
333    * Picture contrast or luma gain
334    */
335   g_object_class_install_property (gobject_class, PROP_CONTRAST,
336       g_param_spec_int ("contrast", "Contrast",
337           "Picture contrast or luma gain", G_MININT,
338           G_MAXINT, 0,
339           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS | GST_PARAM_CONTROLLABLE));
340   /**
341    * GstV4l2Src:saturation:
342    *
343    * Picture color saturation or chroma gain
344    */
345   g_object_class_install_property (gobject_class, PROP_SATURATION,
346       g_param_spec_int ("saturation", "Saturation",
347           "Picture color saturation or chroma gain", G_MININT,
348           G_MAXINT, 0,
349           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS | GST_PARAM_CONTROLLABLE));
350   /**
351    * GstV4l2Src:hue:
352    *
353    * Hue or color balance
354    */
355   g_object_class_install_property (gobject_class, PROP_HUE,
356       g_param_spec_int ("hue", "Hue",
357           "Hue or color balance", G_MININT,
358           G_MAXINT, 0,
359           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS | GST_PARAM_CONTROLLABLE));
360
361   /**
362    * GstV4l2Src:norm:
363    *
364    * TV norm
365    */
366   g_object_class_install_property (gobject_class, PROP_TV_NORM,
367       g_param_spec_enum ("norm", "TV norm",
368           "video standard",
369           GST_TYPE_V4L2_TV_NORM, DEFAULT_PROP_TV_NORM,
370           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
371
372   /**
373    * GstV4l2Src:io-mode:
374    *
375    * IO Mode
376    */
377   g_object_class_install_property (gobject_class, PROP_IO_MODE,
378       g_param_spec_enum ("io-mode", "IO mode",
379           "I/O mode",
380           GST_TYPE_V4L2_IO_MODE, DEFAULT_PROP_IO_MODE,
381           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
382
383   /**
384    * GstV4l2Src:extra-controls:
385    *
386    * Additional v4l2 controls for the device. The controls are identified
387    * by the control name (lowercase with '_' for any non-alphanumeric
388    * characters).
389    *
390    * Since: 1.2
391    */
392   g_object_class_install_property (gobject_class, PROP_EXTRA_CONTROLS,
393       g_param_spec_boxed ("extra-controls", "Extra Controls",
394           "Extra v4l2 controls (CIDs) for the device",
395           GST_TYPE_STRUCTURE, G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
396
397   /**
398    * GstV4l2Src:pixel-aspect-ratio:
399    *
400    * The pixel aspect ratio of the device. This overwrites the pixel aspect
401    * ratio queried from the device.
402    *
403    * Since: 1.2
404    */
405   g_object_class_install_property (gobject_class, PROP_PIXEL_ASPECT_RATIO,
406       g_param_spec_string ("pixel-aspect-ratio", "Pixel Aspect Ratio",
407           "Overwrite the pixel aspect ratio of the device", "1/1",
408           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
409
410   /**
411    * GstV4l2Src:force-aspect-ratio:
412    *
413    * When enabled, the pixel aspect ratio queried from the device or set
414    * with the pixel-aspect-ratio property will be enforced.
415    *
416    * Since: 1.2
417    */
418   g_object_class_install_property (gobject_class, PROP_FORCE_ASPECT_RATIO,
419       g_param_spec_boolean ("force-aspect-ratio", "Force aspect ratio",
420           "When enabled, the pixel aspect ratio will be enforced", TRUE,
421           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
422
423 }
424
425 void
426 gst_v4l2_object_install_m2m_properties_helper (GObjectClass * gobject_class)
427 {
428   g_object_class_install_property (gobject_class, PROP_DEVICE,
429       g_param_spec_string ("device", "Device", "Device location",
430           NULL, G_PARAM_READABLE | G_PARAM_STATIC_STRINGS));
431
432   g_object_class_install_property (gobject_class, PROP_DEVICE_NAME,
433       g_param_spec_string ("device-name", "Device name",
434           "Name of the device", DEFAULT_PROP_DEVICE_NAME,
435           G_PARAM_READABLE | G_PARAM_STATIC_STRINGS));
436
437   g_object_class_install_property (gobject_class, PROP_DEVICE_FD,
438       g_param_spec_int ("device-fd", "File descriptor",
439           "File descriptor of the device", -1, G_MAXINT, DEFAULT_PROP_DEVICE_FD,
440           G_PARAM_READABLE | G_PARAM_STATIC_STRINGS));
441
442   g_object_class_install_property (gobject_class, PROP_OUTPUT_IO_MODE,
443       g_param_spec_enum ("output-io-mode", "Output IO mode",
444           "Output side I/O mode (matches sink pad)",
445           GST_TYPE_V4L2_IO_MODE, DEFAULT_PROP_IO_MODE,
446           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
447
448   g_object_class_install_property (gobject_class, PROP_CAPTURE_IO_MODE,
449       g_param_spec_enum ("capture-io-mode", "Capture IO mode",
450           "Capture I/O mode (matches src pad)",
451           GST_TYPE_V4L2_IO_MODE, DEFAULT_PROP_IO_MODE,
452           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
453
454   g_object_class_install_property (gobject_class, PROP_EXTRA_CONTROLS,
455       g_param_spec_boxed ("extra-controls", "Extra Controls",
456           "Extra v4l2 controls (CIDs) for the device",
457           GST_TYPE_STRUCTURE, G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
458 }
459
460 GstV4l2Object *
461 gst_v4l2_object_new (GstElement * element,
462     enum v4l2_buf_type type,
463     const char *default_device,
464     GstV4l2GetInOutFunction get_in_out_func,
465     GstV4l2SetInOutFunction set_in_out_func,
466     GstV4l2UpdateFpsFunction update_fps_func)
467 {
468   GstV4l2Object *v4l2object;
469
470   /*
471    * some default values
472    */
473   v4l2object = g_new0 (GstV4l2Object, 1);
474
475   v4l2object->type = type;
476   v4l2object->formats = NULL;
477
478   v4l2object->element = element;
479   v4l2object->get_in_out_func = get_in_out_func;
480   v4l2object->set_in_out_func = set_in_out_func;
481   v4l2object->update_fps_func = update_fps_func;
482
483   v4l2object->video_fd = -1;
484   v4l2object->active = FALSE;
485   v4l2object->videodev = g_strdup (default_device);
486
487   v4l2object->norms = NULL;
488   v4l2object->channels = NULL;
489   v4l2object->colors = NULL;
490
491   v4l2object->keep_aspect = TRUE;
492
493   v4l2object->n_v4l2_planes = 0;
494
495   v4l2object->no_initial_format = FALSE;
496
497   /* We now disable libv4l2 by default, but have an env to enable it. */
498 #ifdef HAVE_LIBV4L2
499   if (g_getenv ("GST_V4L2_USE_LIBV4L2")) {
500     v4l2object->fd_open = v4l2_fd_open;
501     v4l2object->close = v4l2_close;
502     v4l2object->dup = v4l2_dup;
503     v4l2object->ioctl = v4l2_ioctl;
504     v4l2object->read = v4l2_read;
505     v4l2object->mmap = v4l2_mmap;
506     v4l2object->munmap = v4l2_munmap;
507   } else
508 #endif
509   {
510     v4l2object->fd_open = NULL;
511     v4l2object->close = close;
512     v4l2object->dup = dup;
513     v4l2object->ioctl = ioctl;
514     v4l2object->read = read;
515     v4l2object->mmap = mmap64;
516     v4l2object->munmap = munmap;
517   }
518
519   return v4l2object;
520 }
521
522 static gboolean gst_v4l2_object_clear_format_list (GstV4l2Object * v4l2object);
523
524
525 void
526 gst_v4l2_object_destroy (GstV4l2Object * v4l2object)
527 {
528   g_return_if_fail (v4l2object != NULL);
529
530   g_free (v4l2object->videodev);
531
532   g_free (v4l2object->channel);
533
534   if (v4l2object->formats) {
535     gst_v4l2_object_clear_format_list (v4l2object);
536   }
537
538   if (v4l2object->probed_caps) {
539     gst_caps_unref (v4l2object->probed_caps);
540   }
541
542   if (v4l2object->extra_controls) {
543     gst_structure_free (v4l2object->extra_controls);
544   }
545
546   g_free (v4l2object);
547 }
548
549
550 static gboolean
551 gst_v4l2_object_clear_format_list (GstV4l2Object * v4l2object)
552 {
553   g_slist_foreach (v4l2object->formats, (GFunc) g_free, NULL);
554   g_slist_free (v4l2object->formats);
555   v4l2object->formats = NULL;
556
557   return TRUE;
558 }
559
560 static gint
561 gst_v4l2_object_prop_to_cid (guint prop_id)
562 {
563   gint cid = -1;
564
565   switch (prop_id) {
566     case PROP_BRIGHTNESS:
567       cid = V4L2_CID_BRIGHTNESS;
568       break;
569     case PROP_CONTRAST:
570       cid = V4L2_CID_CONTRAST;
571       break;
572     case PROP_SATURATION:
573       cid = V4L2_CID_SATURATION;
574       break;
575     case PROP_HUE:
576       cid = V4L2_CID_HUE;
577       break;
578     default:
579       GST_WARNING ("unmapped property id: %d", prop_id);
580   }
581   return cid;
582 }
583
584
585 gboolean
586 gst_v4l2_object_set_property_helper (GstV4l2Object * v4l2object,
587     guint prop_id, const GValue * value, GParamSpec * pspec)
588 {
589   switch (prop_id) {
590     case PROP_DEVICE:
591       g_free (v4l2object->videodev);
592       v4l2object->videodev = g_value_dup_string (value);
593       break;
594     case PROP_BRIGHTNESS:
595     case PROP_CONTRAST:
596     case PROP_SATURATION:
597     case PROP_HUE:
598     {
599       gint cid = gst_v4l2_object_prop_to_cid (prop_id);
600
601       if (cid != -1) {
602         if (GST_V4L2_IS_OPEN (v4l2object)) {
603           gst_v4l2_set_attribute (v4l2object, cid, g_value_get_int (value));
604         }
605       }
606       return TRUE;
607     }
608       break;
609     case PROP_TV_NORM:
610       v4l2object->tv_norm = g_value_get_enum (value);
611       break;
612 #if 0
613     case PROP_CHANNEL:
614       if (GST_V4L2_IS_OPEN (v4l2object)) {
615         GstTuner *tuner = GST_TUNER (v4l2object->element);
616         GstTunerChannel *channel = gst_tuner_find_channel_by_name (tuner,
617             (gchar *) g_value_get_string (value));
618
619         if (channel) {
620           /* like gst_tuner_set_channel (tuner, channel)
621              without g_object_notify */
622           gst_v4l2_tuner_set_channel (v4l2object, channel);
623         }
624       } else {
625         g_free (v4l2object->channel);
626         v4l2object->channel = g_value_dup_string (value);
627       }
628       break;
629     case PROP_FREQUENCY:
630       if (GST_V4L2_IS_OPEN (v4l2object)) {
631         GstTuner *tuner = GST_TUNER (v4l2object->element);
632         GstTunerChannel *channel = gst_tuner_get_channel (tuner);
633
634         if (channel &&
635             GST_TUNER_CHANNEL_HAS_FLAG (channel, GST_TUNER_CHANNEL_FREQUENCY)) {
636           /* like
637              gst_tuner_set_frequency (tuner, channel, g_value_get_ulong (value))
638              without g_object_notify */
639           gst_v4l2_tuner_set_frequency (v4l2object, channel,
640               g_value_get_ulong (value));
641         }
642       } else {
643         v4l2object->frequency = g_value_get_ulong (value);
644       }
645       break;
646 #endif
647
648     case PROP_IO_MODE:
649       v4l2object->req_mode = g_value_get_enum (value);
650       break;
651     case PROP_CAPTURE_IO_MODE:
652       g_return_val_if_fail (!V4L2_TYPE_IS_OUTPUT (v4l2object->type), FALSE);
653       v4l2object->req_mode = g_value_get_enum (value);
654       break;
655     case PROP_OUTPUT_IO_MODE:
656       g_return_val_if_fail (V4L2_TYPE_IS_OUTPUT (v4l2object->type), FALSE);
657       v4l2object->req_mode = g_value_get_enum (value);
658       break;
659     case PROP_EXTRA_CONTROLS:{
660       const GstStructure *s = gst_value_get_structure (value);
661
662       if (v4l2object->extra_controls)
663         gst_structure_free (v4l2object->extra_controls);
664
665       v4l2object->extra_controls = s ? gst_structure_copy (s) : NULL;
666       if (GST_V4L2_IS_OPEN (v4l2object))
667         gst_v4l2_set_controls (v4l2object, v4l2object->extra_controls);
668       break;
669     }
670     case PROP_PIXEL_ASPECT_RATIO:
671       g_free (v4l2object->par);
672       v4l2object->par = g_new0 (GValue, 1);
673       g_value_init (v4l2object->par, GST_TYPE_FRACTION);
674       if (!g_value_transform (value, v4l2object->par)) {
675         g_warning ("Could not transform string to aspect ratio");
676         gst_value_set_fraction (v4l2object->par, 1, 1);
677       }
678       GST_DEBUG_OBJECT (v4l2object->element, "set PAR to %d/%d",
679           gst_value_get_fraction_numerator (v4l2object->par),
680           gst_value_get_fraction_denominator (v4l2object->par));
681       break;
682     case PROP_FORCE_ASPECT_RATIO:
683       v4l2object->keep_aspect = g_value_get_boolean (value);
684       break;
685     default:
686       return FALSE;
687       break;
688   }
689   return TRUE;
690 }
691
692
693 gboolean
694 gst_v4l2_object_get_property_helper (GstV4l2Object * v4l2object,
695     guint prop_id, GValue * value, GParamSpec * pspec)
696 {
697   switch (prop_id) {
698     case PROP_DEVICE:
699       g_value_set_string (value, v4l2object->videodev);
700       break;
701     case PROP_DEVICE_NAME:
702     {
703       const guchar *new = NULL;
704
705       if (GST_V4L2_IS_OPEN (v4l2object)) {
706         new = v4l2object->vcap.card;
707       } else if (gst_v4l2_open (v4l2object)) {
708         new = v4l2object->vcap.card;
709         gst_v4l2_close (v4l2object);
710       }
711       g_value_set_string (value, (gchar *) new);
712       break;
713     }
714     case PROP_DEVICE_FD:
715     {
716       if (GST_V4L2_IS_OPEN (v4l2object))
717         g_value_set_int (value, v4l2object->video_fd);
718       else
719         g_value_set_int (value, DEFAULT_PROP_DEVICE_FD);
720       break;
721     }
722     case PROP_FLAGS:
723     {
724       guint flags = 0;
725
726       if (GST_V4L2_IS_OPEN (v4l2object)) {
727         flags |= v4l2object->device_caps &
728             (V4L2_CAP_VIDEO_CAPTURE |
729             V4L2_CAP_VIDEO_OUTPUT |
730             V4L2_CAP_VIDEO_OVERLAY |
731             V4L2_CAP_VBI_CAPTURE |
732             V4L2_CAP_VBI_OUTPUT | V4L2_CAP_TUNER | V4L2_CAP_AUDIO);
733
734         if (v4l2object->device_caps & V4L2_CAP_VIDEO_CAPTURE_MPLANE)
735           flags |= V4L2_CAP_VIDEO_CAPTURE;
736
737         if (v4l2object->device_caps & V4L2_CAP_VIDEO_OUTPUT_MPLANE)
738           flags |= V4L2_CAP_VIDEO_OUTPUT;
739       }
740       g_value_set_flags (value, flags);
741       break;
742     }
743     case PROP_BRIGHTNESS:
744     case PROP_CONTRAST:
745     case PROP_SATURATION:
746     case PROP_HUE:
747     {
748       gint cid = gst_v4l2_object_prop_to_cid (prop_id);
749
750       if (cid != -1) {
751         if (GST_V4L2_IS_OPEN (v4l2object)) {
752           gint v;
753           if (gst_v4l2_get_attribute (v4l2object, cid, &v)) {
754             g_value_set_int (value, v);
755           }
756         }
757       }
758       return TRUE;
759     }
760       break;
761     case PROP_TV_NORM:
762       g_value_set_enum (value, v4l2object->tv_norm);
763       break;
764     case PROP_IO_MODE:
765       g_value_set_enum (value, v4l2object->req_mode);
766       break;
767     case PROP_CAPTURE_IO_MODE:
768       g_return_val_if_fail (!V4L2_TYPE_IS_OUTPUT (v4l2object->type), FALSE);
769       g_value_set_enum (value, v4l2object->req_mode);
770       break;
771     case PROP_OUTPUT_IO_MODE:
772       g_return_val_if_fail (V4L2_TYPE_IS_OUTPUT (v4l2object->type), FALSE);
773       g_value_set_enum (value, v4l2object->req_mode);
774       break;
775     case PROP_EXTRA_CONTROLS:
776       gst_value_set_structure (value, v4l2object->extra_controls);
777       break;
778     case PROP_PIXEL_ASPECT_RATIO:
779       if (v4l2object->par)
780         g_value_transform (v4l2object->par, value);
781       break;
782     case PROP_FORCE_ASPECT_RATIO:
783       g_value_set_boolean (value, v4l2object->keep_aspect);
784       break;
785     default:
786       return FALSE;
787       break;
788   }
789   return TRUE;
790 }
791
792 static void
793 gst_v4l2_get_driver_min_buffers (GstV4l2Object * v4l2object)
794 {
795   struct v4l2_control control = { 0, };
796
797   g_return_if_fail (GST_V4L2_IS_OPEN (v4l2object));
798
799   if (V4L2_TYPE_IS_OUTPUT (v4l2object->type))
800     control.id = V4L2_CID_MIN_BUFFERS_FOR_OUTPUT;
801   else
802     control.id = V4L2_CID_MIN_BUFFERS_FOR_CAPTURE;
803
804   if (v4l2object->ioctl (v4l2object->video_fd, VIDIOC_G_CTRL, &control) == 0) {
805     GST_DEBUG_OBJECT (v4l2object->element,
806         "driver requires a minimum of %d buffers", control.value);
807     v4l2object->min_buffers = control.value;
808   } else {
809     v4l2object->min_buffers = 0;
810   }
811 }
812
813 static void
814 gst_v4l2_set_defaults (GstV4l2Object * v4l2object)
815 {
816   GstTunerNorm *norm = NULL;
817   GstTunerChannel *channel = NULL;
818   GstTuner *tuner;
819
820   if (!GST_IS_TUNER (v4l2object->element))
821     return;
822
823   tuner = GST_TUNER (v4l2object->element);
824
825   if (v4l2object->tv_norm)
826     norm = gst_v4l2_tuner_get_norm_by_std_id (v4l2object, v4l2object->tv_norm);
827   GST_DEBUG_OBJECT (v4l2object->element, "tv_norm=0x%" G_GINT64_MODIFIER "x, "
828       "norm=%p", (guint64) v4l2object->tv_norm, norm);
829   if (norm) {
830     gst_tuner_set_norm (tuner, norm);
831   } else {
832     norm =
833         GST_TUNER_NORM (gst_tuner_get_norm (GST_TUNER (v4l2object->element)));
834     if (norm) {
835       v4l2object->tv_norm =
836           gst_v4l2_tuner_get_std_id_by_norm (v4l2object, norm);
837       gst_tuner_norm_changed (tuner, norm);
838     }
839   }
840
841   if (v4l2object->channel)
842     channel = gst_tuner_find_channel_by_name (tuner, v4l2object->channel);
843   if (channel) {
844     gst_tuner_set_channel (tuner, channel);
845   } else {
846     channel =
847         GST_TUNER_CHANNEL (gst_tuner_get_channel (GST_TUNER
848             (v4l2object->element)));
849     if (channel) {
850       g_free (v4l2object->channel);
851       v4l2object->channel = g_strdup (channel->label);
852       gst_tuner_channel_changed (tuner, channel);
853     }
854   }
855
856   if (channel
857       && GST_TUNER_CHANNEL_HAS_FLAG (channel, GST_TUNER_CHANNEL_FREQUENCY)) {
858     if (v4l2object->frequency != 0) {
859       gst_tuner_set_frequency (tuner, channel, v4l2object->frequency);
860     } else {
861       v4l2object->frequency = gst_tuner_get_frequency (tuner, channel);
862       if (v4l2object->frequency == 0) {
863         /* guess */
864         gst_tuner_set_frequency (tuner, channel, 1000);
865       } else {
866       }
867     }
868   }
869 }
870
871 gboolean
872 gst_v4l2_object_open (GstV4l2Object * v4l2object)
873 {
874   if (gst_v4l2_open (v4l2object))
875     gst_v4l2_set_defaults (v4l2object);
876   else
877     return FALSE;
878
879   return TRUE;
880 }
881
882 gboolean
883 gst_v4l2_object_open_shared (GstV4l2Object * v4l2object, GstV4l2Object * other)
884 {
885   gboolean ret;
886
887   ret = gst_v4l2_dup (v4l2object, other);
888
889   return ret;
890 }
891
892 gboolean
893 gst_v4l2_object_close (GstV4l2Object * v4l2object)
894 {
895   if (!gst_v4l2_close (v4l2object))
896     return FALSE;
897
898   gst_caps_replace (&v4l2object->probed_caps, NULL);
899
900   /* reset our copy of the device caps */
901   v4l2object->device_caps = 0;
902
903   if (v4l2object->formats) {
904     gst_v4l2_object_clear_format_list (v4l2object);
905   }
906
907   return TRUE;
908 }
909
910 static struct v4l2_fmtdesc *
911 gst_v4l2_object_get_format_from_fourcc (GstV4l2Object * v4l2object,
912     guint32 fourcc)
913 {
914   struct v4l2_fmtdesc *fmt;
915   GSList *walk;
916
917   if (fourcc == 0)
918     return NULL;
919
920   walk = gst_v4l2_object_get_format_list (v4l2object);
921   while (walk) {
922     fmt = (struct v4l2_fmtdesc *) walk->data;
923     if (fmt->pixelformat == fourcc)
924       return fmt;
925     /* special case for jpeg */
926     if (fmt->pixelformat == V4L2_PIX_FMT_MJPEG ||
927         fmt->pixelformat == V4L2_PIX_FMT_JPEG ||
928         fmt->pixelformat == V4L2_PIX_FMT_PJPG) {
929       if (fourcc == V4L2_PIX_FMT_JPEG || fourcc == V4L2_PIX_FMT_MJPEG ||
930           fourcc == V4L2_PIX_FMT_PJPG) {
931         return fmt;
932       }
933     }
934     walk = g_slist_next (walk);
935   }
936
937   return NULL;
938 }
939
940
941
942 /* complete made up ranking, the values themselves are meaningless */
943 /* These ranks MUST be X such that X<<15 fits on a signed int - see
944    the comment at the end of gst_v4l2_object_format_get_rank. */
945 #define YUV_BASE_RANK     1000
946 #define JPEG_BASE_RANK     500
947 #define DV_BASE_RANK       200
948 #define RGB_BASE_RANK      100
949 #define YUV_ODD_BASE_RANK   50
950 #define RGB_ODD_BASE_RANK   25
951 #define BAYER_BASE_RANK     15
952 #define S910_BASE_RANK      10
953 #define GREY_BASE_RANK       5
954 #define PWC_BASE_RANK        1
955
956 static gint
957 gst_v4l2_object_format_get_rank (const struct v4l2_fmtdesc *fmt)
958 {
959   guint32 fourcc = fmt->pixelformat;
960   gboolean emulated = ((fmt->flags & V4L2_FMT_FLAG_EMULATED) != 0);
961   gint rank = 0;
962
963   switch (fourcc) {
964     case V4L2_PIX_FMT_MJPEG:
965     case V4L2_PIX_FMT_PJPG:
966       rank = JPEG_BASE_RANK;
967       break;
968     case V4L2_PIX_FMT_JPEG:
969       rank = JPEG_BASE_RANK + 1;
970       break;
971     case V4L2_PIX_FMT_MPEG:    /* MPEG          */
972       rank = JPEG_BASE_RANK + 2;
973       break;
974
975     case V4L2_PIX_FMT_RGB332:
976     case V4L2_PIX_FMT_ARGB555:
977     case V4L2_PIX_FMT_XRGB555:
978     case V4L2_PIX_FMT_RGB555:
979     case V4L2_PIX_FMT_ARGB555X:
980     case V4L2_PIX_FMT_XRGB555X:
981     case V4L2_PIX_FMT_RGB555X:
982     case V4L2_PIX_FMT_BGR666:
983     case V4L2_PIX_FMT_RGB565:
984     case V4L2_PIX_FMT_RGB565X:
985     case V4L2_PIX_FMT_RGB444:
986     case V4L2_PIX_FMT_Y4:
987     case V4L2_PIX_FMT_Y6:
988     case V4L2_PIX_FMT_Y10:
989     case V4L2_PIX_FMT_Y12:
990     case V4L2_PIX_FMT_Y10BPACK:
991     case V4L2_PIX_FMT_YUV555:
992     case V4L2_PIX_FMT_YUV565:
993     case V4L2_PIX_FMT_YUV32:
994     case V4L2_PIX_FMT_NV12MT_16X16:
995     case V4L2_PIX_FMT_NV42:
996     case V4L2_PIX_FMT_H264_MVC:
997       rank = RGB_ODD_BASE_RANK;
998       break;
999
1000     case V4L2_PIX_FMT_RGB24:
1001     case V4L2_PIX_FMT_BGR24:
1002       rank = RGB_BASE_RANK - 1;
1003       break;
1004
1005     case V4L2_PIX_FMT_RGB32:
1006     case V4L2_PIX_FMT_BGR32:
1007     case V4L2_PIX_FMT_ABGR32:
1008     case V4L2_PIX_FMT_XBGR32:
1009     case V4L2_PIX_FMT_ARGB32:
1010     case V4L2_PIX_FMT_XRGB32:
1011       rank = RGB_BASE_RANK;
1012       break;
1013
1014     case V4L2_PIX_FMT_GREY:    /*  8  Greyscale     */
1015       rank = GREY_BASE_RANK;
1016       break;
1017
1018     case V4L2_PIX_FMT_NV12:    /* 12  Y/CbCr 4:2:0  */
1019     case V4L2_PIX_FMT_NV12M:   /* Same as NV12      */
1020     case V4L2_PIX_FMT_NV12MT:  /* NV12 64x32 tile   */
1021     case V4L2_PIX_FMT_NV21:    /* 12  Y/CrCb 4:2:0  */
1022     case V4L2_PIX_FMT_NV21M:   /* Same as NV21      */
1023     case V4L2_PIX_FMT_YYUV:    /* 16  YUV 4:2:2     */
1024     case V4L2_PIX_FMT_HI240:   /*  8  8-bit color   */
1025     case V4L2_PIX_FMT_NV16:    /* 16  Y/CbCr 4:2:2  */
1026     case V4L2_PIX_FMT_NV16M:   /* Same as NV16      */
1027     case V4L2_PIX_FMT_NV61:    /* 16  Y/CrCb 4:2:2  */
1028     case V4L2_PIX_FMT_NV61M:   /* Same as NV61      */
1029     case V4L2_PIX_FMT_NV24:    /* 24  Y/CrCb 4:4:4  */
1030       rank = YUV_ODD_BASE_RANK;
1031       break;
1032
1033     case V4L2_PIX_FMT_YVU410:  /* YVU9,  9 bits per pixel */
1034       rank = YUV_BASE_RANK + 3;
1035       break;
1036     case V4L2_PIX_FMT_YUV410:  /* YUV9,  9 bits per pixel */
1037       rank = YUV_BASE_RANK + 2;
1038       break;
1039     case V4L2_PIX_FMT_YUV420:  /* I420, 12 bits per pixel */
1040     case V4L2_PIX_FMT_YUV420M:
1041       rank = YUV_BASE_RANK + 7;
1042       break;
1043     case V4L2_PIX_FMT_YUYV:    /* YUY2, 16 bits per pixel */
1044       rank = YUV_BASE_RANK + 10;
1045       break;
1046     case V4L2_PIX_FMT_YVU420:  /* YV12, 12 bits per pixel */
1047       rank = YUV_BASE_RANK + 6;
1048       break;
1049     case V4L2_PIX_FMT_UYVY:    /* UYVY, 16 bits per pixel */
1050       rank = YUV_BASE_RANK + 9;
1051       break;
1052     case V4L2_PIX_FMT_YUV444:
1053       rank = YUV_BASE_RANK + 6;
1054       break;
1055     case V4L2_PIX_FMT_Y41P:    /* Y41P, 12 bits per pixel */
1056       rank = YUV_BASE_RANK + 5;
1057       break;
1058     case V4L2_PIX_FMT_YUV411P: /* Y41B, 12 bits per pixel */
1059       rank = YUV_BASE_RANK + 4;
1060       break;
1061     case V4L2_PIX_FMT_YUV422P: /* Y42B, 16 bits per pixel */
1062       rank = YUV_BASE_RANK + 8;
1063       break;
1064
1065     case V4L2_PIX_FMT_DV:
1066       rank = DV_BASE_RANK;
1067       break;
1068
1069     case V4L2_PIX_FMT_WNVA:    /* Winnov hw compres */
1070       rank = 0;
1071       break;
1072
1073     case V4L2_PIX_FMT_SBGGR8:
1074     case V4L2_PIX_FMT_SGBRG8:
1075     case V4L2_PIX_FMT_SGRBG8:
1076     case V4L2_PIX_FMT_SRGGB8:
1077       rank = BAYER_BASE_RANK;
1078       break;
1079
1080     case V4L2_PIX_FMT_SN9C10X:
1081       rank = S910_BASE_RANK;
1082       break;
1083
1084     case V4L2_PIX_FMT_PWC1:
1085       rank = PWC_BASE_RANK;
1086       break;
1087     case V4L2_PIX_FMT_PWC2:
1088       rank = PWC_BASE_RANK;
1089       break;
1090
1091     default:
1092       rank = 0;
1093       break;
1094   }
1095
1096   /* All ranks are below 1<<15 so a shift by 15
1097    * will a) make all non-emulated formats larger
1098    * than emulated and b) will not overflow
1099    */
1100   if (!emulated)
1101     rank <<= 15;
1102
1103   return rank;
1104 }
1105
1106
1107
1108 static gint
1109 format_cmp_func (gconstpointer a, gconstpointer b)
1110 {
1111   const struct v4l2_fmtdesc *fa = a;
1112   const struct v4l2_fmtdesc *fb = b;
1113
1114   if (fa->pixelformat == fb->pixelformat)
1115     return 0;
1116
1117   return gst_v4l2_object_format_get_rank (fb) -
1118       gst_v4l2_object_format_get_rank (fa);
1119 }
1120
1121 /******************************************************
1122  * gst_v4l2_object_fill_format_list():
1123  *   create list of supported capture formats
1124  * return value: TRUE on success, FALSE on error
1125  ******************************************************/
1126 static gboolean
1127 gst_v4l2_object_fill_format_list (GstV4l2Object * v4l2object,
1128     enum v4l2_buf_type type)
1129 {
1130   gint n;
1131   struct v4l2_fmtdesc *format;
1132
1133   GST_DEBUG_OBJECT (v4l2object->element, "getting src format enumerations");
1134
1135   /* format enumeration */
1136   for (n = 0;; n++) {
1137     format = g_new0 (struct v4l2_fmtdesc, 1);
1138
1139     format->index = n;
1140     format->type = type;
1141
1142     if (v4l2object->ioctl (v4l2object->video_fd, VIDIOC_ENUM_FMT, format) < 0) {
1143       if (errno == EINVAL) {
1144         g_free (format);
1145         break;                  /* end of enumeration */
1146       } else {
1147         goto failed;
1148       }
1149     }
1150
1151     GST_LOG_OBJECT (v4l2object->element, "index:       %u", format->index);
1152     GST_LOG_OBJECT (v4l2object->element, "type:        %d", format->type);
1153     GST_LOG_OBJECT (v4l2object->element, "flags:       %08x", format->flags);
1154     GST_LOG_OBJECT (v4l2object->element, "description: '%s'",
1155         format->description);
1156     GST_LOG_OBJECT (v4l2object->element, "pixelformat: %" GST_FOURCC_FORMAT,
1157         GST_FOURCC_ARGS (format->pixelformat));
1158
1159     /* sort formats according to our preference;  we do this, because caps
1160      * are probed in the order the formats are in the list, and the order of
1161      * formats in the final probed caps matters for things like fixation */
1162     v4l2object->formats = g_slist_insert_sorted (v4l2object->formats, format,
1163         (GCompareFunc) format_cmp_func);
1164   }
1165
1166 #ifndef GST_DISABLE_GST_DEBUG
1167   {
1168     GSList *l;
1169
1170     GST_INFO_OBJECT (v4l2object->element, "got %d format(s):", n);
1171     for (l = v4l2object->formats; l != NULL; l = l->next) {
1172       format = l->data;
1173
1174       GST_INFO_OBJECT (v4l2object->element,
1175           "  %" GST_FOURCC_FORMAT "%s", GST_FOURCC_ARGS (format->pixelformat),
1176           ((format->flags & V4L2_FMT_FLAG_EMULATED)) ? " (emulated)" : "");
1177     }
1178   }
1179 #endif
1180
1181   return TRUE;
1182
1183   /* ERRORS */
1184 failed:
1185   {
1186     g_free (format);
1187
1188     if (!GST_IS_ELEMENT (v4l2object->element))
1189       return FALSE;
1190
1191     GST_ELEMENT_ERROR (v4l2object->element, RESOURCE, SETTINGS,
1192         (_("Failed to enumerate possible video formats device '%s' can work "
1193                 "with"), v4l2object->videodev),
1194         ("Failed to get number %d in pixelformat enumeration for %s. (%d - %s)",
1195             n, v4l2object->videodev, errno, g_strerror (errno)));
1196
1197     return FALSE;
1198   }
1199 }
1200
1201 /*
1202   * Get the list of supported capture formats, a list of
1203   * <code>struct v4l2_fmtdesc</code>.
1204   */
1205 static GSList *
1206 gst_v4l2_object_get_format_list (GstV4l2Object * v4l2object)
1207 {
1208   if (!v4l2object->formats) {
1209
1210     /* check usual way */
1211     gst_v4l2_object_fill_format_list (v4l2object, v4l2object->type);
1212
1213     /* if our driver supports multi-planar
1214      * and if formats are still empty then we can workaround driver bug
1215      * by also looking up formats as if our device was not supporting
1216      * multiplanar */
1217     if (!v4l2object->formats) {
1218       switch (v4l2object->type) {
1219         case V4L2_BUF_TYPE_VIDEO_CAPTURE_MPLANE:
1220           gst_v4l2_object_fill_format_list (v4l2object,
1221               V4L2_BUF_TYPE_VIDEO_CAPTURE);
1222           break;
1223
1224         case V4L2_BUF_TYPE_VIDEO_OUTPUT_MPLANE:
1225           gst_v4l2_object_fill_format_list (v4l2object,
1226               V4L2_BUF_TYPE_VIDEO_OUTPUT);
1227           break;
1228
1229         default:
1230           break;
1231       }
1232     }
1233   }
1234   return v4l2object->formats;
1235 }
1236
1237 static GstVideoFormat
1238 gst_v4l2_object_v4l2fourcc_to_video_format (guint32 fourcc)
1239 {
1240   GstVideoFormat format;
1241
1242   switch (fourcc) {
1243     case V4L2_PIX_FMT_GREY:    /*  8  Greyscale     */
1244       format = GST_VIDEO_FORMAT_GRAY8;
1245       break;
1246     case V4L2_PIX_FMT_Y16:
1247       format = GST_VIDEO_FORMAT_GRAY16_LE;
1248       break;
1249     case V4L2_PIX_FMT_Y16_BE:
1250       format = GST_VIDEO_FORMAT_GRAY16_BE;
1251       break;
1252     case V4L2_PIX_FMT_XRGB555:
1253     case V4L2_PIX_FMT_RGB555:
1254       format = GST_VIDEO_FORMAT_RGB15;
1255       break;
1256     case V4L2_PIX_FMT_XRGB555X:
1257     case V4L2_PIX_FMT_RGB555X:
1258       format = GST_VIDEO_FORMAT_BGR15;
1259       break;
1260     case V4L2_PIX_FMT_RGB565:
1261       format = GST_VIDEO_FORMAT_RGB16;
1262       break;
1263     case V4L2_PIX_FMT_RGB24:
1264       format = GST_VIDEO_FORMAT_RGB;
1265       break;
1266     case V4L2_PIX_FMT_BGR24:
1267       format = GST_VIDEO_FORMAT_BGR;
1268       break;
1269     case V4L2_PIX_FMT_XRGB32:
1270     case V4L2_PIX_FMT_RGB32:
1271       format = GST_VIDEO_FORMAT_xRGB;
1272       break;
1273     case V4L2_PIX_FMT_XBGR32:
1274     case V4L2_PIX_FMT_BGR32:
1275       format = GST_VIDEO_FORMAT_BGRx;
1276       break;
1277     case V4L2_PIX_FMT_ABGR32:
1278       format = GST_VIDEO_FORMAT_BGRA;
1279       break;
1280     case V4L2_PIX_FMT_ARGB32:
1281       format = GST_VIDEO_FORMAT_ARGB;
1282       break;
1283     case V4L2_PIX_FMT_NV12:
1284     case V4L2_PIX_FMT_NV12M:
1285       format = GST_VIDEO_FORMAT_NV12;
1286       break;
1287     case V4L2_PIX_FMT_NV12MT:
1288       format = GST_VIDEO_FORMAT_NV12_64Z32;
1289       break;
1290     case V4L2_PIX_FMT_NV21:
1291     case V4L2_PIX_FMT_NV21M:
1292       format = GST_VIDEO_FORMAT_NV21;
1293       break;
1294     case V4L2_PIX_FMT_YVU410:
1295       format = GST_VIDEO_FORMAT_YVU9;
1296       break;
1297     case V4L2_PIX_FMT_YUV410:
1298       format = GST_VIDEO_FORMAT_YUV9;
1299       break;
1300     case V4L2_PIX_FMT_YUV420:
1301     case V4L2_PIX_FMT_YUV420M:
1302       format = GST_VIDEO_FORMAT_I420;
1303       break;
1304     case V4L2_PIX_FMT_YUYV:
1305       format = GST_VIDEO_FORMAT_YUY2;
1306       break;
1307     case V4L2_PIX_FMT_YVU420:
1308       format = GST_VIDEO_FORMAT_YV12;
1309       break;
1310     case V4L2_PIX_FMT_UYVY:
1311       format = GST_VIDEO_FORMAT_UYVY;
1312       break;
1313     case V4L2_PIX_FMT_YUV411P:
1314       format = GST_VIDEO_FORMAT_Y41B;
1315       break;
1316     case V4L2_PIX_FMT_YUV422P:
1317       format = GST_VIDEO_FORMAT_Y42B;
1318       break;
1319     case V4L2_PIX_FMT_YVYU:
1320       format = GST_VIDEO_FORMAT_YVYU;
1321       break;
1322     case V4L2_PIX_FMT_NV16:
1323     case V4L2_PIX_FMT_NV16M:
1324       format = GST_VIDEO_FORMAT_NV16;
1325       break;
1326     case V4L2_PIX_FMT_NV61:
1327     case V4L2_PIX_FMT_NV61M:
1328       format = GST_VIDEO_FORMAT_NV61;
1329       break;
1330     case V4L2_PIX_FMT_NV24:
1331       format = GST_VIDEO_FORMAT_NV24;
1332       break;
1333     default:
1334       format = GST_VIDEO_FORMAT_UNKNOWN;
1335       break;
1336   }
1337
1338   return format;
1339 }
1340
1341 static gboolean
1342 gst_v4l2_object_v4l2fourcc_is_rgb (guint32 fourcc)
1343 {
1344   gboolean ret = FALSE;
1345
1346   switch (fourcc) {
1347     case V4L2_PIX_FMT_XRGB555:
1348     case V4L2_PIX_FMT_RGB555:
1349     case V4L2_PIX_FMT_XRGB555X:
1350     case V4L2_PIX_FMT_RGB555X:
1351     case V4L2_PIX_FMT_RGB565:
1352     case V4L2_PIX_FMT_RGB24:
1353     case V4L2_PIX_FMT_BGR24:
1354     case V4L2_PIX_FMT_XRGB32:
1355     case V4L2_PIX_FMT_RGB32:
1356     case V4L2_PIX_FMT_XBGR32:
1357     case V4L2_PIX_FMT_BGR32:
1358     case V4L2_PIX_FMT_ABGR32:
1359     case V4L2_PIX_FMT_ARGB32:
1360       ret = TRUE;
1361       break;
1362     default:
1363       break;
1364   }
1365
1366   return ret;
1367 }
1368
1369 static GstStructure *
1370 gst_v4l2_object_v4l2fourcc_to_bare_struct (guint32 fourcc)
1371 {
1372   GstStructure *structure = NULL;
1373
1374   switch (fourcc) {
1375     case V4L2_PIX_FMT_MJPEG:   /* Motion-JPEG */
1376     case V4L2_PIX_FMT_PJPG:    /* Progressive-JPEG */
1377     case V4L2_PIX_FMT_JPEG:    /* JFIF JPEG */
1378       structure = gst_structure_new_empty ("image/jpeg");
1379       break;
1380     case V4L2_PIX_FMT_MPEG1:
1381       structure = gst_structure_new ("video/mpeg",
1382           "mpegversion", G_TYPE_INT, 2, NULL);
1383       break;
1384     case V4L2_PIX_FMT_MPEG2:
1385       structure = gst_structure_new ("video/mpeg",
1386           "mpegversion", G_TYPE_INT, 2, NULL);
1387       break;
1388     case V4L2_PIX_FMT_MPEG4:
1389     case V4L2_PIX_FMT_XVID:
1390       structure = gst_structure_new ("video/mpeg",
1391           "mpegversion", G_TYPE_INT, 4, "systemstream",
1392           G_TYPE_BOOLEAN, FALSE, NULL);
1393       break;
1394     case V4L2_PIX_FMT_H263:
1395       structure = gst_structure_new ("video/x-h263",
1396           "variant", G_TYPE_STRING, "itu", NULL);
1397       break;
1398     case V4L2_PIX_FMT_H264:    /* H.264 */
1399       structure = gst_structure_new ("video/x-h264",
1400           "stream-format", G_TYPE_STRING, "byte-stream", "alignment",
1401           G_TYPE_STRING, "au", NULL);
1402       break;
1403     case V4L2_PIX_FMT_H264_NO_SC:
1404       structure = gst_structure_new ("video/x-h264",
1405           "stream-format", G_TYPE_STRING, "avc", "alignment",
1406           G_TYPE_STRING, "au", NULL);
1407       break;
1408     case V4L2_PIX_FMT_VC1_ANNEX_G:
1409     case V4L2_PIX_FMT_VC1_ANNEX_L:
1410       structure = gst_structure_new ("video/x-wmv",
1411           "wmvversion", G_TYPE_INT, 3, "format", G_TYPE_STRING, "WVC1", NULL);
1412       break;
1413     case V4L2_PIX_FMT_VP8:
1414       structure = gst_structure_new_empty ("video/x-vp8");
1415       break;
1416     case V4L2_PIX_FMT_VP9:
1417       structure = gst_structure_new_empty ("video/x-vp9");
1418       break;
1419     case V4L2_PIX_FMT_GREY:    /*  8  Greyscale     */
1420     case V4L2_PIX_FMT_Y16:
1421     case V4L2_PIX_FMT_Y16_BE:
1422     case V4L2_PIX_FMT_XRGB555:
1423     case V4L2_PIX_FMT_RGB555:
1424     case V4L2_PIX_FMT_XRGB555X:
1425     case V4L2_PIX_FMT_RGB555X:
1426     case V4L2_PIX_FMT_RGB565:
1427     case V4L2_PIX_FMT_RGB24:
1428     case V4L2_PIX_FMT_BGR24:
1429     case V4L2_PIX_FMT_RGB32:
1430     case V4L2_PIX_FMT_XRGB32:
1431     case V4L2_PIX_FMT_ARGB32:
1432     case V4L2_PIX_FMT_BGR32:
1433     case V4L2_PIX_FMT_XBGR32:
1434     case V4L2_PIX_FMT_ABGR32:
1435     case V4L2_PIX_FMT_NV12:    /* 12  Y/CbCr 4:2:0  */
1436     case V4L2_PIX_FMT_NV12M:
1437     case V4L2_PIX_FMT_NV12MT:
1438     case V4L2_PIX_FMT_NV21:    /* 12  Y/CrCb 4:2:0  */
1439     case V4L2_PIX_FMT_NV21M:
1440     case V4L2_PIX_FMT_NV16:    /* 16  Y/CbCr 4:2:2  */
1441     case V4L2_PIX_FMT_NV16M:
1442     case V4L2_PIX_FMT_NV61:    /* 16  Y/CrCb 4:2:2  */
1443     case V4L2_PIX_FMT_NV61M:
1444     case V4L2_PIX_FMT_NV24:    /* 24  Y/CrCb 4:4:4  */
1445     case V4L2_PIX_FMT_YVU410:
1446     case V4L2_PIX_FMT_YUV410:
1447     case V4L2_PIX_FMT_YUV420:  /* I420/IYUV */
1448     case V4L2_PIX_FMT_YUV420M:
1449     case V4L2_PIX_FMT_YUYV:
1450     case V4L2_PIX_FMT_YVU420:
1451     case V4L2_PIX_FMT_UYVY:
1452     case V4L2_PIX_FMT_YUV422P:
1453     case V4L2_PIX_FMT_YVYU:
1454     case V4L2_PIX_FMT_YUV411P:{
1455       GstVideoFormat format;
1456       format = gst_v4l2_object_v4l2fourcc_to_video_format (fourcc);
1457       if (format != GST_VIDEO_FORMAT_UNKNOWN)
1458         structure = gst_structure_new ("video/x-raw",
1459             "format", G_TYPE_STRING, gst_video_format_to_string (format), NULL);
1460       break;
1461     }
1462     case V4L2_PIX_FMT_DV:
1463       structure =
1464           gst_structure_new ("video/x-dv", "systemstream", G_TYPE_BOOLEAN, TRUE,
1465           NULL);
1466       break;
1467     case V4L2_PIX_FMT_MPEG:    /* MPEG          */
1468       structure = gst_structure_new ("video/mpegts",
1469           "systemstream", G_TYPE_BOOLEAN, TRUE, NULL);
1470       break;
1471     case V4L2_PIX_FMT_WNVA:    /* Winnov hw compres */
1472       break;
1473     case V4L2_PIX_FMT_SBGGR8:
1474     case V4L2_PIX_FMT_SGBRG8:
1475     case V4L2_PIX_FMT_SGRBG8:
1476     case V4L2_PIX_FMT_SRGGB8:
1477       structure = gst_structure_new ("video/x-bayer", "format", G_TYPE_STRING,
1478           fourcc == V4L2_PIX_FMT_SBGGR8 ? "bggr" :
1479           fourcc == V4L2_PIX_FMT_SGBRG8 ? "gbrg" :
1480           fourcc == V4L2_PIX_FMT_SGRBG8 ? "grbg" :
1481           /* fourcc == V4L2_PIX_FMT_SRGGB8 ? */ "rggb", NULL);
1482       break;
1483     case V4L2_PIX_FMT_SN9C10X:
1484       structure = gst_structure_new_empty ("video/x-sonix");
1485       break;
1486     case V4L2_PIX_FMT_PWC1:
1487       structure = gst_structure_new_empty ("video/x-pwc1");
1488       break;
1489     case V4L2_PIX_FMT_PWC2:
1490       structure = gst_structure_new_empty ("video/x-pwc2");
1491       break;
1492     case V4L2_PIX_FMT_RGB332:
1493     case V4L2_PIX_FMT_BGR666:
1494     case V4L2_PIX_FMT_ARGB555X:
1495     case V4L2_PIX_FMT_RGB565X:
1496     case V4L2_PIX_FMT_RGB444:
1497     case V4L2_PIX_FMT_YYUV:    /* 16  YUV 4:2:2     */
1498     case V4L2_PIX_FMT_HI240:   /*  8  8-bit color   */
1499     case V4L2_PIX_FMT_Y4:
1500     case V4L2_PIX_FMT_Y6:
1501     case V4L2_PIX_FMT_Y10:
1502     case V4L2_PIX_FMT_Y12:
1503     case V4L2_PIX_FMT_Y10BPACK:
1504     case V4L2_PIX_FMT_YUV444:
1505     case V4L2_PIX_FMT_YUV555:
1506     case V4L2_PIX_FMT_YUV565:
1507     case V4L2_PIX_FMT_Y41P:
1508     case V4L2_PIX_FMT_YUV32:
1509     case V4L2_PIX_FMT_NV12MT_16X16:
1510     case V4L2_PIX_FMT_NV42:
1511     case V4L2_PIX_FMT_H264_MVC:
1512     default:
1513       GST_DEBUG ("Unsupported fourcc 0x%08x %" GST_FOURCC_FORMAT,
1514           fourcc, GST_FOURCC_ARGS (fourcc));
1515       break;
1516   }
1517
1518   return structure;
1519 }
1520
1521 GstStructure *
1522 gst_v4l2_object_v4l2fourcc_to_structure (guint32 fourcc)
1523 {
1524   GstStructure *template;
1525   gint i;
1526
1527   template = gst_v4l2_object_v4l2fourcc_to_bare_struct (fourcc);
1528
1529   if (template == NULL)
1530     goto done;
1531
1532   for (i = 0; i < GST_V4L2_FORMAT_COUNT; i++) {
1533     if (gst_v4l2_formats[i].format != fourcc)
1534       continue;
1535
1536     if (gst_v4l2_formats[i].dimensions) {
1537       gst_structure_set (template,
1538           "width", GST_TYPE_INT_RANGE, 1, GST_V4L2_MAX_SIZE,
1539           "height", GST_TYPE_INT_RANGE, 1, GST_V4L2_MAX_SIZE,
1540           "framerate", GST_TYPE_FRACTION_RANGE, 0, 1, G_MAXINT, 1, NULL);
1541     }
1542     break;
1543   }
1544
1545 done:
1546   return template;
1547 }
1548
1549
1550 static GstCaps *
1551 gst_v4l2_object_get_caps_helper (GstV4L2FormatFlags flags)
1552 {
1553   GstStructure *structure;
1554   GstCaps *caps;
1555   guint i;
1556
1557   caps = gst_caps_new_empty ();
1558   for (i = 0; i < GST_V4L2_FORMAT_COUNT; i++) {
1559
1560     if ((gst_v4l2_formats[i].flags & flags) == 0)
1561       continue;
1562
1563     structure =
1564         gst_v4l2_object_v4l2fourcc_to_bare_struct (gst_v4l2_formats[i].format);
1565
1566     if (structure) {
1567       GstStructure *alt_s = NULL;
1568
1569       if (gst_v4l2_formats[i].dimensions) {
1570         gst_structure_set (structure,
1571             "width", GST_TYPE_INT_RANGE, 1, GST_V4L2_MAX_SIZE,
1572             "height", GST_TYPE_INT_RANGE, 1, GST_V4L2_MAX_SIZE,
1573             "framerate", GST_TYPE_FRACTION_RANGE, 0, 1, G_MAXINT, 1, NULL);
1574       }
1575
1576       switch (gst_v4l2_formats[i].format) {
1577         case V4L2_PIX_FMT_RGB32:
1578           alt_s = gst_structure_copy (structure);
1579           gst_structure_set (alt_s, "format", G_TYPE_STRING, "ARGB", NULL);
1580           break;
1581         case V4L2_PIX_FMT_BGR32:
1582           alt_s = gst_structure_copy (structure);
1583           gst_structure_set (alt_s, "format", G_TYPE_STRING, "BGRA", NULL);
1584         default:
1585           break;
1586       }
1587
1588       gst_caps_append_structure (caps, structure);
1589
1590       if (alt_s)
1591         gst_caps_append_structure (caps, alt_s);
1592     }
1593   }
1594
1595   return gst_caps_simplify (caps);
1596 }
1597
1598 GstCaps *
1599 gst_v4l2_object_get_all_caps (void)
1600 {
1601   static GstCaps *caps = NULL;
1602
1603   if (g_once_init_enter (&caps)) {
1604     GstCaps *all_caps = gst_v4l2_object_get_caps_helper (GST_V4L2_ALL);
1605     GST_MINI_OBJECT_FLAG_SET (all_caps, GST_MINI_OBJECT_FLAG_MAY_BE_LEAKED);
1606     g_once_init_leave (&caps, all_caps);
1607   }
1608
1609   return caps;
1610 }
1611
1612 GstCaps *
1613 gst_v4l2_object_get_raw_caps (void)
1614 {
1615   static GstCaps *caps = NULL;
1616
1617   if (g_once_init_enter (&caps)) {
1618     GstCaps *raw_caps = gst_v4l2_object_get_caps_helper (GST_V4L2_RAW);
1619     GST_MINI_OBJECT_FLAG_SET (raw_caps, GST_MINI_OBJECT_FLAG_MAY_BE_LEAKED);
1620     g_once_init_leave (&caps, raw_caps);
1621   }
1622
1623   return caps;
1624 }
1625
1626 GstCaps *
1627 gst_v4l2_object_get_codec_caps (void)
1628 {
1629   static GstCaps *caps = NULL;
1630
1631   if (g_once_init_enter (&caps)) {
1632     GstCaps *codec_caps = gst_v4l2_object_get_caps_helper (GST_V4L2_CODEC);
1633     GST_MINI_OBJECT_FLAG_SET (codec_caps, GST_MINI_OBJECT_FLAG_MAY_BE_LEAKED);
1634     g_once_init_leave (&caps, codec_caps);
1635   }
1636
1637   return caps;
1638 }
1639
1640 /* collect data for the given caps
1641  * @caps: given input caps
1642  * @format: location for the v4l format
1643  * @w/@h: location for width and height
1644  * @fps_n/@fps_d: location for framerate
1645  * @size: location for expected size of the frame or 0 if unknown
1646  */
1647 static gboolean
1648 gst_v4l2_object_get_caps_info (GstV4l2Object * v4l2object, GstCaps * caps,
1649     struct v4l2_fmtdesc **format, GstVideoInfo * info)
1650 {
1651   GstStructure *structure;
1652   guint32 fourcc = 0, fourcc_nc = 0;
1653   const gchar *mimetype;
1654   struct v4l2_fmtdesc *fmt = NULL;
1655
1656   structure = gst_caps_get_structure (caps, 0);
1657
1658   mimetype = gst_structure_get_name (structure);
1659
1660   if (!gst_video_info_from_caps (info, caps))
1661     goto invalid_format;
1662
1663   if (g_str_equal (mimetype, "video/x-raw")) {
1664     switch (GST_VIDEO_INFO_FORMAT (info)) {
1665       case GST_VIDEO_FORMAT_I420:
1666         fourcc = V4L2_PIX_FMT_YUV420;
1667         fourcc_nc = V4L2_PIX_FMT_YUV420M;
1668         break;
1669       case GST_VIDEO_FORMAT_YUY2:
1670         fourcc = V4L2_PIX_FMT_YUYV;
1671         break;
1672       case GST_VIDEO_FORMAT_UYVY:
1673         fourcc = V4L2_PIX_FMT_UYVY;
1674         break;
1675       case GST_VIDEO_FORMAT_YV12:
1676         fourcc = V4L2_PIX_FMT_YVU420;
1677         break;
1678       case GST_VIDEO_FORMAT_Y41B:
1679         fourcc = V4L2_PIX_FMT_YUV411P;
1680         break;
1681       case GST_VIDEO_FORMAT_Y42B:
1682         fourcc = V4L2_PIX_FMT_YUV422P;
1683         break;
1684       case GST_VIDEO_FORMAT_NV12:
1685         fourcc = V4L2_PIX_FMT_NV12;
1686         fourcc_nc = V4L2_PIX_FMT_NV12M;
1687         break;
1688       case GST_VIDEO_FORMAT_NV12_64Z32:
1689         fourcc_nc = V4L2_PIX_FMT_NV12MT;
1690         break;
1691       case GST_VIDEO_FORMAT_NV21:
1692         fourcc = V4L2_PIX_FMT_NV21;
1693         fourcc_nc = V4L2_PIX_FMT_NV21M;
1694         break;
1695       case GST_VIDEO_FORMAT_NV16:
1696         fourcc = V4L2_PIX_FMT_NV16;
1697         fourcc_nc = V4L2_PIX_FMT_NV16M;
1698         break;
1699       case GST_VIDEO_FORMAT_NV61:
1700         fourcc = V4L2_PIX_FMT_NV61;
1701         fourcc_nc = V4L2_PIX_FMT_NV61M;
1702         break;
1703       case GST_VIDEO_FORMAT_NV24:
1704         fourcc = V4L2_PIX_FMT_NV24;
1705         break;
1706       case GST_VIDEO_FORMAT_YVYU:
1707         fourcc = V4L2_PIX_FMT_YVYU;
1708         break;
1709       case GST_VIDEO_FORMAT_RGB15:
1710         fourcc = V4L2_PIX_FMT_RGB555;
1711         fourcc_nc = V4L2_PIX_FMT_XRGB555;
1712         break;
1713       case GST_VIDEO_FORMAT_RGB16:
1714         fourcc = V4L2_PIX_FMT_RGB565;
1715         break;
1716       case GST_VIDEO_FORMAT_RGB:
1717         fourcc = V4L2_PIX_FMT_RGB24;
1718         break;
1719       case GST_VIDEO_FORMAT_BGR:
1720         fourcc = V4L2_PIX_FMT_BGR24;
1721         break;
1722       case GST_VIDEO_FORMAT_xRGB:
1723         fourcc = V4L2_PIX_FMT_RGB32;
1724         fourcc_nc = V4L2_PIX_FMT_XRGB32;
1725         break;
1726       case GST_VIDEO_FORMAT_ARGB:
1727         fourcc = V4L2_PIX_FMT_RGB32;
1728         fourcc_nc = V4L2_PIX_FMT_ARGB32;
1729         break;
1730       case GST_VIDEO_FORMAT_BGRx:
1731         fourcc = V4L2_PIX_FMT_BGR32;
1732         fourcc_nc = V4L2_PIX_FMT_XBGR32;
1733         break;
1734       case GST_VIDEO_FORMAT_BGRA:
1735         fourcc = V4L2_PIX_FMT_BGR32;
1736         fourcc_nc = V4L2_PIX_FMT_ABGR32;
1737         break;
1738       case GST_VIDEO_FORMAT_GRAY8:
1739         fourcc = V4L2_PIX_FMT_GREY;
1740         break;
1741       case GST_VIDEO_FORMAT_GRAY16_LE:
1742         fourcc = V4L2_PIX_FMT_Y16;
1743         break;
1744       case GST_VIDEO_FORMAT_GRAY16_BE:
1745         fourcc = V4L2_PIX_FMT_Y16_BE;
1746         break;
1747       default:
1748         break;
1749     }
1750   } else {
1751     if (g_str_equal (mimetype, "video/mpegts")) {
1752       fourcc = V4L2_PIX_FMT_MPEG;
1753     } else if (g_str_equal (mimetype, "video/x-dv")) {
1754       fourcc = V4L2_PIX_FMT_DV;
1755     } else if (g_str_equal (mimetype, "image/jpeg")) {
1756       fourcc = V4L2_PIX_FMT_JPEG;
1757     } else if (g_str_equal (mimetype, "video/mpeg")) {
1758       gint version;
1759       if (gst_structure_get_int (structure, "mpegversion", &version)) {
1760         switch (version) {
1761           case 1:
1762             fourcc = V4L2_PIX_FMT_MPEG1;
1763             break;
1764           case 2:
1765             fourcc = V4L2_PIX_FMT_MPEG2;
1766             break;
1767           case 4:
1768             fourcc = V4L2_PIX_FMT_MPEG4;
1769             fourcc_nc = V4L2_PIX_FMT_XVID;
1770             break;
1771           default:
1772             break;
1773         }
1774       }
1775     } else if (g_str_equal (mimetype, "video/x-h263")) {
1776       fourcc = V4L2_PIX_FMT_H263;
1777     } else if (g_str_equal (mimetype, "video/x-h264")) {
1778       const gchar *stream_format =
1779           gst_structure_get_string (structure, "stream-format");
1780       if (g_str_equal (stream_format, "avc"))
1781         fourcc = V4L2_PIX_FMT_H264_NO_SC;
1782       else
1783         fourcc = V4L2_PIX_FMT_H264;
1784     } else if (g_str_equal (mimetype, "video/x-vp8")) {
1785       fourcc = V4L2_PIX_FMT_VP8;
1786     } else if (g_str_equal (mimetype, "video/x-vp9")) {
1787       fourcc = V4L2_PIX_FMT_VP9;
1788     } else if (g_str_equal (mimetype, "video/x-bayer")) {
1789       const gchar *format = gst_structure_get_string (structure, "format");
1790       if (format) {
1791         if (!g_ascii_strcasecmp (format, "bggr"))
1792           fourcc = V4L2_PIX_FMT_SBGGR8;
1793         else if (!g_ascii_strcasecmp (format, "gbrg"))
1794           fourcc = V4L2_PIX_FMT_SGBRG8;
1795         else if (!g_ascii_strcasecmp (format, "grbg"))
1796           fourcc = V4L2_PIX_FMT_SGRBG8;
1797         else if (!g_ascii_strcasecmp (format, "rggb"))
1798           fourcc = V4L2_PIX_FMT_SRGGB8;
1799       }
1800     } else if (g_str_equal (mimetype, "video/x-sonix")) {
1801       fourcc = V4L2_PIX_FMT_SN9C10X;
1802     } else if (g_str_equal (mimetype, "video/x-pwc1")) {
1803       fourcc = V4L2_PIX_FMT_PWC1;
1804     } else if (g_str_equal (mimetype, "video/x-pwc2")) {
1805       fourcc = V4L2_PIX_FMT_PWC2;
1806     }
1807   }
1808
1809
1810   /* Prefer the non-contiguous if supported */
1811   v4l2object->prefered_non_contiguous = TRUE;
1812
1813   if (fourcc_nc)
1814     fmt = gst_v4l2_object_get_format_from_fourcc (v4l2object, fourcc_nc);
1815   else if (fourcc == 0)
1816     goto unhandled_format;
1817
1818   if (fmt == NULL) {
1819     fmt = gst_v4l2_object_get_format_from_fourcc (v4l2object, fourcc);
1820     v4l2object->prefered_non_contiguous = FALSE;
1821   }
1822
1823   if (fmt == NULL)
1824     goto unsupported_format;
1825
1826   *format = fmt;
1827
1828   return TRUE;
1829
1830   /* ERRORS */
1831 invalid_format:
1832   {
1833     GST_DEBUG_OBJECT (v4l2object, "invalid format");
1834     return FALSE;
1835   }
1836 unhandled_format:
1837   {
1838     GST_DEBUG_OBJECT (v4l2object, "unhandled format");
1839     return FALSE;
1840   }
1841 unsupported_format:
1842   {
1843     GST_DEBUG_OBJECT (v4l2object, "unsupported format");
1844     return FALSE;
1845   }
1846 }
1847
1848 static gboolean
1849 gst_v4l2_object_get_nearest_size (GstV4l2Object * v4l2object,
1850     guint32 pixelformat, gint * width, gint * height);
1851
1852 static void
1853 gst_v4l2_object_add_aspect_ratio (GstV4l2Object * v4l2object, GstStructure * s)
1854 {
1855   if (v4l2object->keep_aspect && v4l2object->par)
1856     gst_structure_set_value (s, "pixel-aspect-ratio", v4l2object->par);
1857 }
1858
1859 /* returns TRUE if the value was changed in place, otherwise FALSE */
1860 static gboolean
1861 gst_v4l2src_value_simplify (GValue * val)
1862 {
1863   /* simplify list of one value to one value */
1864   if (GST_VALUE_HOLDS_LIST (val) && gst_value_list_get_size (val) == 1) {
1865     const GValue *list_val;
1866     GValue new_val = G_VALUE_INIT;
1867
1868     list_val = gst_value_list_get_value (val, 0);
1869     g_value_init (&new_val, G_VALUE_TYPE (list_val));
1870     g_value_copy (list_val, &new_val);
1871     g_value_unset (val);
1872     *val = new_val;
1873     return TRUE;
1874   }
1875
1876   return FALSE;
1877 }
1878
1879 static gboolean
1880 gst_v4l2_object_get_interlace_mode (enum v4l2_field field,
1881     GstVideoInterlaceMode * interlace_mode)
1882 {
1883   /* NB: If you add new return values, please fix mode_strings in
1884    * gst_v4l2_object_add_interlace_mode */
1885   switch (field) {
1886     case V4L2_FIELD_ANY:
1887       GST_ERROR
1888           ("Driver bug detected - check driver with v4l2-compliance from http://git.linuxtv.org/v4l-utils.git\n");
1889       /* fallthrough */
1890     case V4L2_FIELD_NONE:
1891       *interlace_mode = GST_VIDEO_INTERLACE_MODE_PROGRESSIVE;
1892       return TRUE;
1893     case V4L2_FIELD_INTERLACED:
1894     case V4L2_FIELD_INTERLACED_TB:
1895     case V4L2_FIELD_INTERLACED_BT:
1896       *interlace_mode = GST_VIDEO_INTERLACE_MODE_INTERLEAVED;
1897       return TRUE;
1898     default:
1899       GST_ERROR ("Unknown enum v4l2_field %d", field);
1900       return FALSE;
1901   }
1902 }
1903
1904 static gboolean
1905 gst_v4l2_object_get_colorspace (struct v4l2_format *fmt,
1906     GstVideoColorimetry * cinfo)
1907 {
1908   gboolean is_rgb =
1909       gst_v4l2_object_v4l2fourcc_is_rgb (fmt->fmt.pix.pixelformat);
1910   enum v4l2_colorspace colorspace;
1911   enum v4l2_quantization range;
1912   enum v4l2_ycbcr_encoding matrix;
1913   enum v4l2_xfer_func transfer;
1914   gboolean ret = TRUE;
1915
1916   if (V4L2_TYPE_IS_MULTIPLANAR (fmt->type)) {
1917     colorspace = fmt->fmt.pix_mp.colorspace;
1918     range = fmt->fmt.pix_mp.quantization;
1919     matrix = fmt->fmt.pix_mp.ycbcr_enc;
1920     transfer = fmt->fmt.pix_mp.xfer_func;
1921   } else {
1922     colorspace = fmt->fmt.pix.colorspace;
1923     range = fmt->fmt.pix.quantization;
1924     matrix = fmt->fmt.pix.ycbcr_enc;
1925     transfer = fmt->fmt.pix.xfer_func;
1926   }
1927
1928   /* First step, set the defaults for each primaries */
1929   switch (colorspace) {
1930     case V4L2_COLORSPACE_SMPTE170M:
1931       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
1932       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT601;
1933       cinfo->transfer = GST_VIDEO_TRANSFER_BT709;
1934       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_SMPTE170M;
1935       break;
1936     case V4L2_COLORSPACE_REC709:
1937       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
1938       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT709;
1939       cinfo->transfer = GST_VIDEO_TRANSFER_BT709;
1940       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_BT709;
1941       break;
1942     case V4L2_COLORSPACE_SRGB:
1943     case V4L2_COLORSPACE_JPEG:
1944       cinfo->range = GST_VIDEO_COLOR_RANGE_0_255;
1945       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT601;
1946       cinfo->transfer = GST_VIDEO_TRANSFER_SRGB;
1947       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_BT709;
1948       break;
1949     case V4L2_COLORSPACE_ADOBERGB:
1950       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
1951       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT601;
1952       cinfo->transfer = GST_VIDEO_TRANSFER_ADOBERGB;
1953       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_ADOBERGB;
1954       break;
1955     case V4L2_COLORSPACE_BT2020:
1956       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
1957       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT2020;
1958       cinfo->transfer = GST_VIDEO_TRANSFER_BT2020_12;
1959       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_BT2020;
1960       break;
1961     case V4L2_COLORSPACE_SMPTE240M:
1962       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
1963       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_SMPTE240M;
1964       cinfo->transfer = GST_VIDEO_TRANSFER_SMPTE240M;
1965       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_SMPTE240M;
1966       break;
1967     case V4L2_COLORSPACE_470_SYSTEM_M:
1968       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
1969       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT601;
1970       cinfo->transfer = GST_VIDEO_TRANSFER_BT709;
1971       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_BT470M;
1972       break;
1973     case V4L2_COLORSPACE_470_SYSTEM_BG:
1974       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
1975       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT601;
1976       cinfo->transfer = GST_VIDEO_TRANSFER_BT709;
1977       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_BT470BG;
1978       break;
1979     case V4L2_COLORSPACE_RAW:
1980       /* Explicitly unknown */
1981       cinfo->range = GST_VIDEO_COLOR_RANGE_UNKNOWN;
1982       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_UNKNOWN;
1983       cinfo->transfer = GST_VIDEO_TRANSFER_UNKNOWN;
1984       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_UNKNOWN;
1985       break;
1986     default:
1987       GST_DEBUG ("Unknown enum v4l2_colorspace %d", colorspace);
1988       ret = FALSE;
1989       break;
1990   }
1991
1992   if (!ret)
1993     goto done;
1994
1995   /* Second step, apply any custom variation */
1996   switch (range) {
1997     case V4L2_QUANTIZATION_FULL_RANGE:
1998       cinfo->range = GST_VIDEO_COLOR_RANGE_0_255;
1999       break;
2000     case V4L2_QUANTIZATION_LIM_RANGE:
2001       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
2002       break;
2003     case V4L2_QUANTIZATION_DEFAULT:
2004       /* replicated V4L2_MAP_QUANTIZATION_DEFAULT macro behavior */
2005       if (is_rgb && colorspace == V4L2_COLORSPACE_BT2020)
2006         cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
2007       else if (is_rgb || matrix == V4L2_YCBCR_ENC_XV601
2008           || matrix == V4L2_YCBCR_ENC_XV709
2009           || colorspace == V4L2_COLORSPACE_JPEG)
2010         cinfo->range = GST_VIDEO_COLOR_RANGE_0_255;
2011       else
2012         cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
2013       break;
2014     default:
2015       GST_WARNING ("Unknown enum v4l2_quantization value %d", range);
2016       cinfo->range = GST_VIDEO_COLOR_RANGE_UNKNOWN;
2017       break;
2018   }
2019
2020   switch (matrix) {
2021     case V4L2_YCBCR_ENC_XV601:
2022     case V4L2_YCBCR_ENC_SYCC:
2023       GST_FIXME ("XV601 and SYCC not defined, assuming 601");
2024       /* fallthrough */
2025     case V4L2_YCBCR_ENC_601:
2026       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT601;
2027       break;
2028     case V4L2_YCBCR_ENC_XV709:
2029       GST_FIXME ("XV709 not defined, assuming 709");
2030       /* fallthrough */
2031     case V4L2_YCBCR_ENC_709:
2032       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT709;
2033       break;
2034     case V4L2_YCBCR_ENC_BT2020_CONST_LUM:
2035       GST_FIXME ("BT2020 with constant lumma is not defined, assuming BT2020");
2036       /* fallthrough */
2037     case V4L2_YCBCR_ENC_BT2020:
2038       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT2020;
2039       break;
2040     case V4L2_YCBCR_ENC_SMPTE240M:
2041       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_SMPTE240M;
2042       break;
2043     case V4L2_YCBCR_ENC_DEFAULT:
2044       /* nothing, just use defaults for colorspace */
2045       break;
2046     default:
2047       GST_WARNING ("Unknown enum v4l2_ycbcr_encoding value %d", matrix);
2048       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_UNKNOWN;
2049       break;
2050   }
2051
2052   /* Set identity matrix for R'G'B' formats to avoid creating
2053    * confusion. This though is cosmetic as it's now properly ignored by
2054    * the video info API and videoconvert. */
2055   if (is_rgb)
2056     cinfo->matrix = GST_VIDEO_COLOR_MATRIX_RGB;
2057
2058   switch (transfer) {
2059     case V4L2_XFER_FUNC_709:
2060       if (fmt->fmt.pix.height >= 2160)
2061         cinfo->transfer = GST_VIDEO_TRANSFER_BT2020_12;
2062       else
2063         cinfo->transfer = GST_VIDEO_TRANSFER_BT709;
2064       break;
2065     case V4L2_XFER_FUNC_SRGB:
2066       cinfo->transfer = GST_VIDEO_TRANSFER_SRGB;
2067       break;
2068     case V4L2_XFER_FUNC_ADOBERGB:
2069       cinfo->transfer = GST_VIDEO_TRANSFER_ADOBERGB;
2070       break;
2071     case V4L2_XFER_FUNC_SMPTE240M:
2072       cinfo->transfer = GST_VIDEO_TRANSFER_SMPTE240M;
2073       break;
2074     case V4L2_XFER_FUNC_NONE:
2075       cinfo->transfer = GST_VIDEO_TRANSFER_GAMMA10;
2076       break;
2077     case V4L2_XFER_FUNC_DEFAULT:
2078       /* nothing, just use defaults for colorspace */
2079       break;
2080     default:
2081       GST_WARNING ("Unknown enum v4l2_xfer_func value %d", transfer);
2082       cinfo->transfer = GST_VIDEO_TRANSFER_UNKNOWN;
2083       break;
2084   }
2085
2086 done:
2087   return ret;
2088 }
2089
2090 static int
2091 gst_v4l2_object_try_fmt (GstV4l2Object * v4l2object,
2092     struct v4l2_format *try_fmt)
2093 {
2094   int fd = v4l2object->video_fd;
2095   struct v4l2_format fmt;
2096   int r;
2097
2098   memcpy (&fmt, try_fmt, sizeof (fmt));
2099   r = v4l2object->ioctl (fd, VIDIOC_TRY_FMT, &fmt);
2100
2101   if (r < 0 && errno == ENOTTY) {
2102     /* The driver might not implement TRY_FMT, in which case we will try
2103        S_FMT to probe */
2104     if (GST_V4L2_IS_ACTIVE (v4l2object))
2105       goto error;
2106
2107     memcpy (&fmt, try_fmt, sizeof (fmt));
2108     r = v4l2object->ioctl (fd, VIDIOC_S_FMT, &fmt);
2109   }
2110   memcpy (try_fmt, &fmt, sizeof (fmt));
2111
2112   return r;
2113
2114 error:
2115   memcpy (try_fmt, &fmt, sizeof (fmt));
2116   GST_WARNING_OBJECT (v4l2object->element,
2117       "Unable to try format: %s", g_strerror (errno));
2118   return r;
2119 }
2120
2121
2122 static void
2123 gst_v4l2_object_add_interlace_mode (GstV4l2Object * v4l2object,
2124     GstStructure * s, guint32 width, guint32 height, guint32 pixelformat)
2125 {
2126   struct v4l2_format fmt;
2127   GValue interlace_formats = { 0, };
2128   GstVideoInterlaceMode interlace_mode, prev = -1;
2129
2130   const gchar *mode_strings[] = { "progressive",
2131     "interleaved",
2132     "mixed"
2133   };
2134
2135   if (!g_str_equal (gst_structure_get_name (s), "video/x-raw"))
2136     return;
2137
2138   if (v4l2object->never_interlaced) {
2139     gst_structure_set (s, "interlace-mode", G_TYPE_STRING, "progressive", NULL);
2140     return;
2141   }
2142
2143   g_value_init (&interlace_formats, GST_TYPE_LIST);
2144
2145   /* Try twice - once for NONE, once for INTERLACED. */
2146   memset (&fmt, 0, sizeof (fmt));
2147   fmt.type = v4l2object->type;
2148   fmt.fmt.pix.width = width;
2149   fmt.fmt.pix.height = height;
2150   fmt.fmt.pix.pixelformat = pixelformat;
2151   fmt.fmt.pix.field = V4L2_FIELD_NONE;
2152
2153   if (gst_v4l2_object_try_fmt (v4l2object, &fmt) == 0 &&
2154       gst_v4l2_object_get_interlace_mode (fmt.fmt.pix.field, &interlace_mode)) {
2155     GValue interlace_enum = { 0, };
2156     g_value_init (&interlace_enum, G_TYPE_STRING);
2157     g_value_set_string (&interlace_enum, mode_strings[interlace_mode]);
2158     gst_value_list_append_and_take_value (&interlace_formats, &interlace_enum);
2159     prev = interlace_mode;
2160   }
2161
2162   memset (&fmt, 0, sizeof (fmt));
2163   fmt.type = v4l2object->type;
2164   fmt.fmt.pix.width = width;
2165   fmt.fmt.pix.height = height;
2166   fmt.fmt.pix.pixelformat = pixelformat;
2167   fmt.fmt.pix.field = V4L2_FIELD_INTERLACED;
2168
2169   if (gst_v4l2_object_try_fmt (v4l2object, &fmt) == 0 &&
2170       gst_v4l2_object_get_interlace_mode (fmt.fmt.pix.field, &interlace_mode) &&
2171       prev != interlace_mode) {
2172     GValue interlace_enum = { 0, };
2173     g_value_init (&interlace_enum, G_TYPE_STRING);
2174     g_value_set_string (&interlace_enum, mode_strings[interlace_mode]);
2175     gst_value_list_append_and_take_value (&interlace_formats, &interlace_enum);
2176   }
2177
2178   if (gst_v4l2src_value_simplify (&interlace_formats)
2179       || gst_value_list_get_size (&interlace_formats) > 0)
2180     gst_structure_take_value (s, "interlace-mode", &interlace_formats);
2181   else
2182     GST_WARNING_OBJECT (v4l2object, "Failed to determine interlace mode");
2183
2184   return;
2185 }
2186
2187 static void
2188 gst_v4l2_object_fill_colorimetry_list (GValue * list,
2189     GstVideoColorimetry * cinfo)
2190 {
2191   GValue colorimetry = G_VALUE_INIT;
2192   guint size;
2193   guint i;
2194   gboolean found = FALSE;
2195
2196   g_value_init (&colorimetry, G_TYPE_STRING);
2197   g_value_take_string (&colorimetry, gst_video_colorimetry_to_string (cinfo));
2198
2199   /* only insert if no duplicate */
2200   size = gst_value_list_get_size (list);
2201   for (i = 0; i < size; i++) {
2202     const GValue *tmp;
2203
2204     tmp = gst_value_list_get_value (list, i);
2205     if (gst_value_compare (&colorimetry, tmp) == GST_VALUE_EQUAL) {
2206       found = TRUE;
2207       break;
2208     }
2209   }
2210
2211   if (!found)
2212     gst_value_list_append_and_take_value (list, &colorimetry);
2213   else
2214     g_value_unset (&colorimetry);
2215 }
2216
2217 static void
2218 gst_v4l2_object_add_colorspace (GstV4l2Object * v4l2object, GstStructure * s,
2219     guint32 width, guint32 height, guint32 pixelformat)
2220 {
2221   struct v4l2_format fmt;
2222   GValue list = G_VALUE_INIT;
2223   GstVideoColorimetry cinfo;
2224   enum v4l2_colorspace req_cspace;
2225
2226   memset (&fmt, 0, sizeof (fmt));
2227   fmt.type = v4l2object->type;
2228   fmt.fmt.pix.width = width;
2229   fmt.fmt.pix.height = height;
2230   fmt.fmt.pix.pixelformat = pixelformat;
2231
2232   g_value_init (&list, GST_TYPE_LIST);
2233
2234   /* step 1: get device default colorspace and insert it first as
2235    * it should be the preferred one */
2236   if (gst_v4l2_object_try_fmt (v4l2object, &fmt) == 0) {
2237     if (gst_v4l2_object_get_colorspace (&fmt, &cinfo))
2238       gst_v4l2_object_fill_colorimetry_list (&list, &cinfo);
2239   }
2240
2241   /* step 2: probe all colorspace other than default
2242    * We don't probe all colorspace, range, matrix and transfer combination to
2243    * avoid ioctl flooding which could greatly increase initialization time
2244    * with low-speed devices (UVC...) */
2245   for (req_cspace = V4L2_COLORSPACE_SMPTE170M;
2246       req_cspace <= V4L2_COLORSPACE_RAW; req_cspace++) {
2247     /* V4L2_COLORSPACE_BT878 is deprecated and shall not be used, so skip */
2248     if (req_cspace == V4L2_COLORSPACE_BT878)
2249       continue;
2250
2251     if (V4L2_TYPE_IS_MULTIPLANAR (v4l2object->type))
2252       fmt.fmt.pix_mp.colorspace = req_cspace;
2253     else
2254       fmt.fmt.pix.colorspace = req_cspace;
2255
2256     if (gst_v4l2_object_try_fmt (v4l2object, &fmt) == 0) {
2257       enum v4l2_colorspace colorspace;
2258
2259       if (V4L2_TYPE_IS_MULTIPLANAR (v4l2object->type))
2260         colorspace = fmt.fmt.pix_mp.colorspace;
2261       else
2262         colorspace = fmt.fmt.pix.colorspace;
2263
2264       if (colorspace == req_cspace) {
2265         if (gst_v4l2_object_get_colorspace (&fmt, &cinfo))
2266           gst_v4l2_object_fill_colorimetry_list (&list, &cinfo);
2267       }
2268     }
2269   }
2270
2271   if (gst_value_list_get_size (&list) > 0)
2272     gst_structure_take_value (s, "colorimetry", &list);
2273   else
2274     g_value_unset (&list);
2275
2276   return;
2277 }
2278
2279 /* The frame interval enumeration code first appeared in Linux 2.6.19. */
2280 static GstStructure *
2281 gst_v4l2_object_probe_caps_for_format_and_size (GstV4l2Object * v4l2object,
2282     guint32 pixelformat,
2283     guint32 width, guint32 height, const GstStructure * template)
2284 {
2285   gint fd = v4l2object->video_fd;
2286   struct v4l2_frmivalenum ival;
2287   guint32 num, denom;
2288   GstStructure *s;
2289   GValue rates = { 0, };
2290
2291   memset (&ival, 0, sizeof (struct v4l2_frmivalenum));
2292   ival.index = 0;
2293   ival.pixel_format = pixelformat;
2294   ival.width = width;
2295   ival.height = height;
2296
2297   GST_LOG_OBJECT (v4l2object->element,
2298       "get frame interval for %ux%u, %" GST_FOURCC_FORMAT, width, height,
2299       GST_FOURCC_ARGS (pixelformat));
2300
2301   /* keep in mind that v4l2 gives us frame intervals (durations); we invert the
2302    * fraction to get framerate */
2303   if (v4l2object->ioctl (fd, VIDIOC_ENUM_FRAMEINTERVALS, &ival) < 0)
2304     goto enum_frameintervals_failed;
2305
2306   if (ival.type == V4L2_FRMIVAL_TYPE_DISCRETE) {
2307     GValue rate = { 0, };
2308
2309     g_value_init (&rates, GST_TYPE_LIST);
2310     g_value_init (&rate, GST_TYPE_FRACTION);
2311
2312     do {
2313       num = ival.discrete.numerator;
2314       denom = ival.discrete.denominator;
2315
2316       if (num > G_MAXINT || denom > G_MAXINT) {
2317         /* let us hope we don't get here... */
2318         num >>= 1;
2319         denom >>= 1;
2320       }
2321
2322       GST_LOG_OBJECT (v4l2object->element, "adding discrete framerate: %d/%d",
2323           denom, num);
2324
2325       /* swap to get the framerate */
2326       gst_value_set_fraction (&rate, denom, num);
2327       gst_value_list_append_value (&rates, &rate);
2328
2329       ival.index++;
2330     } while (v4l2object->ioctl (fd, VIDIOC_ENUM_FRAMEINTERVALS, &ival) >= 0);
2331   } else if (ival.type == V4L2_FRMIVAL_TYPE_STEPWISE) {
2332     GValue min = { 0, };
2333     GValue step = { 0, };
2334     GValue max = { 0, };
2335     gboolean added = FALSE;
2336     guint32 minnum, mindenom;
2337     guint32 maxnum, maxdenom;
2338
2339     g_value_init (&rates, GST_TYPE_LIST);
2340
2341     g_value_init (&min, GST_TYPE_FRACTION);
2342     g_value_init (&step, GST_TYPE_FRACTION);
2343     g_value_init (&max, GST_TYPE_FRACTION);
2344
2345     /* get the min */
2346     minnum = ival.stepwise.min.numerator;
2347     mindenom = ival.stepwise.min.denominator;
2348     if (minnum > G_MAXINT || mindenom > G_MAXINT) {
2349       minnum >>= 1;
2350       mindenom >>= 1;
2351     }
2352     GST_LOG_OBJECT (v4l2object->element, "stepwise min frame interval: %d/%d",
2353         minnum, mindenom);
2354     gst_value_set_fraction (&min, minnum, mindenom);
2355
2356     /* get the max */
2357     maxnum = ival.stepwise.max.numerator;
2358     maxdenom = ival.stepwise.max.denominator;
2359     if (maxnum > G_MAXINT || maxdenom > G_MAXINT) {
2360       maxnum >>= 1;
2361       maxdenom >>= 1;
2362     }
2363
2364     GST_LOG_OBJECT (v4l2object->element, "stepwise max frame interval: %d/%d",
2365         maxnum, maxdenom);
2366     gst_value_set_fraction (&max, maxnum, maxdenom);
2367
2368     /* get the step */
2369     num = ival.stepwise.step.numerator;
2370     denom = ival.stepwise.step.denominator;
2371     if (num > G_MAXINT || denom > G_MAXINT) {
2372       num >>= 1;
2373       denom >>= 1;
2374     }
2375
2376     if (num == 0 || denom == 0) {
2377       /* in this case we have a wrong fraction or no step, set the step to max
2378        * so that we only add the min value in the loop below */
2379       num = maxnum;
2380       denom = maxdenom;
2381     }
2382
2383     /* since we only have gst_value_fraction_subtract and not add, negate the
2384      * numerator */
2385     GST_LOG_OBJECT (v4l2object->element, "stepwise step frame interval: %d/%d",
2386         num, denom);
2387     gst_value_set_fraction (&step, -num, denom);
2388
2389     while (gst_value_compare (&min, &max) != GST_VALUE_GREATER_THAN) {
2390       GValue rate = { 0, };
2391
2392       num = gst_value_get_fraction_numerator (&min);
2393       denom = gst_value_get_fraction_denominator (&min);
2394       GST_LOG_OBJECT (v4l2object->element, "adding stepwise framerate: %d/%d",
2395           denom, num);
2396
2397       /* invert to get the framerate */
2398       g_value_init (&rate, GST_TYPE_FRACTION);
2399       gst_value_set_fraction (&rate, denom, num);
2400       gst_value_list_append_value (&rates, &rate);
2401       added = TRUE;
2402
2403       /* we're actually adding because step was negated above. This is because
2404        * there is no _add function... */
2405       if (!gst_value_fraction_subtract (&min, &min, &step)) {
2406         GST_WARNING_OBJECT (v4l2object->element, "could not step fraction!");
2407         break;
2408       }
2409     }
2410     if (!added) {
2411       /* no range was added, leave the default range from the template */
2412       GST_WARNING_OBJECT (v4l2object->element,
2413           "no range added, leaving default");
2414       g_value_unset (&rates);
2415     }
2416   } else if (ival.type == V4L2_FRMIVAL_TYPE_CONTINUOUS) {
2417     guint32 maxnum, maxdenom;
2418
2419     g_value_init (&rates, GST_TYPE_FRACTION_RANGE);
2420
2421     num = ival.stepwise.min.numerator;
2422     denom = ival.stepwise.min.denominator;
2423     if (num > G_MAXINT || denom > G_MAXINT) {
2424       num >>= 1;
2425       denom >>= 1;
2426     }
2427
2428     maxnum = ival.stepwise.max.numerator;
2429     maxdenom = ival.stepwise.max.denominator;
2430     if (maxnum > G_MAXINT || maxdenom > G_MAXINT) {
2431       maxnum >>= 1;
2432       maxdenom >>= 1;
2433     }
2434
2435     GST_LOG_OBJECT (v4l2object->element,
2436         "continuous frame interval %d/%d to %d/%d", maxdenom, maxnum, denom,
2437         num);
2438
2439     gst_value_set_fraction_range_full (&rates, maxdenom, maxnum, denom, num);
2440   } else {
2441     goto unknown_type;
2442   }
2443
2444 return_data:
2445   s = gst_structure_copy (template);
2446   gst_structure_set (s, "width", G_TYPE_INT, (gint) width,
2447       "height", G_TYPE_INT, (gint) height, NULL);
2448
2449   gst_v4l2_object_add_aspect_ratio (v4l2object, s);
2450
2451   if (!v4l2object->skip_try_fmt_probes) {
2452     gst_v4l2_object_add_interlace_mode (v4l2object, s, width, height,
2453         pixelformat);
2454     gst_v4l2_object_add_colorspace (v4l2object, s, width, height, pixelformat);
2455   }
2456
2457   if (G_IS_VALUE (&rates)) {
2458     gst_v4l2src_value_simplify (&rates);
2459     /* only change the framerate on the template when we have a valid probed new
2460      * value */
2461     gst_structure_take_value (s, "framerate", &rates);
2462   } else if (v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE ||
2463       v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE_MPLANE) {
2464     gst_structure_set (s, "framerate", GST_TYPE_FRACTION_RANGE, 0, 1, G_MAXINT,
2465         1, NULL);
2466   }
2467   return s;
2468
2469   /* ERRORS */
2470 enum_frameintervals_failed:
2471   {
2472     GST_DEBUG_OBJECT (v4l2object->element,
2473         "Unable to enumerate intervals for %" GST_FOURCC_FORMAT "@%ux%u",
2474         GST_FOURCC_ARGS (pixelformat), width, height);
2475     goto return_data;
2476   }
2477 unknown_type:
2478   {
2479     /* I don't see how this is actually an error, we ignore the format then */
2480     GST_WARNING_OBJECT (v4l2object->element,
2481         "Unknown frame interval type at %" GST_FOURCC_FORMAT "@%ux%u: %u",
2482         GST_FOURCC_ARGS (pixelformat), width, height, ival.type);
2483     return NULL;
2484   }
2485 }
2486
2487 static gint
2488 sort_by_frame_size (GstStructure * s1, GstStructure * s2)
2489 {
2490   int w1, h1, w2, h2;
2491
2492   gst_structure_get_int (s1, "width", &w1);
2493   gst_structure_get_int (s1, "height", &h1);
2494   gst_structure_get_int (s2, "width", &w2);
2495   gst_structure_get_int (s2, "height", &h2);
2496
2497   /* I think it's safe to assume that this won't overflow for a while */
2498   return ((w2 * h2) - (w1 * h1));
2499 }
2500
2501 static void
2502 gst_v4l2_object_update_and_append (GstV4l2Object * v4l2object,
2503     guint32 format, GstCaps * caps, GstStructure * s)
2504 {
2505   GstStructure *alt_s = NULL;
2506
2507   /* Encoded stream on output buffer need to be parsed */
2508   if (v4l2object->type == V4L2_BUF_TYPE_VIDEO_OUTPUT ||
2509       v4l2object->type == V4L2_BUF_TYPE_VIDEO_OUTPUT_MPLANE) {
2510     gint i = 0;
2511
2512     for (; i < GST_V4L2_FORMAT_COUNT; i++) {
2513       if (format == gst_v4l2_formats[i].format &&
2514           gst_v4l2_formats[i].flags & GST_V4L2_CODEC &&
2515           !(gst_v4l2_formats[i].flags & GST_V4L2_NO_PARSE)) {
2516         gst_structure_set (s, "parsed", G_TYPE_BOOLEAN, TRUE, NULL);
2517         break;
2518       }
2519     }
2520   }
2521
2522   if (v4l2object->has_alpha_component &&
2523       (v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE ||
2524           v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE_MPLANE)) {
2525     switch (format) {
2526       case V4L2_PIX_FMT_RGB32:
2527         alt_s = gst_structure_copy (s);
2528         gst_structure_set (alt_s, "format", G_TYPE_STRING, "ARGB", NULL);
2529         break;
2530       case V4L2_PIX_FMT_BGR32:
2531         alt_s = gst_structure_copy (s);
2532         gst_structure_set (alt_s, "format", G_TYPE_STRING, "BGRA", NULL);
2533         break;
2534       default:
2535         break;
2536     }
2537   }
2538
2539   gst_caps_append_structure (caps, s);
2540
2541   if (alt_s)
2542     gst_caps_append_structure (caps, alt_s);
2543 }
2544
2545 static GstCaps *
2546 gst_v4l2_object_probe_caps_for_format (GstV4l2Object * v4l2object,
2547     guint32 pixelformat, const GstStructure * template)
2548 {
2549   GstCaps *ret = gst_caps_new_empty ();
2550   GstStructure *tmp;
2551   gint fd = v4l2object->video_fd;
2552   struct v4l2_frmsizeenum size;
2553   GList *results = NULL;
2554   guint32 w, h;
2555
2556   if (pixelformat == GST_MAKE_FOURCC ('M', 'P', 'E', 'G')) {
2557     gst_caps_append_structure (ret, gst_structure_copy (template));
2558     return ret;
2559   }
2560
2561   memset (&size, 0, sizeof (struct v4l2_frmsizeenum));
2562   size.index = 0;
2563   size.pixel_format = pixelformat;
2564
2565   GST_DEBUG_OBJECT (v4l2object->element,
2566       "Enumerating frame sizes for %" GST_FOURCC_FORMAT,
2567       GST_FOURCC_ARGS (pixelformat));
2568
2569   if (v4l2object->ioctl (fd, VIDIOC_ENUM_FRAMESIZES, &size) < 0)
2570     goto enum_framesizes_failed;
2571
2572   if (size.type == V4L2_FRMSIZE_TYPE_DISCRETE) {
2573     do {
2574       GST_LOG_OBJECT (v4l2object->element, "got discrete frame size %dx%d",
2575           size.discrete.width, size.discrete.height);
2576
2577       w = MIN (size.discrete.width, G_MAXINT);
2578       h = MIN (size.discrete.height, G_MAXINT);
2579
2580       if (w && h) {
2581         tmp =
2582             gst_v4l2_object_probe_caps_for_format_and_size (v4l2object,
2583             pixelformat, w, h, template);
2584
2585         if (tmp)
2586           results = g_list_prepend (results, tmp);
2587       }
2588
2589       size.index++;
2590     } while (v4l2object->ioctl (fd, VIDIOC_ENUM_FRAMESIZES, &size) >= 0);
2591     GST_DEBUG_OBJECT (v4l2object->element,
2592         "done iterating discrete frame sizes");
2593   } else if (size.type == V4L2_FRMSIZE_TYPE_STEPWISE) {
2594     guint32 maxw, maxh, step_w, step_h;
2595
2596     GST_DEBUG_OBJECT (v4l2object->element, "we have stepwise frame sizes:");
2597     GST_DEBUG_OBJECT (v4l2object->element, "min width:   %d",
2598         size.stepwise.min_width);
2599     GST_DEBUG_OBJECT (v4l2object->element, "min height:  %d",
2600         size.stepwise.min_height);
2601     GST_DEBUG_OBJECT (v4l2object->element, "max width:   %d",
2602         size.stepwise.max_width);
2603     GST_DEBUG_OBJECT (v4l2object->element, "min height:  %d",
2604         size.stepwise.max_height);
2605     GST_DEBUG_OBJECT (v4l2object->element, "step width:  %d",
2606         size.stepwise.step_width);
2607     GST_DEBUG_OBJECT (v4l2object->element, "step height: %d",
2608         size.stepwise.step_height);
2609
2610     w = MAX (size.stepwise.min_width, 1);
2611     h = MAX (size.stepwise.min_height, 1);
2612     maxw = MIN (size.stepwise.max_width, G_MAXINT);
2613     maxh = MIN (size.stepwise.max_height, G_MAXINT);
2614
2615     step_w = MAX (size.stepwise.step_width, 1);
2616     step_h = MAX (size.stepwise.step_height, 1);
2617
2618     /* FIXME: check for sanity and that min/max are multiples of the steps */
2619
2620     /* we only query details for the max width/height since it's likely the
2621      * most restricted if there are any resolution-dependent restrictions */
2622     tmp = gst_v4l2_object_probe_caps_for_format_and_size (v4l2object,
2623         pixelformat, maxw, maxh, template);
2624
2625     if (tmp) {
2626       GValue step_range = G_VALUE_INIT;
2627
2628       g_value_init (&step_range, GST_TYPE_INT_RANGE);
2629       gst_value_set_int_range_step (&step_range, w, maxw, step_w);
2630       gst_structure_set_value (tmp, "width", &step_range);
2631
2632       gst_value_set_int_range_step (&step_range, h, maxh, step_h);
2633       gst_structure_take_value (tmp, "height", &step_range);
2634
2635       /* no point using the results list here, since there's only one struct */
2636       gst_v4l2_object_update_and_append (v4l2object, pixelformat, ret, tmp);
2637     }
2638   } else if (size.type == V4L2_FRMSIZE_TYPE_CONTINUOUS) {
2639     guint32 maxw, maxh;
2640
2641     GST_DEBUG_OBJECT (v4l2object->element, "we have continuous frame sizes:");
2642     GST_DEBUG_OBJECT (v4l2object->element, "min width:   %d",
2643         size.stepwise.min_width);
2644     GST_DEBUG_OBJECT (v4l2object->element, "min height:  %d",
2645         size.stepwise.min_height);
2646     GST_DEBUG_OBJECT (v4l2object->element, "max width:   %d",
2647         size.stepwise.max_width);
2648     GST_DEBUG_OBJECT (v4l2object->element, "min height:  %d",
2649         size.stepwise.max_height);
2650
2651     w = MAX (size.stepwise.min_width, 1);
2652     h = MAX (size.stepwise.min_height, 1);
2653     maxw = MIN (size.stepwise.max_width, G_MAXINT);
2654     maxh = MIN (size.stepwise.max_height, G_MAXINT);
2655
2656     tmp =
2657         gst_v4l2_object_probe_caps_for_format_and_size (v4l2object, pixelformat,
2658         w, h, template);
2659     if (tmp) {
2660       gst_structure_set (tmp, "width", GST_TYPE_INT_RANGE, (gint) w,
2661           (gint) maxw, "height", GST_TYPE_INT_RANGE, (gint) h, (gint) maxh,
2662           NULL);
2663
2664       /* no point using the results list here, since there's only one struct */
2665       gst_v4l2_object_update_and_append (v4l2object, pixelformat, ret, tmp);
2666     }
2667   } else {
2668     goto unknown_type;
2669   }
2670
2671   /* we use an intermediary list to store and then sort the results of the
2672    * probing because we can't make any assumptions about the order in which
2673    * the driver will give us the sizes, but we want the final caps to contain
2674    * the results starting with the highest resolution and having the lowest
2675    * resolution last, since order in caps matters for things like fixation. */
2676   results = g_list_sort (results, (GCompareFunc) sort_by_frame_size);
2677   while (results != NULL) {
2678     gst_v4l2_object_update_and_append (v4l2object, pixelformat, ret,
2679         results->data);
2680     results = g_list_delete_link (results, results);
2681   }
2682
2683   if (gst_caps_is_empty (ret))
2684     goto enum_framesizes_no_results;
2685
2686   return ret;
2687
2688   /* ERRORS */
2689 enum_framesizes_failed:
2690   {
2691     /* I don't see how this is actually an error */
2692     GST_DEBUG_OBJECT (v4l2object->element,
2693         "Failed to enumerate frame sizes for pixelformat %" GST_FOURCC_FORMAT
2694         " (%s)", GST_FOURCC_ARGS (pixelformat), g_strerror (errno));
2695     goto default_frame_sizes;
2696   }
2697 enum_framesizes_no_results:
2698   {
2699     /* it's possible that VIDIOC_ENUM_FRAMESIZES is defined but the driver in
2700      * question doesn't actually support it yet */
2701     GST_DEBUG_OBJECT (v4l2object->element,
2702         "No results for pixelformat %" GST_FOURCC_FORMAT
2703         " enumerating frame sizes, trying fallback",
2704         GST_FOURCC_ARGS (pixelformat));
2705     goto default_frame_sizes;
2706   }
2707 unknown_type:
2708   {
2709     GST_WARNING_OBJECT (v4l2object->element,
2710         "Unknown frame sizeenum type for pixelformat %" GST_FOURCC_FORMAT
2711         ": %u", GST_FOURCC_ARGS (pixelformat), size.type);
2712     goto default_frame_sizes;
2713   }
2714
2715 default_frame_sizes:
2716   {
2717     gint min_w, max_w, min_h, max_h, fix_num = 0, fix_denom = 0;
2718
2719     /* This code is for Linux < 2.6.19 */
2720     min_w = min_h = 1;
2721     max_w = max_h = GST_V4L2_MAX_SIZE;
2722     if (!gst_v4l2_object_get_nearest_size (v4l2object, pixelformat, &min_w,
2723             &min_h)) {
2724       GST_WARNING_OBJECT (v4l2object->element,
2725           "Could not probe minimum capture size for pixelformat %"
2726           GST_FOURCC_FORMAT, GST_FOURCC_ARGS (pixelformat));
2727     }
2728     if (!gst_v4l2_object_get_nearest_size (v4l2object, pixelformat, &max_w,
2729             &max_h)) {
2730       GST_WARNING_OBJECT (v4l2object->element,
2731           "Could not probe maximum capture size for pixelformat %"
2732           GST_FOURCC_FORMAT, GST_FOURCC_ARGS (pixelformat));
2733     }
2734
2735     /* Since we can't get framerate directly, try to use the current norm */
2736     if (v4l2object->tv_norm && v4l2object->norms) {
2737       GList *norms;
2738       GstTunerNorm *norm = NULL;
2739       GstTunerNorm *current =
2740           gst_v4l2_tuner_get_norm_by_std_id (v4l2object, v4l2object->tv_norm);
2741
2742       for (norms = v4l2object->norms; norms != NULL; norms = norms->next) {
2743         norm = (GstTunerNorm *) norms->data;
2744         if (!strcmp (norm->label, current->label))
2745           break;
2746       }
2747       /* If it's possible, set framerate to that (discrete) value */
2748       if (norm) {
2749         fix_num = gst_value_get_fraction_numerator (&norm->framerate);
2750         fix_denom = gst_value_get_fraction_denominator (&norm->framerate);
2751       }
2752     }
2753
2754     tmp = gst_structure_copy (template);
2755     if (fix_num) {
2756       gst_structure_set (tmp, "framerate", GST_TYPE_FRACTION, fix_num,
2757           fix_denom, NULL);
2758     } else if (v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE ||
2759         v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE_MPLANE) {
2760       /* if norm can't be used, copy the template framerate */
2761       gst_structure_set (tmp, "framerate", GST_TYPE_FRACTION_RANGE, 0, 1,
2762           G_MAXINT, 1, NULL);
2763     }
2764
2765     if (min_w == max_w)
2766       gst_structure_set (tmp, "width", G_TYPE_INT, max_w, NULL);
2767     else
2768       gst_structure_set (tmp, "width", GST_TYPE_INT_RANGE, min_w, max_w, NULL);
2769
2770     if (min_h == max_h)
2771       gst_structure_set (tmp, "height", G_TYPE_INT, max_h, NULL);
2772     else
2773       gst_structure_set (tmp, "height", GST_TYPE_INT_RANGE, min_h, max_h, NULL);
2774
2775     gst_v4l2_object_add_aspect_ratio (v4l2object, tmp);
2776
2777     if (!v4l2object->skip_try_fmt_probes) {
2778       /* We could consider setting interlace mode from min and max. */
2779       gst_v4l2_object_add_interlace_mode (v4l2object, tmp, max_w, max_h,
2780           pixelformat);
2781       /* We could consider to check colorspace for min too, in case it depends on
2782        * the size. But in this case, min and max could not be enough */
2783       gst_v4l2_object_add_colorspace (v4l2object, tmp, max_w, max_h,
2784           pixelformat);
2785     }
2786
2787     gst_v4l2_object_update_and_append (v4l2object, pixelformat, ret, tmp);
2788     return ret;
2789   }
2790 }
2791
2792 static gboolean
2793 gst_v4l2_object_get_nearest_size (GstV4l2Object * v4l2object,
2794     guint32 pixelformat, gint * width, gint * height)
2795 {
2796   struct v4l2_format fmt;
2797   gboolean ret = FALSE;
2798   GstVideoInterlaceMode interlace_mode;
2799
2800   g_return_val_if_fail (width != NULL, FALSE);
2801   g_return_val_if_fail (height != NULL, FALSE);
2802
2803   GST_LOG_OBJECT (v4l2object->element,
2804       "getting nearest size to %dx%d with format %" GST_FOURCC_FORMAT,
2805       *width, *height, GST_FOURCC_ARGS (pixelformat));
2806
2807   memset (&fmt, 0, sizeof (struct v4l2_format));
2808
2809   /* get size delimiters */
2810   memset (&fmt, 0, sizeof (fmt));
2811   fmt.type = v4l2object->type;
2812   fmt.fmt.pix.width = *width;
2813   fmt.fmt.pix.height = *height;
2814   fmt.fmt.pix.pixelformat = pixelformat;
2815   fmt.fmt.pix.field = V4L2_FIELD_ANY;
2816
2817   if (gst_v4l2_object_try_fmt (v4l2object, &fmt) < 0)
2818     goto error;
2819
2820   GST_LOG_OBJECT (v4l2object->element,
2821       "got nearest size %dx%d", fmt.fmt.pix.width, fmt.fmt.pix.height);
2822
2823   *width = fmt.fmt.pix.width;
2824   *height = fmt.fmt.pix.height;
2825
2826   if (!gst_v4l2_object_get_interlace_mode (fmt.fmt.pix.field, &interlace_mode)) {
2827     GST_WARNING_OBJECT (v4l2object->element,
2828         "Unsupported field type for %" GST_FOURCC_FORMAT "@%ux%u: %u",
2829         GST_FOURCC_ARGS (pixelformat), *width, *height, fmt.fmt.pix.field);
2830     goto error;
2831   }
2832
2833   ret = TRUE;
2834
2835 error:
2836   if (!ret) {
2837     GST_WARNING_OBJECT (v4l2object->element,
2838         "Unable to try format: %s", g_strerror (errno));
2839   }
2840
2841   return ret;
2842 }
2843
2844 static gboolean
2845 gst_v4l2_object_setup_pool (GstV4l2Object * v4l2object, GstCaps * caps)
2846 {
2847   GstV4l2IOMode mode;
2848
2849   GST_DEBUG_OBJECT (v4l2object->element, "initializing the %s system",
2850       V4L2_TYPE_IS_OUTPUT (v4l2object->type) ? "output" : "capture");
2851
2852   GST_V4L2_CHECK_OPEN (v4l2object);
2853   GST_V4L2_CHECK_NOT_ACTIVE (v4l2object);
2854
2855   /* find transport */
2856   mode = v4l2object->req_mode;
2857
2858   if (v4l2object->device_caps & V4L2_CAP_READWRITE) {
2859     if (v4l2object->req_mode == GST_V4L2_IO_AUTO)
2860       mode = GST_V4L2_IO_RW;
2861   } else if (v4l2object->req_mode == GST_V4L2_IO_RW)
2862     goto method_not_supported;
2863
2864   if (v4l2object->device_caps & V4L2_CAP_STREAMING) {
2865     if (v4l2object->req_mode == GST_V4L2_IO_AUTO)
2866       mode = GST_V4L2_IO_MMAP;
2867   } else if (v4l2object->req_mode == GST_V4L2_IO_MMAP)
2868     goto method_not_supported;
2869
2870   /* if still no transport selected, error out */
2871   if (mode == GST_V4L2_IO_AUTO)
2872     goto no_supported_capture_method;
2873
2874   GST_INFO_OBJECT (v4l2object->element, "accessing buffers via mode %d", mode);
2875   v4l2object->mode = mode;
2876
2877   /* If min_buffers is not set, the driver either does not support the control or
2878      it has not been asked yet via propose_allocation/decide_allocation. */
2879   if (!v4l2object->min_buffers)
2880     gst_v4l2_get_driver_min_buffers (v4l2object);
2881
2882   /* Map the buffers */
2883   GST_LOG_OBJECT (v4l2object->element, "initiating buffer pool");
2884
2885   if (!(v4l2object->pool = gst_v4l2_buffer_pool_new (v4l2object, caps)))
2886     goto buffer_pool_new_failed;
2887
2888   GST_V4L2_SET_ACTIVE (v4l2object);
2889
2890   return TRUE;
2891
2892   /* ERRORS */
2893 buffer_pool_new_failed:
2894   {
2895     GST_ELEMENT_ERROR (v4l2object->element, RESOURCE, READ,
2896         (_("Could not map buffers from device '%s'"),
2897             v4l2object->videodev),
2898         ("Failed to create buffer pool: %s", g_strerror (errno)));
2899     return FALSE;
2900   }
2901 method_not_supported:
2902   {
2903     GST_ELEMENT_ERROR (v4l2object->element, RESOURCE, READ,
2904         (_("The driver of device '%s' does not support the IO method %d"),
2905             v4l2object->videodev, mode), (NULL));
2906     return FALSE;
2907   }
2908 no_supported_capture_method:
2909   {
2910     GST_ELEMENT_ERROR (v4l2object->element, RESOURCE, READ,
2911         (_("The driver of device '%s' does not support any known IO "
2912                 "method."), v4l2object->videodev), (NULL));
2913     return FALSE;
2914   }
2915 }
2916
2917 static void
2918 gst_v4l2_object_set_stride (GstVideoInfo * info, GstVideoAlignment * align,
2919     gint plane, gint stride)
2920 {
2921   const GstVideoFormatInfo *finfo = info->finfo;
2922
2923   if (GST_VIDEO_FORMAT_INFO_IS_TILED (finfo)) {
2924     gint x_tiles, y_tiles, ws, hs, tile_height, padded_height;
2925
2926
2927     ws = GST_VIDEO_FORMAT_INFO_TILE_WS (finfo);
2928     hs = GST_VIDEO_FORMAT_INFO_TILE_HS (finfo);
2929     tile_height = 1 << hs;
2930
2931     padded_height = GST_VIDEO_FORMAT_INFO_SCALE_HEIGHT (finfo, plane,
2932         info->height + align->padding_top + align->padding_bottom);
2933     padded_height = GST_ROUND_UP_N (padded_height, tile_height);
2934
2935     x_tiles = stride >> ws;
2936     y_tiles = padded_height >> hs;
2937     info->stride[plane] = GST_VIDEO_TILE_MAKE_STRIDE (x_tiles, y_tiles);
2938   } else {
2939     info->stride[plane] = stride;
2940   }
2941 }
2942
2943 static void
2944 gst_v4l2_object_extrapolate_info (GstV4l2Object * v4l2object,
2945     GstVideoInfo * info, GstVideoAlignment * align, gint stride)
2946 {
2947   const GstVideoFormatInfo *finfo = info->finfo;
2948   gint i, estride, padded_height;
2949   gsize offs = 0;
2950
2951   g_return_if_fail (v4l2object->n_v4l2_planes == 1);
2952
2953   padded_height = info->height + align->padding_top + align->padding_bottom;
2954
2955   for (i = 0; i < finfo->n_planes; i++) {
2956     estride = gst_v4l2_object_extrapolate_stride (finfo, i, stride);
2957
2958     gst_v4l2_object_set_stride (info, align, i, estride);
2959
2960     info->offset[i] = offs;
2961     offs += estride *
2962         GST_VIDEO_FORMAT_INFO_SCALE_HEIGHT (finfo, i, padded_height);
2963
2964     GST_DEBUG_OBJECT (v4l2object->element,
2965         "Extrapolated for plane %d with base stride %d: "
2966         "stride %d, offset %" G_GSIZE_FORMAT, i, stride, info->stride[i],
2967         info->offset[i]);
2968   }
2969
2970   /* Update the image size according the amount of data we are going to
2971    * read/write. This workaround bugs in driver where the sizeimage provided
2972    * by TRY/S_FMT represent the buffer length (maximum size) rather then the expected
2973    * bytesused (buffer size). */
2974   if (offs < info->size)
2975     info->size = offs;
2976 }
2977
2978 static void
2979 gst_v4l2_object_save_format (GstV4l2Object * v4l2object,
2980     struct v4l2_fmtdesc *fmtdesc, struct v4l2_format *format,
2981     GstVideoInfo * info, GstVideoAlignment * align)
2982 {
2983   const GstVideoFormatInfo *finfo = info->finfo;
2984   gboolean standard_stride = TRUE;
2985   gint stride, padded_width, padded_height, i;
2986
2987   if (GST_VIDEO_INFO_FORMAT (info) == GST_VIDEO_FORMAT_ENCODED) {
2988     v4l2object->n_v4l2_planes = 1;
2989     info->size = format->fmt.pix.sizeimage;
2990     goto store_info;
2991   }
2992
2993   /* adjust right padding */
2994   if (V4L2_TYPE_IS_MULTIPLANAR (v4l2object->type))
2995     stride = format->fmt.pix_mp.plane_fmt[0].bytesperline;
2996   else
2997     stride = format->fmt.pix.bytesperline;
2998
2999   padded_width = stride / GST_VIDEO_FORMAT_INFO_PSTRIDE (finfo, 0);
3000
3001   if (padded_width < format->fmt.pix.width)
3002     GST_WARNING_OBJECT (v4l2object->element,
3003         "Driver bug detected, stride is too small for the width");
3004
3005   align->padding_right = padded_width - info->width - align->padding_left;
3006
3007   /* adjust bottom padding */
3008   padded_height = format->fmt.pix.height;
3009
3010   if (GST_VIDEO_FORMAT_INFO_IS_TILED (finfo)) {
3011     guint hs, tile_height;
3012
3013     hs = GST_VIDEO_FORMAT_INFO_TILE_HS (finfo);
3014     tile_height = 1 << hs;
3015
3016     padded_height = GST_ROUND_UP_N (padded_height, tile_height);
3017   }
3018
3019   align->padding_bottom = padded_height - info->height - align->padding_top;
3020
3021   /* setup the strides and offset */
3022   if (V4L2_TYPE_IS_MULTIPLANAR (v4l2object->type)) {
3023     struct v4l2_pix_format_mplane *pix_mp = &format->fmt.pix_mp;
3024
3025     /* figure out the frame layout */
3026     v4l2object->n_v4l2_planes = MAX (1, pix_mp->num_planes);
3027     info->size = 0;
3028     for (i = 0; i < v4l2object->n_v4l2_planes; i++) {
3029       stride = pix_mp->plane_fmt[i].bytesperline;
3030
3031       if (info->stride[i] != stride)
3032         standard_stride = FALSE;
3033
3034       gst_v4l2_object_set_stride (info, align, i, stride);
3035       info->offset[i] = info->size;
3036       info->size += pix_mp->plane_fmt[i].sizeimage;
3037     }
3038
3039     /* Extrapolate stride if planar format are being set in 1 v4l2 plane */
3040     if (v4l2object->n_v4l2_planes < finfo->n_planes) {
3041       stride = format->fmt.pix_mp.plane_fmt[0].bytesperline;
3042       gst_v4l2_object_extrapolate_info (v4l2object, info, align, stride);
3043     }
3044   } else {
3045     /* only one plane in non-MPLANE mode */
3046     v4l2object->n_v4l2_planes = 1;
3047     info->size = format->fmt.pix.sizeimage;
3048     stride = format->fmt.pix.bytesperline;
3049
3050     if (info->stride[0] != stride)
3051       standard_stride = FALSE;
3052
3053     gst_v4l2_object_extrapolate_info (v4l2object, info, align, stride);
3054   }
3055
3056   /* adjust the offset to take into account left and top */
3057   if (GST_VIDEO_FORMAT_INFO_IS_TILED (finfo)) {
3058     if ((align->padding_left + align->padding_top) > 0)
3059       GST_WARNING_OBJECT (v4l2object->element,
3060           "Left and top padding is not permitted for tiled formats");
3061   } else {
3062     for (i = 0; i < finfo->n_planes; i++) {
3063       gint vedge, hedge;
3064
3065       /* FIXME we assume plane as component as this is true for all supported
3066        * format we support. */
3067
3068       hedge = GST_VIDEO_FORMAT_INFO_SCALE_WIDTH (finfo, i, align->padding_left);
3069       vedge = GST_VIDEO_FORMAT_INFO_SCALE_HEIGHT (finfo, i, align->padding_top);
3070
3071       info->offset[i] += (vedge * info->stride[i]) +
3072           (hedge * GST_VIDEO_INFO_COMP_PSTRIDE (info, i));
3073     }
3074   }
3075
3076 store_info:
3077   GST_DEBUG_OBJECT (v4l2object->element, "Got sizeimage %" G_GSIZE_FORMAT,
3078       info->size);
3079
3080   /* to avoid copies we need video meta if there is padding */
3081   v4l2object->need_video_meta =
3082       ((align->padding_top + align->padding_left + align->padding_right +
3083           align->padding_bottom) != 0);
3084
3085   /* ... or if stride is non "standard" */
3086   if (!standard_stride)
3087     v4l2object->need_video_meta = TRUE;
3088
3089   /* ... or also video meta if we use multiple, non-contiguous, planes */
3090   if (v4l2object->n_v4l2_planes > 1)
3091     v4l2object->need_video_meta = TRUE;
3092
3093   v4l2object->info = *info;
3094   v4l2object->align = *align;
3095   v4l2object->format = *format;
3096   v4l2object->fmtdesc = fmtdesc;
3097
3098   /* if we have a framerate pre-calculate duration */
3099   if (info->fps_n > 0 && info->fps_d > 0) {
3100     v4l2object->duration = gst_util_uint64_scale_int (GST_SECOND, info->fps_d,
3101         info->fps_n);
3102   } else {
3103     v4l2object->duration = GST_CLOCK_TIME_NONE;
3104   }
3105 }
3106
3107 gint
3108 gst_v4l2_object_extrapolate_stride (const GstVideoFormatInfo * finfo,
3109     gint plane, gint stride)
3110 {
3111   gint estride;
3112
3113   switch (finfo->format) {
3114     case GST_VIDEO_FORMAT_NV12:
3115     case GST_VIDEO_FORMAT_NV12_64Z32:
3116     case GST_VIDEO_FORMAT_NV21:
3117     case GST_VIDEO_FORMAT_NV16:
3118     case GST_VIDEO_FORMAT_NV61:
3119     case GST_VIDEO_FORMAT_NV24:
3120       estride = (plane == 0 ? 1 : 2) *
3121           GST_VIDEO_FORMAT_INFO_SCALE_WIDTH (finfo, plane, stride);
3122       break;
3123     default:
3124       estride = GST_VIDEO_FORMAT_INFO_SCALE_WIDTH (finfo, plane, stride);
3125       break;
3126   }
3127
3128   return estride;
3129 }
3130
3131 static gboolean
3132 gst_v4l2_object_set_format_full (GstV4l2Object * v4l2object, GstCaps * caps,
3133     gboolean try_only, GstV4l2Error * error)
3134 {
3135   gint fd = v4l2object->video_fd;
3136   struct v4l2_format format;
3137   struct v4l2_streamparm streamparm;
3138   enum v4l2_field field;
3139   guint32 pixelformat;
3140   struct v4l2_fmtdesc *fmtdesc;
3141   GstVideoInfo info;
3142   GstVideoAlignment align;
3143   gint width, height, fps_n, fps_d;
3144   gint n_v4l_planes;
3145   gint i = 0;
3146   gboolean is_mplane;
3147   enum v4l2_colorspace colorspace = 0;
3148   enum v4l2_quantization range = 0;
3149   enum v4l2_ycbcr_encoding matrix = 0;
3150   enum v4l2_xfer_func transfer = 0;
3151   GstStructure *s;
3152
3153   g_return_val_if_fail (!v4l2object->skip_try_fmt_probes ||
3154       gst_caps_is_writable (caps), FALSE);
3155
3156   GST_V4L2_CHECK_OPEN (v4l2object);
3157   if (!try_only)
3158     GST_V4L2_CHECK_NOT_ACTIVE (v4l2object);
3159
3160   is_mplane = V4L2_TYPE_IS_MULTIPLANAR (v4l2object->type);
3161
3162   gst_video_info_init (&info);
3163   gst_video_alignment_reset (&align);
3164
3165   if (!gst_v4l2_object_get_caps_info (v4l2object, caps, &fmtdesc, &info))
3166     goto invalid_caps;
3167
3168   pixelformat = fmtdesc->pixelformat;
3169   width = GST_VIDEO_INFO_WIDTH (&info);
3170   height = GST_VIDEO_INFO_HEIGHT (&info);
3171   fps_n = GST_VIDEO_INFO_FPS_N (&info);
3172   fps_d = GST_VIDEO_INFO_FPS_D (&info);
3173
3174   /* if encoded format (GST_VIDEO_INFO_N_PLANES return 0)
3175    * or if contiguous is prefered */
3176   n_v4l_planes = GST_VIDEO_INFO_N_PLANES (&info);
3177   if (!n_v4l_planes || !v4l2object->prefered_non_contiguous)
3178     n_v4l_planes = 1;
3179
3180   if (GST_VIDEO_INFO_IS_INTERLACED (&info)) {
3181     GST_DEBUG_OBJECT (v4l2object->element, "interlaced video");
3182     /* ideally we would differentiate between types of interlaced video
3183      * but there is not sufficient information in the caps..
3184      */
3185     field = V4L2_FIELD_INTERLACED;
3186   } else {
3187     GST_DEBUG_OBJECT (v4l2object->element, "progressive video");
3188     field = V4L2_FIELD_NONE;
3189   }
3190
3191   if (V4L2_TYPE_IS_OUTPUT (v4l2object->type)) {
3192     /* We first pick th main colorspace from the primaries */
3193     switch (info.colorimetry.primaries) {
3194       case GST_VIDEO_COLOR_PRIMARIES_BT709:
3195         /* There is two colorspaces using these primaries, use the range to
3196          * differentiate */
3197         if (info.colorimetry.range == GST_VIDEO_COLOR_RANGE_16_235)
3198           colorspace = V4L2_COLORSPACE_REC709;
3199         else
3200           colorspace = V4L2_COLORSPACE_SRGB;
3201         break;
3202       case GST_VIDEO_COLOR_PRIMARIES_BT470M:
3203         colorspace = V4L2_COLORSPACE_470_SYSTEM_M;
3204         break;
3205       case GST_VIDEO_COLOR_PRIMARIES_BT470BG:
3206         colorspace = V4L2_COLORSPACE_470_SYSTEM_BG;
3207         break;
3208       case GST_VIDEO_COLOR_PRIMARIES_SMPTE170M:
3209         colorspace = V4L2_COLORSPACE_SMPTE170M;
3210         break;
3211       case GST_VIDEO_COLOR_PRIMARIES_SMPTE240M:
3212         colorspace = V4L2_COLORSPACE_SMPTE240M;
3213         break;
3214
3215       case GST_VIDEO_COLOR_PRIMARIES_FILM:
3216       case GST_VIDEO_COLOR_PRIMARIES_UNKNOWN:
3217         /* We don't know, we will guess */
3218         break;
3219
3220       default:
3221         GST_WARNING_OBJECT (v4l2object->element,
3222             "Unknown colorimetry primaries %d", info.colorimetry.primaries);
3223         break;
3224     }
3225
3226     switch (info.colorimetry.range) {
3227       case GST_VIDEO_COLOR_RANGE_0_255:
3228         range = V4L2_QUANTIZATION_FULL_RANGE;
3229         break;
3230       case GST_VIDEO_COLOR_RANGE_16_235:
3231         range = V4L2_QUANTIZATION_LIM_RANGE;
3232         break;
3233       case GST_VIDEO_COLOR_RANGE_UNKNOWN:
3234         /* We let the driver pick a default one */
3235         break;
3236       default:
3237         GST_WARNING_OBJECT (v4l2object->element,
3238             "Unknown colorimetry range %d", info.colorimetry.range);
3239         break;
3240     }
3241
3242     switch (info.colorimetry.matrix) {
3243       case GST_VIDEO_COLOR_MATRIX_RGB:
3244         /* Unspecified, leave to default */
3245         break;
3246         /* FCC is about the same as BT601 with less digit */
3247       case GST_VIDEO_COLOR_MATRIX_FCC:
3248       case GST_VIDEO_COLOR_MATRIX_BT601:
3249         matrix = V4L2_YCBCR_ENC_601;
3250         break;
3251       case GST_VIDEO_COLOR_MATRIX_BT709:
3252         matrix = V4L2_YCBCR_ENC_709;
3253         break;
3254       case GST_VIDEO_COLOR_MATRIX_SMPTE240M:
3255         matrix = V4L2_YCBCR_ENC_SMPTE240M;
3256         break;
3257       case GST_VIDEO_COLOR_MATRIX_BT2020:
3258         matrix = V4L2_YCBCR_ENC_BT2020;
3259         break;
3260       case GST_VIDEO_COLOR_MATRIX_UNKNOWN:
3261         /* We let the driver pick a default one */
3262         break;
3263       default:
3264         GST_WARNING_OBJECT (v4l2object->element,
3265             "Unknown colorimetry matrix %d", info.colorimetry.matrix);
3266         break;
3267     }
3268
3269     switch (info.colorimetry.transfer) {
3270       case GST_VIDEO_TRANSFER_GAMMA18:
3271       case GST_VIDEO_TRANSFER_GAMMA20:
3272       case GST_VIDEO_TRANSFER_GAMMA22:
3273       case GST_VIDEO_TRANSFER_GAMMA28:
3274         GST_WARNING_OBJECT (v4l2object->element,
3275             "GAMMA 18, 20, 22, 28 transfer functions not supported");
3276         /* fallthrough */
3277       case GST_VIDEO_TRANSFER_GAMMA10:
3278         transfer = V4L2_XFER_FUNC_NONE;
3279         break;
3280       case GST_VIDEO_TRANSFER_BT709:
3281         transfer = V4L2_XFER_FUNC_709;
3282         break;
3283       case GST_VIDEO_TRANSFER_SMPTE240M:
3284         transfer = V4L2_XFER_FUNC_SMPTE240M;
3285         break;
3286       case GST_VIDEO_TRANSFER_SRGB:
3287         transfer = V4L2_XFER_FUNC_SRGB;
3288         break;
3289       case GST_VIDEO_TRANSFER_LOG100:
3290       case GST_VIDEO_TRANSFER_LOG316:
3291         GST_WARNING_OBJECT (v4l2object->element,
3292             "LOG 100, 316 transfer functions not supported");
3293         /* FIXME No known sensible default, maybe AdobeRGB ? */
3294         break;
3295       case GST_VIDEO_TRANSFER_UNKNOWN:
3296         /* We let the driver pick a default one */
3297         break;
3298       default:
3299         GST_WARNING_OBJECT (v4l2object->element,
3300             "Unknown colorimetry tranfer %d", info.colorimetry.transfer);
3301         break;
3302     }
3303
3304     if (colorspace == 0) {
3305       /* Try to guess colorspace according to pixelformat and size */
3306       if (GST_VIDEO_INFO_IS_YUV (&info)) {
3307         /* SD streams likely use SMPTE170M and HD streams REC709 */
3308         if (width <= 720 && height <= 576)
3309           colorspace = V4L2_COLORSPACE_SMPTE170M;
3310         else
3311           colorspace = V4L2_COLORSPACE_REC709;
3312       } else if (GST_VIDEO_INFO_IS_RGB (&info)) {
3313         colorspace = V4L2_COLORSPACE_SRGB;
3314         transfer = V4L2_XFER_FUNC_NONE;
3315       }
3316     }
3317   }
3318
3319   GST_DEBUG_OBJECT (v4l2object->element, "Desired format %dx%d, format "
3320       "%" GST_FOURCC_FORMAT " stride: %d", width, height,
3321       GST_FOURCC_ARGS (pixelformat), GST_VIDEO_INFO_PLANE_STRIDE (&info, 0));
3322
3323   memset (&format, 0x00, sizeof (struct v4l2_format));
3324   format.type = v4l2object->type;
3325
3326   if (is_mplane) {
3327     format.type = v4l2object->type;
3328     format.fmt.pix_mp.pixelformat = pixelformat;
3329     format.fmt.pix_mp.width = width;
3330     format.fmt.pix_mp.height = height;
3331     format.fmt.pix_mp.field = field;
3332     format.fmt.pix_mp.num_planes = n_v4l_planes;
3333
3334     /* try to ask our prefered stride but it's not a failure if not
3335      * accepted */
3336     for (i = 0; i < n_v4l_planes; i++) {
3337       gint stride = GST_VIDEO_INFO_PLANE_STRIDE (&info, i);
3338
3339       if (GST_VIDEO_FORMAT_INFO_IS_TILED (info.finfo))
3340         stride = GST_VIDEO_TILE_X_TILES (stride) <<
3341             GST_VIDEO_FORMAT_INFO_TILE_WS (info.finfo);
3342
3343       format.fmt.pix_mp.plane_fmt[i].bytesperline = stride;
3344     }
3345
3346     if (GST_VIDEO_INFO_FORMAT (&info) == GST_VIDEO_FORMAT_ENCODED)
3347       format.fmt.pix_mp.plane_fmt[0].sizeimage = ENCODED_BUFFER_SIZE;
3348   } else {
3349     gint stride = GST_VIDEO_INFO_PLANE_STRIDE (&info, 0);
3350
3351     format.type = v4l2object->type;
3352     format.fmt.pix.width = width;
3353     format.fmt.pix.height = height;
3354     format.fmt.pix.pixelformat = pixelformat;
3355     format.fmt.pix.field = field;
3356
3357     if (GST_VIDEO_FORMAT_INFO_IS_TILED (info.finfo))
3358       stride = GST_VIDEO_TILE_X_TILES (stride) <<
3359           GST_VIDEO_FORMAT_INFO_TILE_WS (info.finfo);
3360
3361     /* try to ask our prefered stride */
3362     format.fmt.pix.bytesperline = stride;
3363
3364     if (GST_VIDEO_INFO_FORMAT (&info) == GST_VIDEO_FORMAT_ENCODED)
3365       format.fmt.pix.sizeimage = ENCODED_BUFFER_SIZE;
3366   }
3367
3368   GST_DEBUG_OBJECT (v4l2object->element, "Desired format is %dx%d, format "
3369       "%" GST_FOURCC_FORMAT ", nb planes %d", format.fmt.pix.width,
3370       format.fmt.pix_mp.height,
3371       GST_FOURCC_ARGS (format.fmt.pix.pixelformat),
3372       is_mplane ? format.fmt.pix_mp.num_planes : 1);
3373
3374 #ifndef GST_DISABLE_GST_DEBUG
3375   if (is_mplane) {
3376     for (i = 0; i < format.fmt.pix_mp.num_planes; i++)
3377       GST_DEBUG_OBJECT (v4l2object->element, "  stride %d",
3378           format.fmt.pix_mp.plane_fmt[i].bytesperline);
3379   } else {
3380     GST_DEBUG_OBJECT (v4l2object->element, "  stride %d",
3381         format.fmt.pix.bytesperline);
3382   }
3383 #endif
3384
3385   if (V4L2_TYPE_IS_OUTPUT (v4l2object->type)) {
3386     if (is_mplane) {
3387       format.fmt.pix_mp.colorspace = colorspace;
3388       format.fmt.pix_mp.quantization = range;
3389       format.fmt.pix_mp.ycbcr_enc = matrix;
3390       format.fmt.pix_mp.xfer_func = transfer;
3391     } else {
3392       format.fmt.pix.colorspace = colorspace;
3393       format.fmt.pix.quantization = range;
3394       format.fmt.pix.ycbcr_enc = matrix;
3395       format.fmt.pix.xfer_func = transfer;
3396     }
3397
3398     GST_DEBUG_OBJECT (v4l2object->element, "Desired colorspace is %d:%d:%d:%d",
3399         colorspace, range, matrix, transfer);
3400   }
3401
3402   if (try_only) {
3403     if (v4l2object->ioctl (fd, VIDIOC_TRY_FMT, &format) < 0)
3404       goto try_fmt_failed;
3405   } else {
3406     if (v4l2object->ioctl (fd, VIDIOC_S_FMT, &format) < 0)
3407       goto set_fmt_failed;
3408   }
3409
3410   GST_DEBUG_OBJECT (v4l2object->element, "Got format of %dx%d, format "
3411       "%" GST_FOURCC_FORMAT ", nb planes %d, colorspace %d",
3412       format.fmt.pix.width, format.fmt.pix_mp.height,
3413       GST_FOURCC_ARGS (format.fmt.pix.pixelformat),
3414       is_mplane ? format.fmt.pix_mp.num_planes : 1,
3415       is_mplane ? format.fmt.pix_mp.colorspace : format.fmt.pix.colorspace);
3416
3417 #ifndef GST_DISABLE_GST_DEBUG
3418   if (is_mplane) {
3419     for (i = 0; i < format.fmt.pix_mp.num_planes; i++)
3420       GST_DEBUG_OBJECT (v4l2object->element, "  stride %d, sizeimage %d",
3421           format.fmt.pix_mp.plane_fmt[i].bytesperline,
3422           format.fmt.pix_mp.plane_fmt[i].sizeimage);
3423   } else {
3424     GST_DEBUG_OBJECT (v4l2object->element, "  stride %d, sizeimage %d",
3425         format.fmt.pix.bytesperline, format.fmt.pix.sizeimage);
3426   }
3427 #endif
3428
3429   if (format.fmt.pix.pixelformat != pixelformat)
3430     goto invalid_pixelformat;
3431
3432   /* Only negotiate size with raw data.
3433    * For some codecs the dimensions are *not* in the bitstream, IIRC VC1
3434    * in ASF mode for example, there is also not reason for a driver to
3435    * change the size. */
3436   if (info.finfo->format != GST_VIDEO_FORMAT_ENCODED) {
3437     /* We can crop larger images */
3438     if (format.fmt.pix.width < width || format.fmt.pix.height < height)
3439       goto invalid_dimensions;
3440
3441     /* Note, this will be adjusted if upstream has non-centered cropping. */
3442     align.padding_top = 0;
3443     align.padding_bottom = format.fmt.pix.height - height;
3444     align.padding_left = 0;
3445     align.padding_right = format.fmt.pix.width - width;
3446   }
3447
3448   if (is_mplane && format.fmt.pix_mp.num_planes != n_v4l_planes)
3449     goto invalid_planes;
3450
3451   if ((is_mplane && format.fmt.pix_mp.field != field)
3452       || format.fmt.pix.field != field)
3453     goto invalid_field;
3454
3455   gst_v4l2_object_get_colorspace (&format, &info.colorimetry);
3456
3457   s = gst_caps_get_structure (caps, 0);
3458   if (gst_structure_has_field (s, "colorimetry")) {
3459     GstVideoColorimetry ci;
3460     if (!gst_video_colorimetry_from_string (&ci,
3461             gst_structure_get_string (s, "colorimetry"))
3462         || !gst_video_colorimetry_is_equal (&ci, &info.colorimetry))
3463       goto invalid_colorimetry;
3464   }
3465
3466   /* In case we have skipped the try_fmt probes, we'll need to set the
3467    * colorimetry and interlace-mode back into the caps. */
3468   if (v4l2object->skip_try_fmt_probes) {
3469     if (!gst_structure_has_field (s, "colorimetry")) {
3470       gchar *str = gst_video_colorimetry_to_string (&info.colorimetry);
3471       gst_structure_set (s, "colorimetry", G_TYPE_STRING, str, NULL);
3472       g_free (str);
3473     }
3474
3475     if (!gst_structure_has_field (s, "interlace-mode"))
3476       gst_structure_set (s, "interlace-mode", G_TYPE_STRING,
3477           gst_video_interlace_mode_to_string (info.interlace_mode), NULL);
3478   }
3479
3480   if (try_only)                 /* good enough for trying only */
3481     return TRUE;
3482
3483   if (GST_VIDEO_INFO_HAS_ALPHA (&info)) {
3484     struct v4l2_control ctl = { 0, };
3485     ctl.id = V4L2_CID_ALPHA_COMPONENT;
3486     ctl.value = 0xff;
3487
3488     if (v4l2object->ioctl (fd, VIDIOC_S_CTRL, &ctl) < 0)
3489       GST_WARNING_OBJECT (v4l2object->element,
3490           "Failed to set alpha component value");
3491   }
3492
3493   /* Is there a reason we require the caller to always specify a framerate? */
3494   GST_DEBUG_OBJECT (v4l2object->element, "Desired framerate: %u/%u", fps_n,
3495       fps_d);
3496
3497   memset (&streamparm, 0x00, sizeof (struct v4l2_streamparm));
3498   streamparm.type = v4l2object->type;
3499
3500   if (v4l2object->ioctl (fd, VIDIOC_G_PARM, &streamparm) < 0)
3501     goto get_parm_failed;
3502
3503   if (v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE
3504       || v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE_MPLANE) {
3505     GST_VIDEO_INFO_FPS_N (&info) =
3506         streamparm.parm.capture.timeperframe.denominator;
3507     GST_VIDEO_INFO_FPS_D (&info) =
3508         streamparm.parm.capture.timeperframe.numerator;
3509
3510     GST_DEBUG_OBJECT (v4l2object->element, "Got capture framerate: %u/%u",
3511         streamparm.parm.capture.timeperframe.denominator,
3512         streamparm.parm.capture.timeperframe.numerator);
3513
3514     /* We used to skip frame rate setup if the camera was already setup
3515      * with the requested frame rate. This breaks some cameras though,
3516      * causing them to not output data (several models of Thinkpad cameras
3517      * have this problem at least).
3518      * So, don't skip. */
3519     GST_LOG_OBJECT (v4l2object->element, "Setting capture framerate to %u/%u",
3520         fps_n, fps_d);
3521     /* We want to change the frame rate, so check whether we can. Some cheap USB
3522      * cameras don't have the capability */
3523     if ((streamparm.parm.capture.capability & V4L2_CAP_TIMEPERFRAME) == 0) {
3524       GST_DEBUG_OBJECT (v4l2object->element,
3525           "Not setting capture framerate (not supported)");
3526       goto done;
3527     }
3528
3529     /* Note: V4L2 wants the frame interval, we have the frame rate */
3530     streamparm.parm.capture.timeperframe.numerator = fps_d;
3531     streamparm.parm.capture.timeperframe.denominator = fps_n;
3532
3533     /* some cheap USB cam's won't accept any change */
3534     if (v4l2object->ioctl (fd, VIDIOC_S_PARM, &streamparm) < 0)
3535       goto set_parm_failed;
3536
3537     if (streamparm.parm.capture.timeperframe.numerator > 0 &&
3538         streamparm.parm.capture.timeperframe.denominator > 0) {
3539       /* get new values */
3540       fps_d = streamparm.parm.capture.timeperframe.numerator;
3541       fps_n = streamparm.parm.capture.timeperframe.denominator;
3542
3543       GST_INFO_OBJECT (v4l2object->element, "Set capture framerate to %u/%u",
3544           fps_n, fps_d);
3545     } else {
3546       /* fix v4l2 capture driver to provide framerate values */
3547       GST_WARNING_OBJECT (v4l2object->element,
3548           "Reuse caps framerate %u/%u - fix v4l2 capture driver", fps_n, fps_d);
3549     }
3550
3551     GST_VIDEO_INFO_FPS_N (&info) = fps_n;
3552     GST_VIDEO_INFO_FPS_D (&info) = fps_d;
3553   } else if (v4l2object->type == V4L2_BUF_TYPE_VIDEO_OUTPUT
3554       || v4l2object->type == V4L2_BUF_TYPE_VIDEO_OUTPUT_MPLANE) {
3555     GST_VIDEO_INFO_FPS_N (&info) =
3556         streamparm.parm.output.timeperframe.denominator;
3557     GST_VIDEO_INFO_FPS_D (&info) =
3558         streamparm.parm.output.timeperframe.numerator;
3559
3560     GST_DEBUG_OBJECT (v4l2object->element, "Got output framerate: %u/%u",
3561         streamparm.parm.output.timeperframe.denominator,
3562         streamparm.parm.output.timeperframe.numerator);
3563
3564     GST_LOG_OBJECT (v4l2object->element, "Setting output framerate to %u/%u",
3565         fps_n, fps_d);
3566     if ((streamparm.parm.output.capability & V4L2_CAP_TIMEPERFRAME) == 0) {
3567       GST_DEBUG_OBJECT (v4l2object->element,
3568           "Not setting output framerate (not supported)");
3569       goto done;
3570     }
3571
3572     /* Note: V4L2 wants the frame interval, we have the frame rate */
3573     streamparm.parm.output.timeperframe.numerator = fps_d;
3574     streamparm.parm.output.timeperframe.denominator = fps_n;
3575
3576     if (v4l2object->ioctl (fd, VIDIOC_S_PARM, &streamparm) < 0)
3577       goto set_parm_failed;
3578
3579     if (streamparm.parm.output.timeperframe.numerator > 0 &&
3580         streamparm.parm.output.timeperframe.denominator > 0) {
3581       /* get new values */
3582       fps_d = streamparm.parm.output.timeperframe.numerator;
3583       fps_n = streamparm.parm.output.timeperframe.denominator;
3584
3585       GST_INFO_OBJECT (v4l2object->element, "Set output framerate to %u/%u",
3586           fps_n, fps_d);
3587     } else {
3588       /* fix v4l2 output driver to provide framerate values */
3589       GST_WARNING_OBJECT (v4l2object->element,
3590           "Reuse caps framerate %u/%u - fix v4l2 output driver", fps_n, fps_d);
3591     }
3592
3593     GST_VIDEO_INFO_FPS_N (&info) = fps_n;
3594     GST_VIDEO_INFO_FPS_D (&info) = fps_d;
3595   }
3596
3597 done:
3598   /* add boolean return, so we can fail on drivers bugs */
3599   gst_v4l2_object_save_format (v4l2object, fmtdesc, &format, &info, &align);
3600
3601   /* now configure the pool */
3602   if (!gst_v4l2_object_setup_pool (v4l2object, caps))
3603     goto pool_failed;
3604
3605   return TRUE;
3606
3607   /* ERRORS */
3608 invalid_caps:
3609   {
3610     GST_DEBUG_OBJECT (v4l2object->element, "can't parse caps %" GST_PTR_FORMAT,
3611         caps);
3612     return FALSE;
3613   }
3614 try_fmt_failed:
3615   {
3616     if (errno == EINVAL) {
3617       GST_V4L2_ERROR (error, RESOURCE, SETTINGS,
3618           (_("Device '%s' has no supported format"), v4l2object->videodev),
3619           ("Call to TRY_FMT failed for %" GST_FOURCC_FORMAT " @ %dx%d: %s",
3620               GST_FOURCC_ARGS (pixelformat), width, height,
3621               g_strerror (errno)));
3622     } else {
3623       GST_V4L2_ERROR (error, RESOURCE, FAILED,
3624           (_("Device '%s' failed during initialization"),
3625               v4l2object->videodev),
3626           ("Call to TRY_FMT failed for %" GST_FOURCC_FORMAT " @ %dx%d: %s",
3627               GST_FOURCC_ARGS (pixelformat), width, height,
3628               g_strerror (errno)));
3629     }
3630     return FALSE;
3631   }
3632 set_fmt_failed:
3633   {
3634     if (errno == EBUSY) {
3635       GST_V4L2_ERROR (error, RESOURCE, BUSY,
3636           (_("Device '%s' is busy"), v4l2object->videodev),
3637           ("Call to S_FMT failed for %" GST_FOURCC_FORMAT " @ %dx%d: %s",
3638               GST_FOURCC_ARGS (pixelformat), width, height,
3639               g_strerror (errno)));
3640     } else if (errno == EINVAL) {
3641       GST_V4L2_ERROR (error, RESOURCE, SETTINGS,
3642           (_("Device '%s' has no supported format"), v4l2object->videodev),
3643           ("Call to S_FMT failed for %" GST_FOURCC_FORMAT " @ %dx%d: %s",
3644               GST_FOURCC_ARGS (pixelformat), width, height,
3645               g_strerror (errno)));
3646     } else {
3647       GST_V4L2_ERROR (error, RESOURCE, FAILED,
3648           (_("Device '%s' failed during initialization"),
3649               v4l2object->videodev),
3650           ("Call to S_FMT failed for %" GST_FOURCC_FORMAT " @ %dx%d: %s",
3651               GST_FOURCC_ARGS (pixelformat), width, height,
3652               g_strerror (errno)));
3653     }
3654     return FALSE;
3655   }
3656 invalid_dimensions:
3657   {
3658     GST_V4L2_ERROR (error, RESOURCE, SETTINGS,
3659         (_("Device '%s' cannot capture at %dx%d"),
3660             v4l2object->videodev, width, height),
3661         ("Tried to capture at %dx%d, but device returned size %dx%d",
3662             width, height, format.fmt.pix.width, format.fmt.pix.height));
3663     return FALSE;
3664   }
3665 invalid_pixelformat:
3666   {
3667     GST_V4L2_ERROR (error, RESOURCE, SETTINGS,
3668         (_("Device '%s' cannot capture in the specified format"),
3669             v4l2object->videodev),
3670         ("Tried to capture in %" GST_FOURCC_FORMAT
3671             ", but device returned format" " %" GST_FOURCC_FORMAT,
3672             GST_FOURCC_ARGS (pixelformat),
3673             GST_FOURCC_ARGS (format.fmt.pix.pixelformat)));
3674     return FALSE;
3675   }
3676 invalid_planes:
3677   {
3678     GST_V4L2_ERROR (error, RESOURCE, SETTINGS,
3679         (_("Device '%s' does support non-contiguous planes"),
3680             v4l2object->videodev),
3681         ("Device wants %d planes", format.fmt.pix_mp.num_planes));
3682     return FALSE;
3683   }
3684 invalid_field:
3685   {
3686     enum v4l2_field wanted_field;
3687
3688     if (is_mplane)
3689       wanted_field = format.fmt.pix_mp.field;
3690     else
3691       wanted_field = format.fmt.pix.field;
3692
3693     GST_V4L2_ERROR (error, RESOURCE, SETTINGS,
3694         (_("Device '%s' does not support %s interlacing"),
3695             v4l2object->videodev,
3696             field == V4L2_FIELD_NONE ? "progressive" : "interleaved"),
3697         ("Device wants %s interlacing",
3698             wanted_field == V4L2_FIELD_NONE ? "progressive" : "interleaved"));
3699     return FALSE;
3700   }
3701 invalid_colorimetry:
3702   {
3703     gchar *wanted_colorimetry;
3704
3705     wanted_colorimetry = gst_video_colorimetry_to_string (&info.colorimetry);
3706
3707     GST_V4L2_ERROR (error, RESOURCE, SETTINGS,
3708         (_("Device '%s' does not support %s colorimetry"),
3709             v4l2object->videodev, gst_structure_get_string (s, "colorimetry")),
3710         ("Device wants %s colorimetry", wanted_colorimetry));
3711
3712     g_free (wanted_colorimetry);
3713     return FALSE;
3714   }
3715 get_parm_failed:
3716   {
3717     /* it's possible that this call is not supported */
3718     if (errno != EINVAL && errno != ENOTTY) {
3719       GST_V4L2_ERROR (error, RESOURCE, SETTINGS,
3720           (_("Could not get parameters on device '%s'"),
3721               v4l2object->videodev), GST_ERROR_SYSTEM);
3722     }
3723     goto done;
3724   }
3725 set_parm_failed:
3726   {
3727     GST_V4L2_ERROR (error, RESOURCE, SETTINGS,
3728         (_("Video device did not accept new frame rate setting.")),
3729         GST_ERROR_SYSTEM);
3730     goto done;
3731   }
3732 pool_failed:
3733   {
3734     /* setup_pool already send the error */
3735     return FALSE;
3736   }
3737 }
3738
3739 gboolean
3740 gst_v4l2_object_set_format (GstV4l2Object * v4l2object, GstCaps * caps,
3741     GstV4l2Error * error)
3742 {
3743   GST_DEBUG_OBJECT (v4l2object->element, "Setting format to %" GST_PTR_FORMAT,
3744       caps);
3745   return gst_v4l2_object_set_format_full (v4l2object, caps, FALSE, error);
3746 }
3747
3748 gboolean
3749 gst_v4l2_object_try_format (GstV4l2Object * v4l2object, GstCaps * caps,
3750     GstV4l2Error * error)
3751 {
3752   GST_DEBUG_OBJECT (v4l2object->element, "Trying format %" GST_PTR_FORMAT,
3753       caps);
3754   return gst_v4l2_object_set_format_full (v4l2object, caps, TRUE, error);
3755 }
3756
3757 /**
3758  * gst_v4l2_object_acquire_format:
3759  * @v4l2object the object
3760  * @info a GstVideoInfo to be filled
3761  *
3762  * Acquire the driver choosen format. This is useful in decoder or encoder elements where
3763  * the output format is choosen by the HW.
3764  *
3765  * Returns: %TRUE on success, %FALSE on failure.
3766  */
3767 gboolean
3768 gst_v4l2_object_acquire_format (GstV4l2Object * v4l2object, GstVideoInfo * info)
3769 {
3770   struct v4l2_fmtdesc *fmtdesc;
3771   struct v4l2_format fmt;
3772   struct v4l2_crop crop;
3773   struct v4l2_selection sel;
3774   struct v4l2_rect *r = NULL;
3775   GstVideoFormat format;
3776   guint width, height;
3777   GstVideoAlignment align;
3778
3779   gst_video_info_init (info);
3780   gst_video_alignment_reset (&align);
3781
3782   memset (&fmt, 0x00, sizeof (struct v4l2_format));
3783   fmt.type = v4l2object->type;
3784   if (v4l2object->ioctl (v4l2object->video_fd, VIDIOC_G_FMT, &fmt) < 0)
3785     goto get_fmt_failed;
3786
3787   fmtdesc = gst_v4l2_object_get_format_from_fourcc (v4l2object,
3788       fmt.fmt.pix.pixelformat);
3789   if (fmtdesc == NULL)
3790     goto unsupported_format;
3791
3792   /* No need to care about mplane, the four first params are the same */
3793   format = gst_v4l2_object_v4l2fourcc_to_video_format (fmt.fmt.pix.pixelformat);
3794
3795   /* fails if we do no translate the fmt.pix.pixelformat to GstVideoFormat */
3796   if (format == GST_VIDEO_FORMAT_UNKNOWN)
3797     goto unsupported_format;
3798
3799   if (fmt.fmt.pix.width == 0 || fmt.fmt.pix.height == 0)
3800     goto invalid_dimensions;
3801
3802   width = fmt.fmt.pix.width;
3803   height = fmt.fmt.pix.height;
3804
3805   /* Use the default compose rectangle */
3806   memset (&sel, 0, sizeof (struct v4l2_selection));
3807   sel.type = v4l2object->type;
3808   sel.target = V4L2_SEL_TGT_COMPOSE_DEFAULT;
3809   if (v4l2object->ioctl (v4l2object->video_fd, VIDIOC_G_SELECTION, &sel) >= 0) {
3810     r = &sel.r;
3811   } else {
3812     /* For ancient kernels, fall back to G_CROP */
3813     memset (&crop, 0, sizeof (struct v4l2_crop));
3814     crop.type = v4l2object->type;
3815     if (v4l2object->ioctl (v4l2object->video_fd, VIDIOC_G_CROP, &crop) >= 0)
3816       r = &crop.c;
3817   }
3818   if (r) {
3819     align.padding_left = r->left;
3820     align.padding_top = r->top;
3821     align.padding_right = width - r->width - r->left;
3822     align.padding_bottom = height - r->height - r->top;
3823     width = r->width;
3824     height = r->height;
3825   }
3826
3827   gst_video_info_set_format (info, format, width, height);
3828
3829   switch (fmt.fmt.pix.field) {
3830     case V4L2_FIELD_ANY:
3831     case V4L2_FIELD_NONE:
3832       info->interlace_mode = GST_VIDEO_INTERLACE_MODE_PROGRESSIVE;
3833       break;
3834     case V4L2_FIELD_INTERLACED:
3835     case V4L2_FIELD_INTERLACED_TB:
3836     case V4L2_FIELD_INTERLACED_BT:
3837       info->interlace_mode = GST_VIDEO_INTERLACE_MODE_INTERLEAVED;
3838       break;
3839     default:
3840       goto unsupported_field;
3841   }
3842
3843   gst_v4l2_object_get_colorspace (&fmt, &info->colorimetry);
3844
3845   gst_v4l2_object_save_format (v4l2object, fmtdesc, &fmt, info, &align);
3846
3847   /* Shall we setup the pool ? */
3848
3849   return TRUE;
3850
3851 get_fmt_failed:
3852   {
3853     GST_ELEMENT_WARNING (v4l2object->element, RESOURCE, SETTINGS,
3854         (_("Video device did not provide output format.")), GST_ERROR_SYSTEM);
3855     return FALSE;
3856   }
3857 invalid_dimensions:
3858   {
3859     GST_ELEMENT_WARNING (v4l2object->element, RESOURCE, SETTINGS,
3860         (_("Video device returned invalid dimensions.")),
3861         ("Expected non 0 dimensions, got %dx%d", fmt.fmt.pix.width,
3862             fmt.fmt.pix.height));
3863     return FALSE;
3864   }
3865 unsupported_field:
3866   {
3867     GST_ELEMENT_ERROR (v4l2object->element, RESOURCE, SETTINGS,
3868         (_("Video device uses an unsupported interlacing method.")),
3869         ("V4L2 field type %d not supported", fmt.fmt.pix.field));
3870     return FALSE;
3871   }
3872 unsupported_format:
3873   {
3874     GST_ELEMENT_ERROR (v4l2object->element, RESOURCE, SETTINGS,
3875         (_("Video device uses an unsupported pixel format.")),
3876         ("V4L2 format %" GST_FOURCC_FORMAT " not supported",
3877             GST_FOURCC_ARGS (fmt.fmt.pix.pixelformat)));
3878     return FALSE;
3879   }
3880 }
3881
3882 gboolean
3883 gst_v4l2_object_set_crop (GstV4l2Object * obj)
3884 {
3885   struct v4l2_crop crop = { 0 };
3886
3887   crop.type = obj->type;
3888   crop.c.left = obj->align.padding_left;
3889   crop.c.top = obj->align.padding_top;
3890   crop.c.width = obj->info.width;
3891   crop.c.height = obj->info.height;
3892
3893   if (obj->align.padding_left + obj->align.padding_top +
3894       obj->align.padding_right + obj->align.padding_bottom == 0) {
3895     GST_DEBUG_OBJECT (obj->element, "no cropping needed");
3896     return TRUE;
3897   }
3898
3899   GST_DEBUG_OBJECT (obj->element,
3900       "Desired cropping left %u, top %u, size %ux%u", crop.c.left, crop.c.top,
3901       crop.c.width, crop.c.height);
3902
3903   if (obj->ioctl (obj->video_fd, VIDIOC_S_CROP, &crop) < 0) {
3904     GST_WARNING_OBJECT (obj->element, "VIDIOC_S_CROP failed");
3905     return FALSE;
3906   }
3907
3908   if (obj->ioctl (obj->video_fd, VIDIOC_G_CROP, &crop) < 0) {
3909     GST_WARNING_OBJECT (obj->element, "VIDIOC_G_CROP failed");
3910     return FALSE;
3911   }
3912
3913   GST_DEBUG_OBJECT (obj->element,
3914       "Got cropping left %u, top %u, size %ux%u", crop.c.left, crop.c.top,
3915       crop.c.width, crop.c.height);
3916
3917   return TRUE;
3918 }
3919
3920 gboolean
3921 gst_v4l2_object_caps_equal (GstV4l2Object * v4l2object, GstCaps * caps)
3922 {
3923   GstStructure *config;
3924   GstCaps *oldcaps;
3925   gboolean ret;
3926
3927   if (!v4l2object->pool)
3928     return FALSE;
3929
3930   config = gst_buffer_pool_get_config (v4l2object->pool);
3931   gst_buffer_pool_config_get_params (config, &oldcaps, NULL, NULL, NULL);
3932
3933   ret = oldcaps && gst_caps_is_equal (caps, oldcaps);
3934
3935   gst_structure_free (config);
3936
3937   return ret;
3938 }
3939
3940 gboolean
3941 gst_v4l2_object_unlock (GstV4l2Object * v4l2object)
3942 {
3943   gboolean ret = TRUE;
3944
3945   GST_LOG_OBJECT (v4l2object->element, "start flushing");
3946
3947   if (v4l2object->pool && gst_buffer_pool_is_active (v4l2object->pool))
3948     gst_buffer_pool_set_flushing (v4l2object->pool, TRUE);
3949
3950   return ret;
3951 }
3952
3953 gboolean
3954 gst_v4l2_object_unlock_stop (GstV4l2Object * v4l2object)
3955 {
3956   gboolean ret = TRUE;
3957
3958   GST_LOG_OBJECT (v4l2object->element, "stop flushing");
3959
3960   if (v4l2object->pool && gst_buffer_pool_is_active (v4l2object->pool))
3961     gst_buffer_pool_set_flushing (v4l2object->pool, FALSE);
3962
3963   return ret;
3964 }
3965
3966 gboolean
3967 gst_v4l2_object_stop (GstV4l2Object * v4l2object)
3968 {
3969   GST_DEBUG_OBJECT (v4l2object->element, "stopping");
3970
3971   if (!GST_V4L2_IS_OPEN (v4l2object))
3972     goto done;
3973   if (!GST_V4L2_IS_ACTIVE (v4l2object))
3974     goto done;
3975
3976   if (v4l2object->pool) {
3977     GST_DEBUG_OBJECT (v4l2object->element, "deactivating pool");
3978     gst_buffer_pool_set_active (v4l2object->pool, FALSE);
3979     gst_object_unref (v4l2object->pool);
3980     v4l2object->pool = NULL;
3981   }
3982
3983   GST_V4L2_SET_INACTIVE (v4l2object);
3984
3985 done:
3986   return TRUE;
3987 }
3988
3989 GstCaps *
3990 gst_v4l2_object_probe_caps (GstV4l2Object * v4l2object, GstCaps * filter)
3991 {
3992   GstCaps *ret;
3993   GSList *walk;
3994   GSList *formats;
3995
3996   formats = gst_v4l2_object_get_format_list (v4l2object);
3997
3998   ret = gst_caps_new_empty ();
3999
4000   if (v4l2object->keep_aspect && !v4l2object->par) {
4001     struct v4l2_cropcap cropcap;
4002
4003     memset (&cropcap, 0, sizeof (cropcap));
4004
4005     cropcap.type = v4l2object->type;
4006     if (v4l2object->ioctl (v4l2object->video_fd, VIDIOC_CROPCAP, &cropcap) < 0) {
4007       if (errno != ENOTTY)
4008         GST_WARNING_OBJECT (v4l2object->element,
4009             "Failed to probe pixel aspect ratio with VIDIOC_CROPCAP: %s",
4010             g_strerror (errno));
4011     } else {
4012       v4l2object->par = g_new0 (GValue, 1);
4013       g_value_init (v4l2object->par, GST_TYPE_FRACTION);
4014       gst_value_set_fraction (v4l2object->par, cropcap.pixelaspect.numerator,
4015           cropcap.pixelaspect.denominator);
4016     }
4017   }
4018
4019   for (walk = formats; walk; walk = walk->next) {
4020     struct v4l2_fmtdesc *format;
4021     GstStructure *template;
4022     GstCaps *tmp;
4023
4024     format = (struct v4l2_fmtdesc *) walk->data;
4025
4026     template = gst_v4l2_object_v4l2fourcc_to_bare_struct (format->pixelformat);
4027
4028     if (!template) {
4029       GST_DEBUG_OBJECT (v4l2object->element,
4030           "unknown format %" GST_FOURCC_FORMAT,
4031           GST_FOURCC_ARGS (format->pixelformat));
4032       continue;
4033     }
4034
4035     /* If we have a filter, check if we need to probe this format or not */
4036     if (filter) {
4037       GstCaps *format_caps = gst_caps_new_empty ();
4038
4039       gst_caps_append_structure (format_caps, gst_structure_copy (template));
4040
4041       if (!gst_caps_can_intersect (format_caps, filter)) {
4042         gst_caps_unref (format_caps);
4043         gst_structure_free (template);
4044         continue;
4045       }
4046
4047       gst_caps_unref (format_caps);
4048     }
4049
4050     tmp = gst_v4l2_object_probe_caps_for_format (v4l2object,
4051         format->pixelformat, template);
4052     if (tmp)
4053       gst_caps_append (ret, tmp);
4054
4055     gst_structure_free (template);
4056   }
4057
4058   if (filter) {
4059     GstCaps *tmp;
4060
4061     tmp = ret;
4062     ret = gst_caps_intersect_full (filter, ret, GST_CAPS_INTERSECT_FIRST);
4063     gst_caps_unref (tmp);
4064   }
4065
4066   GST_INFO_OBJECT (v4l2object->element, "probed caps: %" GST_PTR_FORMAT, ret);
4067
4068   return ret;
4069 }
4070
4071 GstCaps *
4072 gst_v4l2_object_get_caps (GstV4l2Object * v4l2object, GstCaps * filter)
4073 {
4074   GstCaps *ret;
4075
4076   if (v4l2object->probed_caps == NULL)
4077     v4l2object->probed_caps = gst_v4l2_object_probe_caps (v4l2object, NULL);
4078
4079   if (filter) {
4080     ret = gst_caps_intersect_full (filter, v4l2object->probed_caps,
4081         GST_CAPS_INTERSECT_FIRST);
4082   } else {
4083     ret = gst_caps_ref (v4l2object->probed_caps);
4084   }
4085
4086   return ret;
4087 }
4088
4089 gboolean
4090 gst_v4l2_object_decide_allocation (GstV4l2Object * obj, GstQuery * query)
4091 {
4092   GstCaps *caps;
4093   GstBufferPool *pool = NULL, *other_pool = NULL;
4094   GstStructure *config;
4095   guint size, min, max, own_min = 0;
4096   gboolean update;
4097   gboolean has_video_meta;
4098   gboolean can_share_own_pool, pushing_from_our_pool = FALSE;
4099   GstAllocator *allocator = NULL;
4100   GstAllocationParams params = { 0 };
4101
4102   GST_DEBUG_OBJECT (obj->element, "decide allocation");
4103
4104   g_return_val_if_fail (obj->type == V4L2_BUF_TYPE_VIDEO_CAPTURE ||
4105       obj->type == V4L2_BUF_TYPE_VIDEO_CAPTURE_MPLANE, FALSE);
4106
4107   gst_query_parse_allocation (query, &caps, NULL);
4108
4109   if (obj->pool == NULL) {
4110     if (!gst_v4l2_object_setup_pool (obj, caps))
4111       goto pool_failed;
4112   }
4113
4114   if (gst_query_get_n_allocation_params (query) > 0)
4115     gst_query_parse_nth_allocation_param (query, 0, &allocator, &params);
4116
4117   if (gst_query_get_n_allocation_pools (query) > 0) {
4118     gst_query_parse_nth_allocation_pool (query, 0, &pool, &size, &min, &max);
4119     update = TRUE;
4120   } else {
4121     pool = NULL;
4122     min = max = 0;
4123     size = 0;
4124     update = FALSE;
4125   }
4126
4127   GST_DEBUG_OBJECT (obj->element, "allocation: size:%u min:%u max:%u pool:%"
4128       GST_PTR_FORMAT, size, min, max, pool);
4129
4130   has_video_meta =
4131       gst_query_find_allocation_meta (query, GST_VIDEO_META_API_TYPE, NULL);
4132
4133   can_share_own_pool = (has_video_meta || !obj->need_video_meta);
4134
4135   gst_v4l2_get_driver_min_buffers (obj);
4136   /* We can't share our own pool, if it exceed V4L2 capacity */
4137   if (min + obj->min_buffers + 1 > VIDEO_MAX_FRAME)
4138     can_share_own_pool = FALSE;
4139
4140   /* select a pool */
4141   switch (obj->mode) {
4142     case GST_V4L2_IO_RW:
4143       if (pool) {
4144         /* in READ/WRITE mode, prefer a downstream pool because our own pool
4145          * doesn't help much, we have to write to it as well */
4146         GST_DEBUG_OBJECT (obj->element,
4147             "read/write mode: using downstream pool");
4148         /* use the bigest size, when we use our own pool we can't really do any
4149          * other size than what the hardware gives us but for downstream pools
4150          * we can try */
4151         size = MAX (size, obj->info.size);
4152       } else if (can_share_own_pool) {
4153         /* no downstream pool, use our own then */
4154         GST_DEBUG_OBJECT (obj->element,
4155             "read/write mode: no downstream pool, using our own");
4156         pool = gst_object_ref (obj->pool);
4157         size = obj->info.size;
4158         pushing_from_our_pool = TRUE;
4159       }
4160       break;
4161
4162     case GST_V4L2_IO_USERPTR:
4163     case GST_V4L2_IO_DMABUF_IMPORT:
4164       /* in importing mode, prefer our own pool, and pass the other pool to
4165        * our own, so it can serve itself */
4166       if (pool == NULL)
4167         goto no_downstream_pool;
4168       gst_v4l2_buffer_pool_set_other_pool (GST_V4L2_BUFFER_POOL (obj->pool),
4169           pool);
4170       other_pool = pool;
4171       gst_object_unref (pool);
4172       pool = gst_object_ref (obj->pool);
4173       size = obj->info.size;
4174       break;
4175
4176     case GST_V4L2_IO_MMAP:
4177     case GST_V4L2_IO_DMABUF:
4178       /* in streaming mode, prefer our own pool */
4179       /* Check if we can use it ... */
4180       if (can_share_own_pool) {
4181         if (pool)
4182           gst_object_unref (pool);
4183         pool = gst_object_ref (obj->pool);
4184         size = obj->info.size;
4185         GST_DEBUG_OBJECT (obj->element,
4186             "streaming mode: using our own pool %" GST_PTR_FORMAT, pool);
4187         pushing_from_our_pool = TRUE;
4188       } else if (pool) {
4189         GST_DEBUG_OBJECT (obj->element,
4190             "streaming mode: copying to downstream pool %" GST_PTR_FORMAT,
4191             pool);
4192       } else {
4193         GST_DEBUG_OBJECT (obj->element,
4194             "streaming mode: no usable pool, copying to generic pool");
4195         size = MAX (size, obj->info.size);
4196       }
4197       break;
4198     case GST_V4L2_IO_AUTO:
4199     default:
4200       GST_WARNING_OBJECT (obj->element, "unhandled mode");
4201       break;
4202   }
4203
4204   if (size == 0)
4205     goto no_size;
4206
4207   /* If pushing from our own pool, configure it with queried minimum,
4208    * otherwise use the minimum required */
4209   if (pushing_from_our_pool) {
4210     /* When pushing from our own pool, we need what downstream one, to be able
4211      * to fill the pipeline, the minimum required to decoder according to the
4212      * driver and 2 more, so we don't endup up with everything downstream or
4213      * held by the decoder. We account 2 buffers for v4l2 so when one is being
4214      * pushed downstream the other one can already be queued for the next
4215      * frame. */
4216     own_min = min + obj->min_buffers + 2;
4217
4218     /* If no allocation parameters where provided, allow for a little more
4219      * buffers and enable copy threshold */
4220     if (!update) {
4221       own_min += 2;
4222       gst_v4l2_buffer_pool_copy_at_threshold (GST_V4L2_BUFFER_POOL (pool),
4223           TRUE);
4224     } else {
4225       gst_v4l2_buffer_pool_copy_at_threshold (GST_V4L2_BUFFER_POOL (pool),
4226           FALSE);
4227     }
4228
4229   } else {
4230     /* In this case we'll have to configure two buffer pool. For our buffer
4231      * pool, we'll need what the driver one, and one more, so we can dequeu */
4232     own_min = obj->min_buffers + 1;
4233     own_min = MAX (own_min, GST_V4L2_MIN_BUFFERS);
4234
4235     /* for the downstream pool, we keep what downstream wants, though ensure
4236      * at least a minimum if downstream didn't suggest anything (we are
4237      * expecting the base class to create a default one for the context) */
4238     min = MAX (min, GST_V4L2_MIN_BUFFERS);
4239
4240     /* To import we need the other pool to hold at least own_min */
4241     if (obj->pool == pool)
4242       min += own_min;
4243   }
4244
4245   /* Request a bigger max, if one was suggested but it's too small */
4246   if (max != 0)
4247     max = MAX (min, max);
4248
4249   /* First step, configure our own pool */
4250   config = gst_buffer_pool_get_config (obj->pool);
4251
4252   if (obj->need_video_meta || has_video_meta) {
4253     GST_DEBUG_OBJECT (obj->element, "activate Video Meta");
4254     gst_buffer_pool_config_add_option (config,
4255         GST_BUFFER_POOL_OPTION_VIDEO_META);
4256   }
4257
4258   gst_buffer_pool_config_set_allocator (config, allocator, &params);
4259   gst_buffer_pool_config_set_params (config, caps, size, own_min, 0);
4260
4261   GST_DEBUG_OBJECT (obj->element, "setting own pool config to %"
4262       GST_PTR_FORMAT, config);
4263
4264   /* Our pool often need to adjust the value */
4265   if (!gst_buffer_pool_set_config (obj->pool, config)) {
4266     config = gst_buffer_pool_get_config (obj->pool);
4267
4268     GST_DEBUG_OBJECT (obj->element, "own pool config changed to %"
4269         GST_PTR_FORMAT, config);
4270
4271     /* our pool will adjust the maximum buffer, which we are fine with */
4272     if (!gst_buffer_pool_set_config (obj->pool, config))
4273       goto config_failed;
4274   }
4275
4276   /* Now configure the other pool if different */
4277   if (obj->pool != pool)
4278     other_pool = pool;
4279
4280   if (other_pool) {
4281     config = gst_buffer_pool_get_config (other_pool);
4282     gst_buffer_pool_config_set_allocator (config, allocator, &params);
4283     gst_buffer_pool_config_set_params (config, caps, size, min, max);
4284
4285     GST_DEBUG_OBJECT (obj->element, "setting other pool config to %"
4286         GST_PTR_FORMAT, config);
4287
4288     /* if downstream supports video metadata, add this to the pool config */
4289     if (has_video_meta) {
4290       GST_DEBUG_OBJECT (obj->element, "activate Video Meta");
4291       gst_buffer_pool_config_add_option (config,
4292           GST_BUFFER_POOL_OPTION_VIDEO_META);
4293     }
4294
4295     if (!gst_buffer_pool_set_config (other_pool, config)) {
4296       config = gst_buffer_pool_get_config (other_pool);
4297
4298       if (!gst_buffer_pool_config_validate_params (config, caps, size, min,
4299               max)) {
4300         gst_structure_free (config);
4301         goto config_failed;
4302       }
4303
4304       if (!gst_buffer_pool_set_config (other_pool, config))
4305         goto config_failed;
4306     }
4307   }
4308
4309   if (pool) {
4310     /* For simplicity, simply read back the active configuration, so our base
4311      * class get the right information */
4312     config = gst_buffer_pool_get_config (pool);
4313     gst_buffer_pool_config_get_params (config, NULL, &size, &min, &max);
4314     gst_structure_free (config);
4315   }
4316
4317   if (update)
4318     gst_query_set_nth_allocation_pool (query, 0, pool, size, min, max);
4319   else
4320     gst_query_add_allocation_pool (query, pool, size, min, max);
4321
4322   if (allocator)
4323     gst_object_unref (allocator);
4324
4325   if (pool)
4326     gst_object_unref (pool);
4327
4328   return TRUE;
4329
4330 pool_failed:
4331   {
4332     /* setup_pool already send the error */
4333     goto cleanup;
4334   }
4335 config_failed:
4336   {
4337     GST_ELEMENT_ERROR (obj->element, RESOURCE, SETTINGS,
4338         (_("Failed to configure internal buffer pool.")), (NULL));
4339     goto cleanup;
4340   }
4341 no_size:
4342   {
4343     GST_ELEMENT_ERROR (obj->element, RESOURCE, SETTINGS,
4344         (_("Video device did not suggest any buffer size.")), (NULL));
4345     goto cleanup;
4346   }
4347 cleanup:
4348   {
4349     if (allocator)
4350       gst_object_unref (allocator);
4351
4352     if (pool)
4353       gst_object_unref (pool);
4354     return FALSE;
4355   }
4356 no_downstream_pool:
4357   {
4358     GST_ELEMENT_ERROR (obj->element, RESOURCE, SETTINGS,
4359         (_("No downstream pool to import from.")),
4360         ("When importing DMABUF or USERPTR, we need a pool to import from"));
4361     return FALSE;
4362   }
4363 }
4364
4365 gboolean
4366 gst_v4l2_object_propose_allocation (GstV4l2Object * obj, GstQuery * query)
4367 {
4368   GstBufferPool *pool;
4369   /* we need at least 2 buffers to operate */
4370   guint size, min, max;
4371   GstCaps *caps;
4372   gboolean need_pool;
4373
4374   /* Set defaults allocation parameters */
4375   size = obj->info.size;
4376   min = GST_V4L2_MIN_BUFFERS;
4377   max = VIDEO_MAX_FRAME;
4378
4379   gst_query_parse_allocation (query, &caps, &need_pool);
4380
4381   if (caps == NULL)
4382     goto no_caps;
4383
4384   if ((pool = obj->pool))
4385     gst_object_ref (pool);
4386
4387   if (pool != NULL) {
4388     GstCaps *pcaps;
4389     GstStructure *config;
4390
4391     /* we had a pool, check caps */
4392     config = gst_buffer_pool_get_config (pool);
4393     gst_buffer_pool_config_get_params (config, &pcaps, NULL, NULL, NULL);
4394
4395     GST_DEBUG_OBJECT (obj->element,
4396         "we had a pool with caps %" GST_PTR_FORMAT, pcaps);
4397     if (!gst_caps_is_equal (caps, pcaps)) {
4398       gst_structure_free (config);
4399       gst_object_unref (pool);
4400       goto different_caps;
4401     }
4402     gst_structure_free (config);
4403   }
4404   gst_v4l2_get_driver_min_buffers (obj);
4405
4406   min = MAX (obj->min_buffers, GST_V4L2_MIN_BUFFERS);
4407
4408   gst_query_add_allocation_pool (query, pool, size, min, max);
4409
4410   /* we also support various metadata */
4411   gst_query_add_allocation_meta (query, GST_VIDEO_META_API_TYPE, NULL);
4412
4413   if (pool)
4414     gst_object_unref (pool);
4415
4416   return TRUE;
4417
4418   /* ERRORS */
4419 no_caps:
4420   {
4421     GST_DEBUG_OBJECT (obj->element, "no caps specified");
4422     return FALSE;
4423   }
4424 different_caps:
4425   {
4426     /* different caps, we can't use this pool */
4427     GST_DEBUG_OBJECT (obj->element, "pool has different caps");
4428     return FALSE;
4429   }
4430 }