Update Edgard Lima's email
[platform/upstream/gst-plugins-good.git] / sys / v4l2 / gstv4l2object.c
1 /* GStreamer
2  *
3  * Copyright (C) 2001-2002 Ronald Bultje <rbultje@ronald.bitfreak.net>
4  *               2006 Edgard Lima <edgard.lima@gmail.com>
5  *
6  * gstv4l2object.c: base class for V4L2 elements
7  *
8  * This library is free software; you can redistribute it and/or modify
9  * it under the terms of the GNU Library General Public License as published
10  * by the Free Software Foundation; either version 2 of the License, or
11  * (at your option) any later version. This library is distributed in the hope
12  * that it will be useful, but WITHOUT ANY WARRANTY; without even the
13  * implied warranty of MERCHANTABILITY or FITNESS FOR A PARTICULAR
14  * PURPOSE.  See the GNU Library General Public License for more details.
15  * You should have received a copy of the GNU Library General Public
16  * License along with this library; if not, write to the Free Software
17  * Foundation, Inc., 51 Franklin St, Fifth Floor, Boston, MA 02110-1301,
18  * USA.
19  */
20
21 /* FIXME 0.11: suppress warnings for deprecated API such as GValueArray
22  * with newer GLib versions (>= 2.31.0) */
23 #define GLIB_DISABLE_DEPRECATION_WARNINGS
24
25 #ifdef HAVE_CONFIG_H
26 #include <config.h>
27 #endif
28
29 #include <sys/stat.h>
30 #include <fcntl.h>
31 #include <errno.h>
32 #include <unistd.h>
33 #include <string.h>
34
35 #ifdef HAVE_GUDEV
36 #include <gudev/gudev.h>
37 #endif
38
39 #include "v4l2_calls.h"
40 #include "gstv4l2tuner.h"
41 #include "gstv4l2colorbalance.h"
42
43 #include "gst/gst-i18n-plugin.h"
44
45 #include <gst/video/video.h>
46
47 GST_DEBUG_CATEGORY_EXTERN (v4l2_debug);
48 #define GST_CAT_DEFAULT v4l2_debug
49
50 #define DEFAULT_PROP_DEVICE_NAME        NULL
51 #define DEFAULT_PROP_DEVICE_FD          -1
52 #define DEFAULT_PROP_FLAGS              0
53 #define DEFAULT_PROP_TV_NORM            0
54 #define DEFAULT_PROP_CHANNEL            NULL
55 #define DEFAULT_PROP_FREQUENCY          0
56 #define DEFAULT_PROP_IO_MODE            GST_V4L2_IO_AUTO
57
58 #define ENCODED_BUFFER_SIZE             (1 * 1024 * 1024)
59
60 enum
61 {
62   PROP_0,
63   V4L2_STD_OBJECT_PROPS,
64 };
65
66 /*
67  * common format / caps utilities:
68  */
69 typedef enum
70 {
71   GST_V4L2_RAW = 1 << 0,
72   GST_V4L2_CODEC = 1 << 1,
73   GST_V4L2_TRANSPORT = 1 << 2,
74   GST_V4L2_NO_PARSE = 1 << 3,
75   GST_V4L2_ALL = 0xffff
76 } GstV4L2FormatFlags;
77
78 typedef struct
79 {
80   guint32 format;
81   gboolean dimensions;
82   GstV4L2FormatFlags flags;
83 } GstV4L2FormatDesc;
84
85 static const GstV4L2FormatDesc gst_v4l2_formats[] = {
86   /* RGB formats */
87   {V4L2_PIX_FMT_RGB332, TRUE, GST_V4L2_RAW},
88   {V4L2_PIX_FMT_ARGB555, TRUE, GST_V4L2_RAW},
89   {V4L2_PIX_FMT_XRGB555, TRUE, GST_V4L2_RAW},
90   {V4L2_PIX_FMT_ARGB555X, TRUE, GST_V4L2_RAW},
91   {V4L2_PIX_FMT_XRGB555X, TRUE, GST_V4L2_RAW},
92   {V4L2_PIX_FMT_RGB565, TRUE, GST_V4L2_RAW},
93   {V4L2_PIX_FMT_RGB565X, TRUE, GST_V4L2_RAW},
94   {V4L2_PIX_FMT_BGR666, TRUE, GST_V4L2_RAW},
95   {V4L2_PIX_FMT_BGR24, TRUE, GST_V4L2_RAW},
96   {V4L2_PIX_FMT_RGB24, TRUE, GST_V4L2_RAW},
97   {V4L2_PIX_FMT_ABGR32, TRUE, GST_V4L2_RAW},
98   {V4L2_PIX_FMT_XBGR32, TRUE, GST_V4L2_RAW},
99   {V4L2_PIX_FMT_ARGB32, TRUE, GST_V4L2_RAW},
100   {V4L2_PIX_FMT_XRGB32, TRUE, GST_V4L2_RAW},
101
102   /* Deprecated Packed RGB Image Formats (alpha ambiguity) */
103   {V4L2_PIX_FMT_RGB444, TRUE, GST_V4L2_RAW},
104   {V4L2_PIX_FMT_RGB555, TRUE, GST_V4L2_RAW},
105   {V4L2_PIX_FMT_RGB555X, TRUE, GST_V4L2_RAW},
106   {V4L2_PIX_FMT_BGR32, TRUE, GST_V4L2_RAW},
107   {V4L2_PIX_FMT_RGB32, TRUE, GST_V4L2_RAW},
108
109   /* Grey formats */
110   {V4L2_PIX_FMT_GREY, TRUE, GST_V4L2_RAW},
111   {V4L2_PIX_FMT_Y4, TRUE, GST_V4L2_RAW},
112   {V4L2_PIX_FMT_Y6, TRUE, GST_V4L2_RAW},
113   {V4L2_PIX_FMT_Y10, TRUE, GST_V4L2_RAW},
114   {V4L2_PIX_FMT_Y12, TRUE, GST_V4L2_RAW},
115   {V4L2_PIX_FMT_Y16, TRUE, GST_V4L2_RAW},
116   {V4L2_PIX_FMT_Y16_BE, TRUE, GST_V4L2_RAW},
117   {V4L2_PIX_FMT_Y10BPACK, TRUE, GST_V4L2_RAW},
118
119   /* Palette formats */
120   {V4L2_PIX_FMT_PAL8, TRUE, GST_V4L2_RAW},
121
122   /* Chrominance formats */
123   {V4L2_PIX_FMT_UV8, TRUE, GST_V4L2_RAW},
124
125   /* Luminance+Chrominance formats */
126   {V4L2_PIX_FMT_YVU410, TRUE, GST_V4L2_RAW},
127   {V4L2_PIX_FMT_YVU420, TRUE, GST_V4L2_RAW},
128   {V4L2_PIX_FMT_YVU420M, TRUE, GST_V4L2_RAW},
129   {V4L2_PIX_FMT_YUYV, TRUE, GST_V4L2_RAW},
130   {V4L2_PIX_FMT_YYUV, TRUE, GST_V4L2_RAW},
131   {V4L2_PIX_FMT_YVYU, TRUE, GST_V4L2_RAW},
132   {V4L2_PIX_FMT_UYVY, TRUE, GST_V4L2_RAW},
133   {V4L2_PIX_FMT_VYUY, TRUE, GST_V4L2_RAW},
134   {V4L2_PIX_FMT_YUV422P, TRUE, GST_V4L2_RAW},
135   {V4L2_PIX_FMT_YUV411P, TRUE, GST_V4L2_RAW},
136   {V4L2_PIX_FMT_Y41P, TRUE, GST_V4L2_RAW},
137   {V4L2_PIX_FMT_YUV444, TRUE, GST_V4L2_RAW},
138   {V4L2_PIX_FMT_YUV555, TRUE, GST_V4L2_RAW},
139   {V4L2_PIX_FMT_YUV565, TRUE, GST_V4L2_RAW},
140   {V4L2_PIX_FMT_YUV32, TRUE, GST_V4L2_RAW},
141   {V4L2_PIX_FMT_YUV410, TRUE, GST_V4L2_RAW},
142   {V4L2_PIX_FMT_YUV420, TRUE, GST_V4L2_RAW},
143   {V4L2_PIX_FMT_YUV420M, TRUE, GST_V4L2_RAW},
144   {V4L2_PIX_FMT_HI240, TRUE, GST_V4L2_RAW},
145   {V4L2_PIX_FMT_HM12, TRUE, GST_V4L2_RAW},
146   {V4L2_PIX_FMT_M420, TRUE, GST_V4L2_RAW},
147
148   /* two planes -- one Y, one Cr + Cb interleaved  */
149   {V4L2_PIX_FMT_NV12, TRUE, GST_V4L2_RAW},
150   {V4L2_PIX_FMT_NV12M, TRUE, GST_V4L2_RAW},
151   {V4L2_PIX_FMT_NV12MT, TRUE, GST_V4L2_RAW},
152   {V4L2_PIX_FMT_NV12MT_16X16, TRUE, GST_V4L2_RAW},
153   {V4L2_PIX_FMT_NV21, TRUE, GST_V4L2_RAW},
154   {V4L2_PIX_FMT_NV21M, TRUE, GST_V4L2_RAW},
155   {V4L2_PIX_FMT_NV16, TRUE, GST_V4L2_RAW},
156   {V4L2_PIX_FMT_NV16M, TRUE, GST_V4L2_RAW},
157   {V4L2_PIX_FMT_NV61, TRUE, GST_V4L2_RAW},
158   {V4L2_PIX_FMT_NV61M, TRUE, GST_V4L2_RAW},
159   {V4L2_PIX_FMT_NV24, TRUE, GST_V4L2_RAW},
160   {V4L2_PIX_FMT_NV42, TRUE, GST_V4L2_RAW},
161
162   /* Bayer formats - see http://www.siliconimaging.com/RGB%20Bayer.htm */
163   {V4L2_PIX_FMT_SBGGR8, TRUE, GST_V4L2_CODEC},
164   {V4L2_PIX_FMT_SGBRG8, TRUE, GST_V4L2_CODEC},
165   {V4L2_PIX_FMT_SGRBG8, TRUE, GST_V4L2_CODEC},
166   {V4L2_PIX_FMT_SRGGB8, TRUE, GST_V4L2_CODEC},
167
168   /* compressed formats */
169   {V4L2_PIX_FMT_MJPEG, FALSE, GST_V4L2_CODEC},
170   {V4L2_PIX_FMT_JPEG, FALSE, GST_V4L2_CODEC},
171   {V4L2_PIX_FMT_PJPG, FALSE, GST_V4L2_CODEC},
172   {V4L2_PIX_FMT_DV, FALSE, GST_V4L2_TRANSPORT},
173   {V4L2_PIX_FMT_MPEG, FALSE, GST_V4L2_TRANSPORT},
174   {V4L2_PIX_FMT_H264, FALSE, GST_V4L2_CODEC},
175   {V4L2_PIX_FMT_H264_NO_SC, FALSE, GST_V4L2_CODEC},
176   {V4L2_PIX_FMT_H264_MVC, FALSE, GST_V4L2_CODEC},
177   {V4L2_PIX_FMT_H263, FALSE, GST_V4L2_CODEC},
178   {V4L2_PIX_FMT_MPEG1, FALSE, GST_V4L2_CODEC},
179   {V4L2_PIX_FMT_MPEG2, FALSE, GST_V4L2_CODEC},
180   {V4L2_PIX_FMT_MPEG4, FALSE, GST_V4L2_CODEC},
181   {V4L2_PIX_FMT_XVID, FALSE, GST_V4L2_CODEC},
182   {V4L2_PIX_FMT_VC1_ANNEX_G, FALSE, GST_V4L2_CODEC},
183   {V4L2_PIX_FMT_VC1_ANNEX_L, FALSE, GST_V4L2_CODEC},
184   {V4L2_PIX_FMT_VP8, FALSE, GST_V4L2_CODEC | GST_V4L2_NO_PARSE},
185
186   /*  Vendor-specific formats   */
187   {V4L2_PIX_FMT_WNVA, TRUE, GST_V4L2_CODEC},
188   {V4L2_PIX_FMT_SN9C10X, TRUE, GST_V4L2_CODEC},
189   {V4L2_PIX_FMT_PWC1, TRUE, GST_V4L2_CODEC},
190   {V4L2_PIX_FMT_PWC2, TRUE, GST_V4L2_CODEC},
191 };
192
193 #define GST_V4L2_FORMAT_COUNT (G_N_ELEMENTS (gst_v4l2_formats))
194
195 static GSList *gst_v4l2_object_get_format_list (GstV4l2Object * v4l2object);
196
197
198 #define GST_TYPE_V4L2_DEVICE_FLAGS (gst_v4l2_device_get_type ())
199 static GType
200 gst_v4l2_device_get_type (void)
201 {
202   static GType v4l2_device_type = 0;
203
204   if (v4l2_device_type == 0) {
205     static const GFlagsValue values[] = {
206       {V4L2_CAP_VIDEO_CAPTURE, "Device supports video capture", "capture"},
207       {V4L2_CAP_VIDEO_OUTPUT, "Device supports video playback", "output"},
208       {V4L2_CAP_VIDEO_OVERLAY, "Device supports video overlay", "overlay"},
209
210       {V4L2_CAP_VBI_CAPTURE, "Device supports the VBI capture", "vbi-capture"},
211       {V4L2_CAP_VBI_OUTPUT, "Device supports the VBI output", "vbi-output"},
212
213       {V4L2_CAP_TUNER, "Device has a tuner or modulator", "tuner"},
214       {V4L2_CAP_AUDIO, "Device has audio inputs or outputs", "audio"},
215
216       {0, NULL, NULL}
217     };
218
219     v4l2_device_type =
220         g_flags_register_static ("GstV4l2DeviceTypeFlags", values);
221   }
222
223   return v4l2_device_type;
224 }
225
226 #define GST_TYPE_V4L2_TV_NORM (gst_v4l2_tv_norm_get_type ())
227 static GType
228 gst_v4l2_tv_norm_get_type (void)
229 {
230   static GType v4l2_tv_norm = 0;
231
232   if (!v4l2_tv_norm) {
233     static const GEnumValue tv_norms[] = {
234       {0, "none", "none"},
235
236       {V4L2_STD_NTSC, "NTSC", "NTSC"},
237       {V4L2_STD_NTSC_M, "NTSC-M", "NTSC-M"},
238       {V4L2_STD_NTSC_M_JP, "NTSC-M-JP", "NTSC-M-JP"},
239       {V4L2_STD_NTSC_M_KR, "NTSC-M-KR", "NTSC-M-KR"},
240       {V4L2_STD_NTSC_443, "NTSC-443", "NTSC-443"},
241
242       {V4L2_STD_PAL, "PAL", "PAL"},
243       {V4L2_STD_PAL_BG, "PAL-BG", "PAL-BG"},
244       {V4L2_STD_PAL_B, "PAL-B", "PAL-B"},
245       {V4L2_STD_PAL_B1, "PAL-B1", "PAL-B1"},
246       {V4L2_STD_PAL_G, "PAL-G", "PAL-G"},
247       {V4L2_STD_PAL_H, "PAL-H", "PAL-H"},
248       {V4L2_STD_PAL_I, "PAL-I", "PAL-I"},
249       {V4L2_STD_PAL_DK, "PAL-DK", "PAL-DK"},
250       {V4L2_STD_PAL_D, "PAL-D", "PAL-D"},
251       {V4L2_STD_PAL_D1, "PAL-D1", "PAL-D1"},
252       {V4L2_STD_PAL_K, "PAL-K", "PAL-K"},
253       {V4L2_STD_PAL_M, "PAL-M", "PAL-M"},
254       {V4L2_STD_PAL_N, "PAL-N", "PAL-N"},
255       {V4L2_STD_PAL_Nc, "PAL-Nc", "PAL-Nc"},
256       {V4L2_STD_PAL_60, "PAL-60", "PAL-60"},
257
258       {V4L2_STD_SECAM, "SECAM", "SECAM"},
259       {V4L2_STD_SECAM_B, "SECAM-B", "SECAM-B"},
260       {V4L2_STD_SECAM_G, "SECAM-G", "SECAM-G"},
261       {V4L2_STD_SECAM_H, "SECAM-H", "SECAM-H"},
262       {V4L2_STD_SECAM_DK, "SECAM-DK", "SECAM-DK"},
263       {V4L2_STD_SECAM_D, "SECAM-D", "SECAM-D"},
264       {V4L2_STD_SECAM_K, "SECAM-K", "SECAM-K"},
265       {V4L2_STD_SECAM_K1, "SECAM-K1", "SECAM-K1"},
266       {V4L2_STD_SECAM_L, "SECAM-L", "SECAM-L"},
267       {V4L2_STD_SECAM_LC, "SECAM-Lc", "SECAM-Lc"},
268
269       {0, NULL, NULL}
270     };
271
272     v4l2_tv_norm = g_enum_register_static ("V4L2_TV_norms", tv_norms);
273   }
274
275   return v4l2_tv_norm;
276 }
277
278 GType
279 gst_v4l2_io_mode_get_type (void)
280 {
281   static GType v4l2_io_mode = 0;
282
283   if (!v4l2_io_mode) {
284     static const GEnumValue io_modes[] = {
285       {GST_V4L2_IO_AUTO, "GST_V4L2_IO_AUTO", "auto"},
286       {GST_V4L2_IO_RW, "GST_V4L2_IO_RW", "rw"},
287       {GST_V4L2_IO_MMAP, "GST_V4L2_IO_MMAP", "mmap"},
288       {GST_V4L2_IO_USERPTR, "GST_V4L2_IO_USERPTR", "userptr"},
289       {GST_V4L2_IO_DMABUF, "GST_V4L2_IO_DMABUF", "dmabuf"},
290       {GST_V4L2_IO_DMABUF_IMPORT, "GST_V4L2_IO_DMABUF_IMPORT",
291           "dmabuf-import"},
292
293       {0, NULL, NULL}
294     };
295     v4l2_io_mode = g_enum_register_static ("GstV4l2IOMode", io_modes);
296   }
297   return v4l2_io_mode;
298 }
299
300 void
301 gst_v4l2_object_install_properties_helper (GObjectClass * gobject_class,
302     const char *default_device)
303 {
304   g_object_class_install_property (gobject_class, PROP_DEVICE,
305       g_param_spec_string ("device", "Device", "Device location",
306           default_device, G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
307   g_object_class_install_property (gobject_class, PROP_DEVICE_NAME,
308       g_param_spec_string ("device-name", "Device name",
309           "Name of the device", DEFAULT_PROP_DEVICE_NAME,
310           G_PARAM_READABLE | G_PARAM_STATIC_STRINGS));
311   g_object_class_install_property (gobject_class, PROP_DEVICE_FD,
312       g_param_spec_int ("device-fd", "File descriptor",
313           "File descriptor of the device", -1, G_MAXINT, DEFAULT_PROP_DEVICE_FD,
314           G_PARAM_READABLE | G_PARAM_STATIC_STRINGS));
315   g_object_class_install_property (gobject_class, PROP_FLAGS,
316       g_param_spec_flags ("flags", "Flags", "Device type flags",
317           GST_TYPE_V4L2_DEVICE_FLAGS, DEFAULT_PROP_FLAGS,
318           G_PARAM_READABLE | G_PARAM_STATIC_STRINGS));
319
320   /**
321    * GstV4l2Src:brightness:
322    *
323    * Picture brightness, or more precisely, the black level
324    */
325   g_object_class_install_property (gobject_class, PROP_BRIGHTNESS,
326       g_param_spec_int ("brightness", "Brightness",
327           "Picture brightness, or more precisely, the black level", G_MININT,
328           G_MAXINT, 0,
329           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS | GST_PARAM_CONTROLLABLE));
330   /**
331    * GstV4l2Src:contrast:
332    *
333    * Picture contrast or luma gain
334    */
335   g_object_class_install_property (gobject_class, PROP_CONTRAST,
336       g_param_spec_int ("contrast", "Contrast",
337           "Picture contrast or luma gain", G_MININT,
338           G_MAXINT, 0,
339           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS | GST_PARAM_CONTROLLABLE));
340   /**
341    * GstV4l2Src:saturation:
342    *
343    * Picture color saturation or chroma gain
344    */
345   g_object_class_install_property (gobject_class, PROP_SATURATION,
346       g_param_spec_int ("saturation", "Saturation",
347           "Picture color saturation or chroma gain", G_MININT,
348           G_MAXINT, 0,
349           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS | GST_PARAM_CONTROLLABLE));
350   /**
351    * GstV4l2Src:hue:
352    *
353    * Hue or color balance
354    */
355   g_object_class_install_property (gobject_class, PROP_HUE,
356       g_param_spec_int ("hue", "Hue",
357           "Hue or color balance", G_MININT,
358           G_MAXINT, 0,
359           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS | GST_PARAM_CONTROLLABLE));
360
361   /**
362    * GstV4l2Src:norm:
363    *
364    * TV norm
365    */
366   g_object_class_install_property (gobject_class, PROP_TV_NORM,
367       g_param_spec_enum ("norm", "TV norm",
368           "video standard",
369           GST_TYPE_V4L2_TV_NORM, DEFAULT_PROP_TV_NORM,
370           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
371
372   /**
373    * GstV4l2Src:io-mode:
374    *
375    * IO Mode
376    */
377   g_object_class_install_property (gobject_class, PROP_IO_MODE,
378       g_param_spec_enum ("io-mode", "IO mode",
379           "I/O mode",
380           GST_TYPE_V4L2_IO_MODE, DEFAULT_PROP_IO_MODE,
381           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
382
383   /**
384    * GstV4l2Src:extra-controls:
385    *
386    * Additional v4l2 controls for the device. The controls are identified
387    * by the control name (lowercase with '_' for any non-alphanumeric
388    * characters).
389    *
390    * Since: 1.2
391    */
392   g_object_class_install_property (gobject_class, PROP_EXTRA_CONTROLS,
393       g_param_spec_boxed ("extra-controls", "Extra Controls",
394           "Extra v4l2 controls (CIDs) for the device",
395           GST_TYPE_STRUCTURE, G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
396
397   /**
398    * GstV4l2Src:pixel-aspect-ratio:
399    *
400    * The pixel aspect ratio of the device. This overwrites the pixel aspect
401    * ratio queried from the device.
402    *
403    * Since: 1.2
404    */
405   g_object_class_install_property (gobject_class, PROP_PIXEL_ASPECT_RATIO,
406       g_param_spec_string ("pixel-aspect-ratio", "Pixel Aspect Ratio",
407           "Overwrite the pixel aspect ratio of the device", "1/1",
408           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
409
410   /**
411    * GstV4l2Src:force-aspect-ratio:
412    *
413    * When enabled, the pixel aspect ratio queried from the device or set
414    * with the pixel-aspect-ratio property will be enforced.
415    *
416    * Since: 1.2
417    */
418   g_object_class_install_property (gobject_class, PROP_FORCE_ASPECT_RATIO,
419       g_param_spec_boolean ("force-aspect-ratio", "Force aspect ratio",
420           "When enabled, the pixel aspect ratio will be enforced", TRUE,
421           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
422
423 }
424
425 void
426 gst_v4l2_object_install_m2m_properties_helper (GObjectClass * gobject_class)
427 {
428   g_object_class_install_property (gobject_class, PROP_DEVICE,
429       g_param_spec_string ("device", "Device", "Device location",
430           NULL, G_PARAM_READABLE | G_PARAM_STATIC_STRINGS));
431
432   g_object_class_install_property (gobject_class, PROP_DEVICE_NAME,
433       g_param_spec_string ("device-name", "Device name",
434           "Name of the device", DEFAULT_PROP_DEVICE_NAME,
435           G_PARAM_READABLE | G_PARAM_STATIC_STRINGS));
436
437   g_object_class_install_property (gobject_class, PROP_DEVICE_FD,
438       g_param_spec_int ("device-fd", "File descriptor",
439           "File descriptor of the device", -1, G_MAXINT, DEFAULT_PROP_DEVICE_FD,
440           G_PARAM_READABLE | G_PARAM_STATIC_STRINGS));
441
442   g_object_class_install_property (gobject_class, PROP_OUTPUT_IO_MODE,
443       g_param_spec_enum ("output-io-mode", "Output IO mode",
444           "Output side I/O mode (matches sink pad)",
445           GST_TYPE_V4L2_IO_MODE, DEFAULT_PROP_IO_MODE,
446           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
447
448   g_object_class_install_property (gobject_class, PROP_CAPTURE_IO_MODE,
449       g_param_spec_enum ("capture-io-mode", "Capture IO mode",
450           "Capture I/O mode (matches src pad)",
451           GST_TYPE_V4L2_IO_MODE, DEFAULT_PROP_IO_MODE,
452           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
453
454   g_object_class_install_property (gobject_class, PROP_EXTRA_CONTROLS,
455       g_param_spec_boxed ("extra-controls", "Extra Controls",
456           "Extra v4l2 controls (CIDs) for the device",
457           GST_TYPE_STRUCTURE, G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
458 }
459
460 GstV4l2Object *
461 gst_v4l2_object_new (GstElement * element,
462     enum v4l2_buf_type type,
463     const char *default_device,
464     GstV4l2GetInOutFunction get_in_out_func,
465     GstV4l2SetInOutFunction set_in_out_func,
466     GstV4l2UpdateFpsFunction update_fps_func)
467 {
468   GstV4l2Object *v4l2object;
469
470   /*
471    * some default values
472    */
473   v4l2object = g_new0 (GstV4l2Object, 1);
474
475   v4l2object->type = type;
476   v4l2object->formats = NULL;
477
478   v4l2object->element = element;
479   v4l2object->get_in_out_func = get_in_out_func;
480   v4l2object->set_in_out_func = set_in_out_func;
481   v4l2object->update_fps_func = update_fps_func;
482
483   v4l2object->video_fd = -1;
484   v4l2object->active = FALSE;
485   v4l2object->videodev = g_strdup (default_device);
486
487   v4l2object->norms = NULL;
488   v4l2object->channels = NULL;
489   v4l2object->colors = NULL;
490
491   v4l2object->xwindow_id = 0;
492
493   v4l2object->keep_aspect = TRUE;
494
495   v4l2object->n_v4l2_planes = 0;
496
497   v4l2object->no_initial_format = FALSE;
498
499   return v4l2object;
500 }
501
502 static gboolean gst_v4l2_object_clear_format_list (GstV4l2Object * v4l2object);
503
504
505 void
506 gst_v4l2_object_destroy (GstV4l2Object * v4l2object)
507 {
508   g_return_if_fail (v4l2object != NULL);
509
510   g_free (v4l2object->videodev);
511
512   g_free (v4l2object->channel);
513
514   if (v4l2object->formats) {
515     gst_v4l2_object_clear_format_list (v4l2object);
516   }
517
518   if (v4l2object->probed_caps) {
519     gst_caps_unref (v4l2object->probed_caps);
520   }
521
522   if (v4l2object->extra_controls) {
523     gst_structure_free (v4l2object->extra_controls);
524   }
525
526   g_free (v4l2object);
527 }
528
529
530 static gboolean
531 gst_v4l2_object_clear_format_list (GstV4l2Object * v4l2object)
532 {
533   g_slist_foreach (v4l2object->formats, (GFunc) g_free, NULL);
534   g_slist_free (v4l2object->formats);
535   v4l2object->formats = NULL;
536
537   return TRUE;
538 }
539
540 static gint
541 gst_v4l2_object_prop_to_cid (guint prop_id)
542 {
543   gint cid = -1;
544
545   switch (prop_id) {
546     case PROP_BRIGHTNESS:
547       cid = V4L2_CID_BRIGHTNESS;
548       break;
549     case PROP_CONTRAST:
550       cid = V4L2_CID_CONTRAST;
551       break;
552     case PROP_SATURATION:
553       cid = V4L2_CID_SATURATION;
554       break;
555     case PROP_HUE:
556       cid = V4L2_CID_HUE;
557       break;
558     default:
559       GST_WARNING ("unmapped property id: %d", prop_id);
560   }
561   return cid;
562 }
563
564
565 gboolean
566 gst_v4l2_object_set_property_helper (GstV4l2Object * v4l2object,
567     guint prop_id, const GValue * value, GParamSpec * pspec)
568 {
569   switch (prop_id) {
570     case PROP_DEVICE:
571       g_free (v4l2object->videodev);
572       v4l2object->videodev = g_value_dup_string (value);
573       break;
574     case PROP_BRIGHTNESS:
575     case PROP_CONTRAST:
576     case PROP_SATURATION:
577     case PROP_HUE:
578     {
579       gint cid = gst_v4l2_object_prop_to_cid (prop_id);
580
581       if (cid != -1) {
582         if (GST_V4L2_IS_OPEN (v4l2object)) {
583           gst_v4l2_set_attribute (v4l2object, cid, g_value_get_int (value));
584         }
585       }
586       return TRUE;
587     }
588       break;
589     case PROP_TV_NORM:
590       v4l2object->tv_norm = g_value_get_enum (value);
591       break;
592 #if 0
593     case PROP_CHANNEL:
594       if (GST_V4L2_IS_OPEN (v4l2object)) {
595         GstTuner *tuner = GST_TUNER (v4l2object->element);
596         GstTunerChannel *channel = gst_tuner_find_channel_by_name (tuner,
597             (gchar *) g_value_get_string (value));
598
599         if (channel) {
600           /* like gst_tuner_set_channel (tuner, channel)
601              without g_object_notify */
602           gst_v4l2_tuner_set_channel (v4l2object, channel);
603         }
604       } else {
605         g_free (v4l2object->channel);
606         v4l2object->channel = g_value_dup_string (value);
607       }
608       break;
609     case PROP_FREQUENCY:
610       if (GST_V4L2_IS_OPEN (v4l2object)) {
611         GstTuner *tuner = GST_TUNER (v4l2object->element);
612         GstTunerChannel *channel = gst_tuner_get_channel (tuner);
613
614         if (channel &&
615             GST_TUNER_CHANNEL_HAS_FLAG (channel, GST_TUNER_CHANNEL_FREQUENCY)) {
616           /* like
617              gst_tuner_set_frequency (tuner, channel, g_value_get_ulong (value))
618              without g_object_notify */
619           gst_v4l2_tuner_set_frequency (v4l2object, channel,
620               g_value_get_ulong (value));
621         }
622       } else {
623         v4l2object->frequency = g_value_get_ulong (value);
624       }
625       break;
626 #endif
627
628     case PROP_IO_MODE:
629       v4l2object->req_mode = g_value_get_enum (value);
630       break;
631     case PROP_CAPTURE_IO_MODE:
632       g_return_val_if_fail (!V4L2_TYPE_IS_OUTPUT (v4l2object->type), FALSE);
633       v4l2object->req_mode = g_value_get_enum (value);
634       break;
635     case PROP_OUTPUT_IO_MODE:
636       g_return_val_if_fail (V4L2_TYPE_IS_OUTPUT (v4l2object->type), FALSE);
637       v4l2object->req_mode = g_value_get_enum (value);
638       break;
639     case PROP_EXTRA_CONTROLS:{
640       const GstStructure *s = gst_value_get_structure (value);
641
642       if (v4l2object->extra_controls)
643         gst_structure_free (v4l2object->extra_controls);
644
645       v4l2object->extra_controls = s ? gst_structure_copy (s) : NULL;
646       if (GST_V4L2_IS_OPEN (v4l2object))
647         gst_v4l2_set_controls (v4l2object, v4l2object->extra_controls);
648       break;
649     }
650     case PROP_PIXEL_ASPECT_RATIO:
651       g_free (v4l2object->par);
652       v4l2object->par = g_new0 (GValue, 1);
653       g_value_init (v4l2object->par, GST_TYPE_FRACTION);
654       if (!g_value_transform (value, v4l2object->par)) {
655         g_warning ("Could not transform string to aspect ratio");
656         gst_value_set_fraction (v4l2object->par, 1, 1);
657       }
658       GST_DEBUG_OBJECT (v4l2object->element, "set PAR to %d/%d",
659           gst_value_get_fraction_numerator (v4l2object->par),
660           gst_value_get_fraction_denominator (v4l2object->par));
661       break;
662     case PROP_FORCE_ASPECT_RATIO:
663       v4l2object->keep_aspect = g_value_get_boolean (value);
664       break;
665     default:
666       return FALSE;
667       break;
668   }
669   return TRUE;
670 }
671
672
673 gboolean
674 gst_v4l2_object_get_property_helper (GstV4l2Object * v4l2object,
675     guint prop_id, GValue * value, GParamSpec * pspec)
676 {
677   switch (prop_id) {
678     case PROP_DEVICE:
679       g_value_set_string (value, v4l2object->videodev);
680       break;
681     case PROP_DEVICE_NAME:
682     {
683       const guchar *new = NULL;
684
685       if (GST_V4L2_IS_OPEN (v4l2object)) {
686         new = v4l2object->vcap.card;
687       } else if (gst_v4l2_open (v4l2object)) {
688         new = v4l2object->vcap.card;
689         gst_v4l2_close (v4l2object);
690       }
691       g_value_set_string (value, (gchar *) new);
692       break;
693     }
694     case PROP_DEVICE_FD:
695     {
696       if (GST_V4L2_IS_OPEN (v4l2object))
697         g_value_set_int (value, v4l2object->video_fd);
698       else
699         g_value_set_int (value, DEFAULT_PROP_DEVICE_FD);
700       break;
701     }
702     case PROP_FLAGS:
703     {
704       guint flags = 0;
705
706       if (GST_V4L2_IS_OPEN (v4l2object)) {
707         flags |= v4l2object->device_caps &
708             (V4L2_CAP_VIDEO_CAPTURE |
709             V4L2_CAP_VIDEO_OUTPUT |
710             V4L2_CAP_VIDEO_OVERLAY |
711             V4L2_CAP_VBI_CAPTURE |
712             V4L2_CAP_VBI_OUTPUT | V4L2_CAP_TUNER | V4L2_CAP_AUDIO);
713
714         if (v4l2object->device_caps & V4L2_CAP_VIDEO_CAPTURE_MPLANE)
715           flags |= V4L2_CAP_VIDEO_CAPTURE;
716
717         if (v4l2object->device_caps & V4L2_CAP_VIDEO_OUTPUT_MPLANE)
718           flags |= V4L2_CAP_VIDEO_OUTPUT;
719       }
720       g_value_set_flags (value, flags);
721       break;
722     }
723     case PROP_BRIGHTNESS:
724     case PROP_CONTRAST:
725     case PROP_SATURATION:
726     case PROP_HUE:
727     {
728       gint cid = gst_v4l2_object_prop_to_cid (prop_id);
729
730       if (cid != -1) {
731         if (GST_V4L2_IS_OPEN (v4l2object)) {
732           gint v;
733           if (gst_v4l2_get_attribute (v4l2object, cid, &v)) {
734             g_value_set_int (value, v);
735           }
736         }
737       }
738       return TRUE;
739     }
740       break;
741     case PROP_TV_NORM:
742       g_value_set_enum (value, v4l2object->tv_norm);
743       break;
744     case PROP_IO_MODE:
745       g_value_set_enum (value, v4l2object->req_mode);
746       break;
747     case PROP_CAPTURE_IO_MODE:
748       g_return_val_if_fail (!V4L2_TYPE_IS_OUTPUT (v4l2object->type), FALSE);
749       g_value_set_enum (value, v4l2object->req_mode);
750       break;
751     case PROP_OUTPUT_IO_MODE:
752       g_return_val_if_fail (V4L2_TYPE_IS_OUTPUT (v4l2object->type), FALSE);
753       g_value_set_enum (value, v4l2object->req_mode);
754       break;
755     case PROP_EXTRA_CONTROLS:
756       gst_value_set_structure (value, v4l2object->extra_controls);
757       break;
758     case PROP_PIXEL_ASPECT_RATIO:
759       if (v4l2object->par)
760         g_value_transform (v4l2object->par, value);
761       break;
762     case PROP_FORCE_ASPECT_RATIO:
763       g_value_set_boolean (value, v4l2object->keep_aspect);
764       break;
765     default:
766       return FALSE;
767       break;
768   }
769   return TRUE;
770 }
771
772 static void
773 gst_v4l2_get_driver_min_buffers (GstV4l2Object * v4l2object)
774 {
775   struct v4l2_control control = { 0, };
776
777   g_return_if_fail (GST_V4L2_IS_OPEN (v4l2object));
778
779   if (V4L2_TYPE_IS_OUTPUT (v4l2object->type))
780     control.id = V4L2_CID_MIN_BUFFERS_FOR_OUTPUT;
781   else
782     control.id = V4L2_CID_MIN_BUFFERS_FOR_CAPTURE;
783
784   if (v4l2_ioctl (v4l2object->video_fd, VIDIOC_G_CTRL, &control) == 0) {
785     GST_DEBUG_OBJECT (v4l2object->element,
786         "driver requires a minimum of %d buffers", control.value);
787     v4l2object->min_buffers = control.value;
788   } else {
789     v4l2object->min_buffers = 0;
790   }
791 }
792
793 static void
794 gst_v4l2_set_defaults (GstV4l2Object * v4l2object)
795 {
796   GstTunerNorm *norm = NULL;
797   GstTunerChannel *channel = NULL;
798   GstTuner *tuner;
799
800   if (!GST_IS_TUNER (v4l2object->element))
801     return;
802
803   tuner = GST_TUNER (v4l2object->element);
804
805   if (v4l2object->tv_norm)
806     norm = gst_v4l2_tuner_get_norm_by_std_id (v4l2object, v4l2object->tv_norm);
807   GST_DEBUG_OBJECT (v4l2object->element, "tv_norm=0x%" G_GINT64_MODIFIER "x, "
808       "norm=%p", (guint64) v4l2object->tv_norm, norm);
809   if (norm) {
810     gst_tuner_set_norm (tuner, norm);
811   } else {
812     norm =
813         GST_TUNER_NORM (gst_tuner_get_norm (GST_TUNER (v4l2object->element)));
814     if (norm) {
815       v4l2object->tv_norm =
816           gst_v4l2_tuner_get_std_id_by_norm (v4l2object, norm);
817       gst_tuner_norm_changed (tuner, norm);
818     }
819   }
820
821   if (v4l2object->channel)
822     channel = gst_tuner_find_channel_by_name (tuner, v4l2object->channel);
823   if (channel) {
824     gst_tuner_set_channel (tuner, channel);
825   } else {
826     channel =
827         GST_TUNER_CHANNEL (gst_tuner_get_channel (GST_TUNER
828             (v4l2object->element)));
829     if (channel) {
830       g_free (v4l2object->channel);
831       v4l2object->channel = g_strdup (channel->label);
832       gst_tuner_channel_changed (tuner, channel);
833     }
834   }
835
836   if (channel
837       && GST_TUNER_CHANNEL_HAS_FLAG (channel, GST_TUNER_CHANNEL_FREQUENCY)) {
838     if (v4l2object->frequency != 0) {
839       gst_tuner_set_frequency (tuner, channel, v4l2object->frequency);
840     } else {
841       v4l2object->frequency = gst_tuner_get_frequency (tuner, channel);
842       if (v4l2object->frequency == 0) {
843         /* guess */
844         gst_tuner_set_frequency (tuner, channel, 1000);
845       } else {
846       }
847     }
848   }
849 }
850
851 gboolean
852 gst_v4l2_object_open (GstV4l2Object * v4l2object)
853 {
854   if (gst_v4l2_open (v4l2object))
855     gst_v4l2_set_defaults (v4l2object);
856   else
857     return FALSE;
858
859   return TRUE;
860 }
861
862 gboolean
863 gst_v4l2_object_open_shared (GstV4l2Object * v4l2object, GstV4l2Object * other)
864 {
865   gboolean ret;
866
867   ret = gst_v4l2_dup (v4l2object, other);
868
869   return ret;
870 }
871
872 gboolean
873 gst_v4l2_object_close (GstV4l2Object * v4l2object)
874 {
875   if (!gst_v4l2_close (v4l2object))
876     return FALSE;
877
878   gst_caps_replace (&v4l2object->probed_caps, NULL);
879
880   /* reset our copy of the device caps */
881   v4l2object->device_caps = 0;
882
883   if (v4l2object->formats) {
884     gst_v4l2_object_clear_format_list (v4l2object);
885   }
886
887   return TRUE;
888 }
889
890 static struct v4l2_fmtdesc *
891 gst_v4l2_object_get_format_from_fourcc (GstV4l2Object * v4l2object,
892     guint32 fourcc)
893 {
894   struct v4l2_fmtdesc *fmt;
895   GSList *walk;
896
897   if (fourcc == 0)
898     return NULL;
899
900   walk = gst_v4l2_object_get_format_list (v4l2object);
901   while (walk) {
902     fmt = (struct v4l2_fmtdesc *) walk->data;
903     if (fmt->pixelformat == fourcc)
904       return fmt;
905     /* special case for jpeg */
906     if (fmt->pixelformat == V4L2_PIX_FMT_MJPEG ||
907         fmt->pixelformat == V4L2_PIX_FMT_JPEG ||
908         fmt->pixelformat == V4L2_PIX_FMT_PJPG) {
909       if (fourcc == V4L2_PIX_FMT_JPEG || fourcc == V4L2_PIX_FMT_MJPEG ||
910           fourcc == V4L2_PIX_FMT_PJPG) {
911         return fmt;
912       }
913     }
914     walk = g_slist_next (walk);
915   }
916
917   return NULL;
918 }
919
920
921
922 /* complete made up ranking, the values themselves are meaningless */
923 /* These ranks MUST be X such that X<<15 fits on a signed int - see
924    the comment at the end of gst_v4l2_object_format_get_rank. */
925 #define YUV_BASE_RANK     1000
926 #define JPEG_BASE_RANK     500
927 #define DV_BASE_RANK       200
928 #define RGB_BASE_RANK      100
929 #define YUV_ODD_BASE_RANK   50
930 #define RGB_ODD_BASE_RANK   25
931 #define BAYER_BASE_RANK     15
932 #define S910_BASE_RANK      10
933 #define GREY_BASE_RANK       5
934 #define PWC_BASE_RANK        1
935
936 static gint
937 gst_v4l2_object_format_get_rank (const struct v4l2_fmtdesc *fmt)
938 {
939   guint32 fourcc = fmt->pixelformat;
940   gboolean emulated = ((fmt->flags & V4L2_FMT_FLAG_EMULATED) != 0);
941   gint rank = 0;
942
943   switch (fourcc) {
944     case V4L2_PIX_FMT_MJPEG:
945     case V4L2_PIX_FMT_PJPG:
946       rank = JPEG_BASE_RANK;
947       break;
948     case V4L2_PIX_FMT_JPEG:
949       rank = JPEG_BASE_RANK + 1;
950       break;
951     case V4L2_PIX_FMT_MPEG:    /* MPEG          */
952       rank = JPEG_BASE_RANK + 2;
953       break;
954
955     case V4L2_PIX_FMT_RGB332:
956     case V4L2_PIX_FMT_ARGB555:
957     case V4L2_PIX_FMT_XRGB555:
958     case V4L2_PIX_FMT_RGB555:
959     case V4L2_PIX_FMT_ARGB555X:
960     case V4L2_PIX_FMT_XRGB555X:
961     case V4L2_PIX_FMT_RGB555X:
962     case V4L2_PIX_FMT_BGR666:
963     case V4L2_PIX_FMT_RGB565:
964     case V4L2_PIX_FMT_RGB565X:
965     case V4L2_PIX_FMT_RGB444:
966     case V4L2_PIX_FMT_Y4:
967     case V4L2_PIX_FMT_Y6:
968     case V4L2_PIX_FMT_Y10:
969     case V4L2_PIX_FMT_Y12:
970     case V4L2_PIX_FMT_Y10BPACK:
971     case V4L2_PIX_FMT_YUV555:
972     case V4L2_PIX_FMT_YUV565:
973     case V4L2_PIX_FMT_YUV32:
974     case V4L2_PIX_FMT_NV12MT_16X16:
975     case V4L2_PIX_FMT_NV42:
976     case V4L2_PIX_FMT_H264_MVC:
977       rank = RGB_ODD_BASE_RANK;
978       break;
979
980     case V4L2_PIX_FMT_RGB24:
981     case V4L2_PIX_FMT_BGR24:
982       rank = RGB_BASE_RANK - 1;
983       break;
984
985     case V4L2_PIX_FMT_RGB32:
986     case V4L2_PIX_FMT_BGR32:
987     case V4L2_PIX_FMT_ABGR32:
988     case V4L2_PIX_FMT_XBGR32:
989     case V4L2_PIX_FMT_ARGB32:
990     case V4L2_PIX_FMT_XRGB32:
991       rank = RGB_BASE_RANK;
992       break;
993
994     case V4L2_PIX_FMT_GREY:    /*  8  Greyscale     */
995       rank = GREY_BASE_RANK;
996       break;
997
998     case V4L2_PIX_FMT_NV12:    /* 12  Y/CbCr 4:2:0  */
999     case V4L2_PIX_FMT_NV12M:   /* Same as NV12      */
1000     case V4L2_PIX_FMT_NV12MT:  /* NV12 64x32 tile   */
1001     case V4L2_PIX_FMT_NV21:    /* 12  Y/CrCb 4:2:0  */
1002     case V4L2_PIX_FMT_NV21M:   /* Same as NV21      */
1003     case V4L2_PIX_FMT_YYUV:    /* 16  YUV 4:2:2     */
1004     case V4L2_PIX_FMT_HI240:   /*  8  8-bit color   */
1005     case V4L2_PIX_FMT_NV16:    /* 16  Y/CbCr 4:2:2  */
1006     case V4L2_PIX_FMT_NV16M:   /* Same as NV16      */
1007     case V4L2_PIX_FMT_NV61:    /* 16  Y/CrCb 4:2:2  */
1008     case V4L2_PIX_FMT_NV61M:   /* Same as NV61      */
1009     case V4L2_PIX_FMT_NV24:    /* 24  Y/CrCb 4:4:4  */
1010       rank = YUV_ODD_BASE_RANK;
1011       break;
1012
1013     case V4L2_PIX_FMT_YVU410:  /* YVU9,  9 bits per pixel */
1014       rank = YUV_BASE_RANK + 3;
1015       break;
1016     case V4L2_PIX_FMT_YUV410:  /* YUV9,  9 bits per pixel */
1017       rank = YUV_BASE_RANK + 2;
1018       break;
1019     case V4L2_PIX_FMT_YUV420:  /* I420, 12 bits per pixel */
1020     case V4L2_PIX_FMT_YUV420M:
1021       rank = YUV_BASE_RANK + 7;
1022       break;
1023     case V4L2_PIX_FMT_YUYV:    /* YUY2, 16 bits per pixel */
1024       rank = YUV_BASE_RANK + 10;
1025       break;
1026     case V4L2_PIX_FMT_YVU420:  /* YV12, 12 bits per pixel */
1027       rank = YUV_BASE_RANK + 6;
1028       break;
1029     case V4L2_PIX_FMT_UYVY:    /* UYVY, 16 bits per pixel */
1030       rank = YUV_BASE_RANK + 9;
1031       break;
1032     case V4L2_PIX_FMT_YUV444:
1033       rank = YUV_BASE_RANK + 6;
1034       break;
1035     case V4L2_PIX_FMT_Y41P:    /* Y41P, 12 bits per pixel */
1036       rank = YUV_BASE_RANK + 5;
1037       break;
1038     case V4L2_PIX_FMT_YUV411P: /* Y41B, 12 bits per pixel */
1039       rank = YUV_BASE_RANK + 4;
1040       break;
1041     case V4L2_PIX_FMT_YUV422P: /* Y42B, 16 bits per pixel */
1042       rank = YUV_BASE_RANK + 8;
1043       break;
1044
1045     case V4L2_PIX_FMT_DV:
1046       rank = DV_BASE_RANK;
1047       break;
1048
1049     case V4L2_PIX_FMT_WNVA:    /* Winnov hw compres */
1050       rank = 0;
1051       break;
1052
1053     case V4L2_PIX_FMT_SBGGR8:
1054     case V4L2_PIX_FMT_SGBRG8:
1055     case V4L2_PIX_FMT_SGRBG8:
1056     case V4L2_PIX_FMT_SRGGB8:
1057       rank = BAYER_BASE_RANK;
1058       break;
1059
1060     case V4L2_PIX_FMT_SN9C10X:
1061       rank = S910_BASE_RANK;
1062       break;
1063
1064     case V4L2_PIX_FMT_PWC1:
1065       rank = PWC_BASE_RANK;
1066       break;
1067     case V4L2_PIX_FMT_PWC2:
1068       rank = PWC_BASE_RANK;
1069       break;
1070
1071     default:
1072       rank = 0;
1073       break;
1074   }
1075
1076   /* All ranks are below 1<<15 so a shift by 15
1077    * will a) make all non-emulated formats larger
1078    * than emulated and b) will not overflow
1079    */
1080   if (!emulated)
1081     rank <<= 15;
1082
1083   return rank;
1084 }
1085
1086
1087
1088 static gint
1089 format_cmp_func (gconstpointer a, gconstpointer b)
1090 {
1091   const struct v4l2_fmtdesc *fa = a;
1092   const struct v4l2_fmtdesc *fb = b;
1093
1094   if (fa->pixelformat == fb->pixelformat)
1095     return 0;
1096
1097   return gst_v4l2_object_format_get_rank (fb) -
1098       gst_v4l2_object_format_get_rank (fa);
1099 }
1100
1101 /******************************************************
1102  * gst_v4l2_object_fill_format_list():
1103  *   create list of supported capture formats
1104  * return value: TRUE on success, FALSE on error
1105  ******************************************************/
1106 static gboolean
1107 gst_v4l2_object_fill_format_list (GstV4l2Object * v4l2object,
1108     enum v4l2_buf_type type)
1109 {
1110   gint n;
1111   struct v4l2_fmtdesc *format;
1112
1113   GST_DEBUG_OBJECT (v4l2object->element, "getting src format enumerations");
1114
1115   /* format enumeration */
1116   for (n = 0;; n++) {
1117     format = g_new0 (struct v4l2_fmtdesc, 1);
1118
1119     format->index = n;
1120     format->type = type;
1121
1122     if (v4l2_ioctl (v4l2object->video_fd, VIDIOC_ENUM_FMT, format) < 0) {
1123       if (errno == EINVAL) {
1124         g_free (format);
1125         break;                  /* end of enumeration */
1126       } else {
1127         goto failed;
1128       }
1129     }
1130
1131     GST_LOG_OBJECT (v4l2object->element, "index:       %u", format->index);
1132     GST_LOG_OBJECT (v4l2object->element, "type:        %d", format->type);
1133     GST_LOG_OBJECT (v4l2object->element, "flags:       %08x", format->flags);
1134     GST_LOG_OBJECT (v4l2object->element, "description: '%s'",
1135         format->description);
1136     GST_LOG_OBJECT (v4l2object->element, "pixelformat: %" GST_FOURCC_FORMAT,
1137         GST_FOURCC_ARGS (format->pixelformat));
1138
1139     /* sort formats according to our preference;  we do this, because caps
1140      * are probed in the order the formats are in the list, and the order of
1141      * formats in the final probed caps matters for things like fixation */
1142     v4l2object->formats = g_slist_insert_sorted (v4l2object->formats, format,
1143         (GCompareFunc) format_cmp_func);
1144   }
1145
1146 #ifndef GST_DISABLE_GST_DEBUG
1147   {
1148     GSList *l;
1149
1150     GST_INFO_OBJECT (v4l2object->element, "got %d format(s):", n);
1151     for (l = v4l2object->formats; l != NULL; l = l->next) {
1152       format = l->data;
1153
1154       GST_INFO_OBJECT (v4l2object->element,
1155           "  %" GST_FOURCC_FORMAT "%s", GST_FOURCC_ARGS (format->pixelformat),
1156           ((format->flags & V4L2_FMT_FLAG_EMULATED)) ? " (emulated)" : "");
1157     }
1158   }
1159 #endif
1160
1161   return TRUE;
1162
1163   /* ERRORS */
1164 failed:
1165   {
1166     g_free (format);
1167
1168     if (!GST_IS_ELEMENT (v4l2object->element))
1169       return FALSE;
1170
1171     GST_ELEMENT_ERROR (v4l2object->element, RESOURCE, SETTINGS,
1172         (_("Failed to enumerate possible video formats device '%s' can work "
1173                 "with"), v4l2object->videodev),
1174         ("Failed to get number %d in pixelformat enumeration for %s. (%d - %s)",
1175             n, v4l2object->videodev, errno, g_strerror (errno)));
1176
1177     return FALSE;
1178   }
1179 }
1180
1181 /*
1182   * Get the list of supported capture formats, a list of
1183   * <code>struct v4l2_fmtdesc</code>.
1184   */
1185 static GSList *
1186 gst_v4l2_object_get_format_list (GstV4l2Object * v4l2object)
1187 {
1188   if (!v4l2object->formats) {
1189
1190     /* check usual way */
1191     gst_v4l2_object_fill_format_list (v4l2object, v4l2object->type);
1192
1193     /* if our driver supports multi-planar
1194      * and if formats are still empty then we can workaround driver bug
1195      * by also looking up formats as if our device was not supporting
1196      * multiplanar */
1197     if (!v4l2object->formats) {
1198       switch (v4l2object->type) {
1199         case V4L2_BUF_TYPE_VIDEO_CAPTURE_MPLANE:
1200           gst_v4l2_object_fill_format_list (v4l2object,
1201               V4L2_BUF_TYPE_VIDEO_CAPTURE);
1202           break;
1203
1204         case V4L2_BUF_TYPE_VIDEO_OUTPUT_MPLANE:
1205           gst_v4l2_object_fill_format_list (v4l2object,
1206               V4L2_BUF_TYPE_VIDEO_OUTPUT);
1207           break;
1208
1209         default:
1210           break;
1211       }
1212     }
1213   }
1214   return v4l2object->formats;
1215 }
1216
1217 static GstVideoFormat
1218 gst_v4l2_object_v4l2fourcc_to_video_format (guint32 fourcc)
1219 {
1220   GstVideoFormat format;
1221
1222   switch (fourcc) {
1223     case V4L2_PIX_FMT_GREY:    /*  8  Greyscale     */
1224       format = GST_VIDEO_FORMAT_GRAY8;
1225       break;
1226     case V4L2_PIX_FMT_Y16:
1227       format = GST_VIDEO_FORMAT_GRAY16_LE;
1228       break;
1229     case V4L2_PIX_FMT_Y16_BE:
1230       format = GST_VIDEO_FORMAT_GRAY16_BE;
1231       break;
1232     case V4L2_PIX_FMT_XRGB555:
1233     case V4L2_PIX_FMT_RGB555:
1234       format = GST_VIDEO_FORMAT_RGB15;
1235       break;
1236     case V4L2_PIX_FMT_XRGB555X:
1237     case V4L2_PIX_FMT_RGB555X:
1238       format = GST_VIDEO_FORMAT_BGR15;
1239       break;
1240     case V4L2_PIX_FMT_RGB565:
1241       format = GST_VIDEO_FORMAT_RGB16;
1242       break;
1243     case V4L2_PIX_FMT_RGB24:
1244       format = GST_VIDEO_FORMAT_RGB;
1245       break;
1246     case V4L2_PIX_FMT_BGR24:
1247       format = GST_VIDEO_FORMAT_BGR;
1248       break;
1249     case V4L2_PIX_FMT_XRGB32:
1250     case V4L2_PIX_FMT_RGB32:
1251       format = GST_VIDEO_FORMAT_xRGB;
1252       break;
1253     case V4L2_PIX_FMT_XBGR32:
1254     case V4L2_PIX_FMT_BGR32:
1255       format = GST_VIDEO_FORMAT_BGRx;
1256       break;
1257     case V4L2_PIX_FMT_ABGR32:
1258       format = GST_VIDEO_FORMAT_BGRA;
1259       break;
1260     case V4L2_PIX_FMT_ARGB32:
1261       format = GST_VIDEO_FORMAT_ARGB;
1262       break;
1263     case V4L2_PIX_FMT_NV12:
1264     case V4L2_PIX_FMT_NV12M:
1265       format = GST_VIDEO_FORMAT_NV12;
1266       break;
1267     case V4L2_PIX_FMT_NV12MT:
1268       format = GST_VIDEO_FORMAT_NV12_64Z32;
1269       break;
1270     case V4L2_PIX_FMT_NV21:
1271     case V4L2_PIX_FMT_NV21M:
1272       format = GST_VIDEO_FORMAT_NV21;
1273       break;
1274     case V4L2_PIX_FMT_YVU410:
1275       format = GST_VIDEO_FORMAT_YVU9;
1276       break;
1277     case V4L2_PIX_FMT_YUV410:
1278       format = GST_VIDEO_FORMAT_YUV9;
1279       break;
1280     case V4L2_PIX_FMT_YUV420:
1281     case V4L2_PIX_FMT_YUV420M:
1282       format = GST_VIDEO_FORMAT_I420;
1283       break;
1284     case V4L2_PIX_FMT_YUYV:
1285       format = GST_VIDEO_FORMAT_YUY2;
1286       break;
1287     case V4L2_PIX_FMT_YVU420:
1288       format = GST_VIDEO_FORMAT_YV12;
1289       break;
1290     case V4L2_PIX_FMT_UYVY:
1291       format = GST_VIDEO_FORMAT_UYVY;
1292       break;
1293     case V4L2_PIX_FMT_YUV411P:
1294       format = GST_VIDEO_FORMAT_Y41B;
1295       break;
1296     case V4L2_PIX_FMT_YUV422P:
1297       format = GST_VIDEO_FORMAT_Y42B;
1298       break;
1299     case V4L2_PIX_FMT_YVYU:
1300       format = GST_VIDEO_FORMAT_YVYU;
1301       break;
1302     case V4L2_PIX_FMT_NV16:
1303     case V4L2_PIX_FMT_NV16M:
1304       format = GST_VIDEO_FORMAT_NV16;
1305       break;
1306     case V4L2_PIX_FMT_NV61:
1307     case V4L2_PIX_FMT_NV61M:
1308       format = GST_VIDEO_FORMAT_NV61;
1309       break;
1310     case V4L2_PIX_FMT_NV24:
1311       format = GST_VIDEO_FORMAT_NV24;
1312       break;
1313     default:
1314       format = GST_VIDEO_FORMAT_UNKNOWN;
1315       break;
1316   }
1317
1318   return format;
1319 }
1320
1321 static gboolean
1322 gst_v4l2_object_v4l2fourcc_is_rgb (guint32 fourcc)
1323 {
1324   gboolean ret = FALSE;
1325
1326   switch (fourcc) {
1327     case V4L2_PIX_FMT_XRGB555:
1328     case V4L2_PIX_FMT_RGB555:
1329     case V4L2_PIX_FMT_XRGB555X:
1330     case V4L2_PIX_FMT_RGB555X:
1331     case V4L2_PIX_FMT_RGB565:
1332     case V4L2_PIX_FMT_RGB24:
1333     case V4L2_PIX_FMT_BGR24:
1334     case V4L2_PIX_FMT_XRGB32:
1335     case V4L2_PIX_FMT_RGB32:
1336     case V4L2_PIX_FMT_XBGR32:
1337     case V4L2_PIX_FMT_BGR32:
1338     case V4L2_PIX_FMT_ABGR32:
1339     case V4L2_PIX_FMT_ARGB32:
1340       ret = TRUE;
1341       break;
1342     default:
1343       break;
1344   }
1345
1346   return ret;
1347 }
1348
1349 static GstStructure *
1350 gst_v4l2_object_v4l2fourcc_to_bare_struct (guint32 fourcc)
1351 {
1352   GstStructure *structure = NULL;
1353
1354   switch (fourcc) {
1355     case V4L2_PIX_FMT_MJPEG:   /* Motion-JPEG */
1356     case V4L2_PIX_FMT_PJPG:    /* Progressive-JPEG */
1357     case V4L2_PIX_FMT_JPEG:    /* JFIF JPEG */
1358       structure = gst_structure_new_empty ("image/jpeg");
1359       break;
1360     case V4L2_PIX_FMT_MPEG1:
1361       structure = gst_structure_new ("video/mpeg",
1362           "mpegversion", G_TYPE_INT, 2, NULL);
1363       break;
1364     case V4L2_PIX_FMT_MPEG2:
1365       structure = gst_structure_new ("video/mpeg",
1366           "mpegversion", G_TYPE_INT, 2, NULL);
1367       break;
1368     case V4L2_PIX_FMT_MPEG4:
1369     case V4L2_PIX_FMT_XVID:
1370       structure = gst_structure_new ("video/mpeg",
1371           "mpegversion", G_TYPE_INT, 4, "systemstream",
1372           G_TYPE_BOOLEAN, FALSE, NULL);
1373       break;
1374     case V4L2_PIX_FMT_H263:
1375       structure = gst_structure_new ("video/x-h263",
1376           "variant", G_TYPE_STRING, "itu", NULL);
1377       break;
1378     case V4L2_PIX_FMT_H264:    /* H.264 */
1379       structure = gst_structure_new ("video/x-h264",
1380           "stream-format", G_TYPE_STRING, "byte-stream", "alignment",
1381           G_TYPE_STRING, "au", NULL);
1382       break;
1383     case V4L2_PIX_FMT_H264_NO_SC:
1384       structure = gst_structure_new ("video/x-h264",
1385           "stream-format", G_TYPE_STRING, "avc", "alignment",
1386           G_TYPE_STRING, "au", NULL);
1387       break;
1388     case V4L2_PIX_FMT_VC1_ANNEX_G:
1389     case V4L2_PIX_FMT_VC1_ANNEX_L:
1390       structure = gst_structure_new ("video/x-wmv",
1391           "wmvversion", G_TYPE_INT, 3, "format", G_TYPE_STRING, "WVC1", NULL);
1392       break;
1393     case V4L2_PIX_FMT_VP8:
1394       structure = gst_structure_new_empty ("video/x-vp8");
1395       break;
1396     case V4L2_PIX_FMT_GREY:    /*  8  Greyscale     */
1397     case V4L2_PIX_FMT_Y16:
1398     case V4L2_PIX_FMT_Y16_BE:
1399     case V4L2_PIX_FMT_XRGB555:
1400     case V4L2_PIX_FMT_RGB555:
1401     case V4L2_PIX_FMT_XRGB555X:
1402     case V4L2_PIX_FMT_RGB555X:
1403     case V4L2_PIX_FMT_RGB565:
1404     case V4L2_PIX_FMT_RGB24:
1405     case V4L2_PIX_FMT_BGR24:
1406     case V4L2_PIX_FMT_RGB32:
1407     case V4L2_PIX_FMT_XRGB32:
1408     case V4L2_PIX_FMT_ARGB32:
1409     case V4L2_PIX_FMT_BGR32:
1410     case V4L2_PIX_FMT_XBGR32:
1411     case V4L2_PIX_FMT_ABGR32:
1412     case V4L2_PIX_FMT_NV12:    /* 12  Y/CbCr 4:2:0  */
1413     case V4L2_PIX_FMT_NV12M:
1414     case V4L2_PIX_FMT_NV12MT:
1415     case V4L2_PIX_FMT_NV21:    /* 12  Y/CrCb 4:2:0  */
1416     case V4L2_PIX_FMT_NV21M:
1417     case V4L2_PIX_FMT_NV16:    /* 16  Y/CbCr 4:2:2  */
1418     case V4L2_PIX_FMT_NV16M:
1419     case V4L2_PIX_FMT_NV61:    /* 16  Y/CrCb 4:2:2  */
1420     case V4L2_PIX_FMT_NV61M:
1421     case V4L2_PIX_FMT_NV24:    /* 24  Y/CrCb 4:4:4  */
1422     case V4L2_PIX_FMT_YVU410:
1423     case V4L2_PIX_FMT_YUV410:
1424     case V4L2_PIX_FMT_YUV420:  /* I420/IYUV */
1425     case V4L2_PIX_FMT_YUV420M:
1426     case V4L2_PIX_FMT_YUYV:
1427     case V4L2_PIX_FMT_YVU420:
1428     case V4L2_PIX_FMT_UYVY:
1429     case V4L2_PIX_FMT_YUV422P:
1430     case V4L2_PIX_FMT_YVYU:
1431     case V4L2_PIX_FMT_YUV411P:{
1432       GstVideoFormat format;
1433       format = gst_v4l2_object_v4l2fourcc_to_video_format (fourcc);
1434       if (format != GST_VIDEO_FORMAT_UNKNOWN)
1435         structure = gst_structure_new ("video/x-raw",
1436             "format", G_TYPE_STRING, gst_video_format_to_string (format), NULL);
1437       break;
1438     }
1439     case V4L2_PIX_FMT_DV:
1440       structure =
1441           gst_structure_new ("video/x-dv", "systemstream", G_TYPE_BOOLEAN, TRUE,
1442           NULL);
1443       break;
1444     case V4L2_PIX_FMT_MPEG:    /* MPEG          */
1445       structure = gst_structure_new ("video/mpegts",
1446           "systemstream", G_TYPE_BOOLEAN, TRUE, NULL);
1447       break;
1448     case V4L2_PIX_FMT_WNVA:    /* Winnov hw compres */
1449       break;
1450     case V4L2_PIX_FMT_SBGGR8:
1451     case V4L2_PIX_FMT_SGBRG8:
1452     case V4L2_PIX_FMT_SGRBG8:
1453     case V4L2_PIX_FMT_SRGGB8:
1454       structure = gst_structure_new ("video/x-bayer", "format", G_TYPE_STRING,
1455           fourcc == V4L2_PIX_FMT_SBGGR8 ? "bggr" :
1456           fourcc == V4L2_PIX_FMT_SGBRG8 ? "gbrg" :
1457           fourcc == V4L2_PIX_FMT_SGRBG8 ? "grbg" :
1458           /* fourcc == V4L2_PIX_FMT_SRGGB8 ? */ "rggb", NULL);
1459       break;
1460     case V4L2_PIX_FMT_SN9C10X:
1461       structure = gst_structure_new_empty ("video/x-sonix");
1462       break;
1463     case V4L2_PIX_FMT_PWC1:
1464       structure = gst_structure_new_empty ("video/x-pwc1");
1465       break;
1466     case V4L2_PIX_FMT_PWC2:
1467       structure = gst_structure_new_empty ("video/x-pwc2");
1468       break;
1469     case V4L2_PIX_FMT_RGB332:
1470     case V4L2_PIX_FMT_BGR666:
1471     case V4L2_PIX_FMT_ARGB555X:
1472     case V4L2_PIX_FMT_RGB565X:
1473     case V4L2_PIX_FMT_RGB444:
1474     case V4L2_PIX_FMT_YYUV:    /* 16  YUV 4:2:2     */
1475     case V4L2_PIX_FMT_HI240:   /*  8  8-bit color   */
1476     case V4L2_PIX_FMT_Y4:
1477     case V4L2_PIX_FMT_Y6:
1478     case V4L2_PIX_FMT_Y10:
1479     case V4L2_PIX_FMT_Y12:
1480     case V4L2_PIX_FMT_Y10BPACK:
1481     case V4L2_PIX_FMT_YUV444:
1482     case V4L2_PIX_FMT_YUV555:
1483     case V4L2_PIX_FMT_YUV565:
1484     case V4L2_PIX_FMT_Y41P:
1485     case V4L2_PIX_FMT_YUV32:
1486     case V4L2_PIX_FMT_NV12MT_16X16:
1487     case V4L2_PIX_FMT_NV42:
1488     case V4L2_PIX_FMT_H264_MVC:
1489     default:
1490       GST_DEBUG ("Unsupported fourcc 0x%08x %" GST_FOURCC_FORMAT,
1491           fourcc, GST_FOURCC_ARGS (fourcc));
1492       break;
1493   }
1494
1495   return structure;
1496 }
1497
1498 GstStructure *
1499 gst_v4l2_object_v4l2fourcc_to_structure (guint32 fourcc)
1500 {
1501   GstStructure *template;
1502   gint i;
1503
1504   template = gst_v4l2_object_v4l2fourcc_to_bare_struct (fourcc);
1505
1506   if (template == NULL)
1507     goto done;
1508
1509   for (i = 0; i < GST_V4L2_FORMAT_COUNT; i++) {
1510     if (gst_v4l2_formats[i].format != fourcc)
1511       continue;
1512
1513     if (gst_v4l2_formats[i].dimensions) {
1514       gst_structure_set (template,
1515           "width", GST_TYPE_INT_RANGE, 1, GST_V4L2_MAX_SIZE,
1516           "height", GST_TYPE_INT_RANGE, 1, GST_V4L2_MAX_SIZE,
1517           "framerate", GST_TYPE_FRACTION_RANGE, 0, 1, G_MAXINT, 1, NULL);
1518     }
1519     break;
1520   }
1521
1522 done:
1523   return template;
1524 }
1525
1526
1527 static GstCaps *
1528 gst_v4l2_object_get_caps_helper (GstV4L2FormatFlags flags)
1529 {
1530   GstStructure *structure;
1531   GstCaps *caps;
1532   guint i;
1533
1534   caps = gst_caps_new_empty ();
1535   for (i = 0; i < GST_V4L2_FORMAT_COUNT; i++) {
1536
1537     if ((gst_v4l2_formats[i].flags & flags) == 0)
1538       continue;
1539
1540     structure =
1541         gst_v4l2_object_v4l2fourcc_to_bare_struct (gst_v4l2_formats[i].format);
1542
1543     if (structure) {
1544       GstStructure *alt_s = NULL;
1545
1546       if (gst_v4l2_formats[i].dimensions) {
1547         gst_structure_set (structure,
1548             "width", GST_TYPE_INT_RANGE, 1, GST_V4L2_MAX_SIZE,
1549             "height", GST_TYPE_INT_RANGE, 1, GST_V4L2_MAX_SIZE,
1550             "framerate", GST_TYPE_FRACTION_RANGE, 0, 1, G_MAXINT, 1, NULL);
1551       }
1552
1553       switch (gst_v4l2_formats[i].format) {
1554         case V4L2_PIX_FMT_RGB32:
1555           alt_s = gst_structure_copy (structure);
1556           gst_structure_set (alt_s, "format", G_TYPE_STRING, "ARGB", NULL);
1557           break;
1558         case V4L2_PIX_FMT_BGR32:
1559           alt_s = gst_structure_copy (structure);
1560           gst_structure_set (alt_s, "format", G_TYPE_STRING, "BGRA", NULL);
1561         default:
1562           break;
1563       }
1564
1565       gst_caps_append_structure (caps, structure);
1566
1567       if (alt_s)
1568         gst_caps_append_structure (caps, alt_s);
1569     }
1570   }
1571
1572   return gst_caps_simplify (caps);
1573 }
1574
1575 GstCaps *
1576 gst_v4l2_object_get_all_caps (void)
1577 {
1578   static GstCaps *caps = NULL;
1579
1580   if (g_once_init_enter (&caps)) {
1581     GstCaps *all_caps = gst_v4l2_object_get_caps_helper (GST_V4L2_ALL);
1582     GST_MINI_OBJECT_FLAG_SET (all_caps, GST_MINI_OBJECT_FLAG_MAY_BE_LEAKED);
1583     g_once_init_leave (&caps, all_caps);
1584   }
1585
1586   return caps;
1587 }
1588
1589 GstCaps *
1590 gst_v4l2_object_get_raw_caps (void)
1591 {
1592   static GstCaps *caps = NULL;
1593
1594   if (g_once_init_enter (&caps)) {
1595     GstCaps *raw_caps = gst_v4l2_object_get_caps_helper (GST_V4L2_RAW);
1596     GST_MINI_OBJECT_FLAG_SET (raw_caps, GST_MINI_OBJECT_FLAG_MAY_BE_LEAKED);
1597     g_once_init_leave (&caps, raw_caps);
1598   }
1599
1600   return caps;
1601 }
1602
1603 GstCaps *
1604 gst_v4l2_object_get_codec_caps (void)
1605 {
1606   static GstCaps *caps = NULL;
1607
1608   if (g_once_init_enter (&caps)) {
1609     GstCaps *codec_caps = gst_v4l2_object_get_caps_helper (GST_V4L2_CODEC);
1610     GST_MINI_OBJECT_FLAG_SET (codec_caps, GST_MINI_OBJECT_FLAG_MAY_BE_LEAKED);
1611     g_once_init_leave (&caps, codec_caps);
1612   }
1613
1614   return caps;
1615 }
1616
1617 /* collect data for the given caps
1618  * @caps: given input caps
1619  * @format: location for the v4l format
1620  * @w/@h: location for width and height
1621  * @fps_n/@fps_d: location for framerate
1622  * @size: location for expected size of the frame or 0 if unknown
1623  */
1624 static gboolean
1625 gst_v4l2_object_get_caps_info (GstV4l2Object * v4l2object, GstCaps * caps,
1626     struct v4l2_fmtdesc **format, GstVideoInfo * info)
1627 {
1628   GstStructure *structure;
1629   guint32 fourcc = 0, fourcc_nc = 0;
1630   const gchar *mimetype;
1631   struct v4l2_fmtdesc *fmt = NULL;
1632
1633   structure = gst_caps_get_structure (caps, 0);
1634
1635   mimetype = gst_structure_get_name (structure);
1636
1637   if (!gst_video_info_from_caps (info, caps))
1638     goto invalid_format;
1639
1640   if (g_str_equal (mimetype, "video/x-raw")) {
1641     switch (GST_VIDEO_INFO_FORMAT (info)) {
1642       case GST_VIDEO_FORMAT_I420:
1643         fourcc = V4L2_PIX_FMT_YUV420;
1644         fourcc_nc = V4L2_PIX_FMT_YUV420M;
1645         break;
1646       case GST_VIDEO_FORMAT_YUY2:
1647         fourcc = V4L2_PIX_FMT_YUYV;
1648         break;
1649       case GST_VIDEO_FORMAT_UYVY:
1650         fourcc = V4L2_PIX_FMT_UYVY;
1651         break;
1652       case GST_VIDEO_FORMAT_YV12:
1653         fourcc = V4L2_PIX_FMT_YVU420;
1654         break;
1655       case GST_VIDEO_FORMAT_Y41B:
1656         fourcc = V4L2_PIX_FMT_YUV411P;
1657         break;
1658       case GST_VIDEO_FORMAT_Y42B:
1659         fourcc = V4L2_PIX_FMT_YUV422P;
1660         break;
1661       case GST_VIDEO_FORMAT_NV12:
1662         fourcc = V4L2_PIX_FMT_NV12;
1663         fourcc_nc = V4L2_PIX_FMT_NV12M;
1664         break;
1665       case GST_VIDEO_FORMAT_NV12_64Z32:
1666         fourcc_nc = V4L2_PIX_FMT_NV12MT;
1667         break;
1668       case GST_VIDEO_FORMAT_NV21:
1669         fourcc = V4L2_PIX_FMT_NV21;
1670         fourcc_nc = V4L2_PIX_FMT_NV21M;
1671         break;
1672       case GST_VIDEO_FORMAT_NV16:
1673         fourcc = V4L2_PIX_FMT_NV16;
1674         fourcc_nc = V4L2_PIX_FMT_NV16M;
1675         break;
1676       case GST_VIDEO_FORMAT_NV61:
1677         fourcc = V4L2_PIX_FMT_NV61;
1678         fourcc_nc = V4L2_PIX_FMT_NV61M;
1679         break;
1680       case GST_VIDEO_FORMAT_NV24:
1681         fourcc = V4L2_PIX_FMT_NV24;
1682         break;
1683       case GST_VIDEO_FORMAT_YVYU:
1684         fourcc = V4L2_PIX_FMT_YVYU;
1685         break;
1686       case GST_VIDEO_FORMAT_RGB15:
1687         fourcc = V4L2_PIX_FMT_RGB555;
1688         fourcc_nc = V4L2_PIX_FMT_XRGB555;
1689         break;
1690       case GST_VIDEO_FORMAT_RGB16:
1691         fourcc = V4L2_PIX_FMT_RGB565;
1692         break;
1693       case GST_VIDEO_FORMAT_RGB:
1694         fourcc = V4L2_PIX_FMT_RGB24;
1695         break;
1696       case GST_VIDEO_FORMAT_BGR:
1697         fourcc = V4L2_PIX_FMT_BGR24;
1698         break;
1699       case GST_VIDEO_FORMAT_xRGB:
1700         fourcc = V4L2_PIX_FMT_RGB32;
1701         fourcc_nc = V4L2_PIX_FMT_XRGB32;
1702         break;
1703       case GST_VIDEO_FORMAT_ARGB:
1704         fourcc = V4L2_PIX_FMT_RGB32;
1705         fourcc_nc = V4L2_PIX_FMT_ARGB32;
1706         break;
1707       case GST_VIDEO_FORMAT_BGRx:
1708         fourcc = V4L2_PIX_FMT_BGR32;
1709         fourcc_nc = V4L2_PIX_FMT_XBGR32;
1710         break;
1711       case GST_VIDEO_FORMAT_BGRA:
1712         fourcc = V4L2_PIX_FMT_BGR32;
1713         fourcc_nc = V4L2_PIX_FMT_ABGR32;
1714         break;
1715       case GST_VIDEO_FORMAT_GRAY8:
1716         fourcc = V4L2_PIX_FMT_GREY;
1717         break;
1718       case GST_VIDEO_FORMAT_GRAY16_LE:
1719         fourcc = V4L2_PIX_FMT_Y16;
1720         break;
1721       case GST_VIDEO_FORMAT_GRAY16_BE:
1722         fourcc = V4L2_PIX_FMT_Y16_BE;
1723         break;
1724       default:
1725         break;
1726     }
1727   } else {
1728     if (g_str_equal (mimetype, "video/mpegts")) {
1729       fourcc = V4L2_PIX_FMT_MPEG;
1730     } else if (g_str_equal (mimetype, "video/x-dv")) {
1731       fourcc = V4L2_PIX_FMT_DV;
1732     } else if (g_str_equal (mimetype, "image/jpeg")) {
1733       fourcc = V4L2_PIX_FMT_JPEG;
1734     } else if (g_str_equal (mimetype, "video/mpeg")) {
1735       gint version;
1736       if (gst_structure_get_int (structure, "mpegversion", &version)) {
1737         switch (version) {
1738           case 1:
1739             fourcc = V4L2_PIX_FMT_MPEG1;
1740             break;
1741           case 2:
1742             fourcc = V4L2_PIX_FMT_MPEG2;
1743             break;
1744           case 4:
1745             fourcc = V4L2_PIX_FMT_MPEG4;
1746             fourcc_nc = V4L2_PIX_FMT_XVID;
1747             break;
1748           default:
1749             break;
1750         }
1751       }
1752     } else if (g_str_equal (mimetype, "video/x-h263")) {
1753       fourcc = V4L2_PIX_FMT_H263;
1754     } else if (g_str_equal (mimetype, "video/x-h264")) {
1755       const gchar *stream_format =
1756           gst_structure_get_string (structure, "stream-format");
1757       if (g_str_equal (stream_format, "avc"))
1758         fourcc = V4L2_PIX_FMT_H264_NO_SC;
1759       else
1760         fourcc = V4L2_PIX_FMT_H264;
1761     } else if (g_str_equal (mimetype, "video/x-vp8")) {
1762       fourcc = V4L2_PIX_FMT_VP8;
1763     } else if (g_str_equal (mimetype, "video/x-bayer")) {
1764       const gchar *format = gst_structure_get_string (structure, "format");
1765       if (format) {
1766         if (!g_ascii_strcasecmp (format, "bggr"))
1767           fourcc = V4L2_PIX_FMT_SBGGR8;
1768         else if (!g_ascii_strcasecmp (format, "gbrg"))
1769           fourcc = V4L2_PIX_FMT_SGBRG8;
1770         else if (!g_ascii_strcasecmp (format, "grbg"))
1771           fourcc = V4L2_PIX_FMT_SGRBG8;
1772         else if (!g_ascii_strcasecmp (format, "rggb"))
1773           fourcc = V4L2_PIX_FMT_SRGGB8;
1774       }
1775     } else if (g_str_equal (mimetype, "video/x-sonix")) {
1776       fourcc = V4L2_PIX_FMT_SN9C10X;
1777     } else if (g_str_equal (mimetype, "video/x-pwc1")) {
1778       fourcc = V4L2_PIX_FMT_PWC1;
1779     } else if (g_str_equal (mimetype, "video/x-pwc2")) {
1780       fourcc = V4L2_PIX_FMT_PWC2;
1781     }
1782   }
1783
1784
1785   /* Prefer the non-contiguous if supported */
1786   v4l2object->prefered_non_contiguous = TRUE;
1787
1788   if (fourcc_nc)
1789     fmt = gst_v4l2_object_get_format_from_fourcc (v4l2object, fourcc_nc);
1790   else if (fourcc == 0)
1791     goto unhandled_format;
1792
1793   if (fmt == NULL) {
1794     fmt = gst_v4l2_object_get_format_from_fourcc (v4l2object, fourcc);
1795     v4l2object->prefered_non_contiguous = FALSE;
1796   }
1797
1798   if (fmt == NULL)
1799     goto unsupported_format;
1800
1801   *format = fmt;
1802
1803   return TRUE;
1804
1805   /* ERRORS */
1806 invalid_format:
1807   {
1808     GST_DEBUG_OBJECT (v4l2object, "invalid format");
1809     return FALSE;
1810   }
1811 unhandled_format:
1812   {
1813     GST_DEBUG_OBJECT (v4l2object, "unhandled format");
1814     return FALSE;
1815   }
1816 unsupported_format:
1817   {
1818     GST_DEBUG_OBJECT (v4l2object, "unsupported format");
1819     return FALSE;
1820   }
1821 }
1822
1823 static gboolean
1824 gst_v4l2_object_get_nearest_size (GstV4l2Object * v4l2object,
1825     guint32 pixelformat, gint * width, gint * height);
1826
1827 static void
1828 gst_v4l2_object_add_aspect_ratio (GstV4l2Object * v4l2object, GstStructure * s)
1829 {
1830   struct v4l2_cropcap cropcap;
1831   int num = 1, den = 1;
1832
1833   if (!v4l2object->keep_aspect)
1834     return;
1835
1836   if (v4l2object->par) {
1837     num = gst_value_get_fraction_numerator (v4l2object->par);
1838     den = gst_value_get_fraction_denominator (v4l2object->par);
1839     goto done;
1840   }
1841
1842   memset (&cropcap, 0, sizeof (cropcap));
1843
1844   cropcap.type = v4l2object->type;
1845   if (v4l2_ioctl (v4l2object->video_fd, VIDIOC_CROPCAP, &cropcap) < 0)
1846     goto cropcap_failed;
1847
1848   num = cropcap.pixelaspect.numerator;
1849   den = cropcap.pixelaspect.denominator;
1850
1851   /* Ignore PAR that are 0/0 */
1852   if (den == 0)
1853     return;
1854
1855 done:
1856   gst_structure_set (s, "pixel-aspect-ratio", GST_TYPE_FRACTION, num, den,
1857       NULL);
1858   return;
1859
1860 cropcap_failed:
1861   if (errno != ENOTTY)
1862     GST_WARNING_OBJECT (v4l2object->element,
1863         "Failed to probe pixel aspect ratio with VIDIOC_CROPCAP: %s",
1864         g_strerror (errno));
1865   goto done;
1866 }
1867
1868 /* returns TRUE if the value was changed in place, otherwise FALSE */
1869 static gboolean
1870 gst_v4l2src_value_simplify (GValue * val)
1871 {
1872   /* simplify list of one value to one value */
1873   if (GST_VALUE_HOLDS_LIST (val) && gst_value_list_get_size (val) == 1) {
1874     const GValue *list_val;
1875     GValue new_val = G_VALUE_INIT;
1876
1877     list_val = gst_value_list_get_value (val, 0);
1878     g_value_init (&new_val, G_VALUE_TYPE (list_val));
1879     g_value_copy (list_val, &new_val);
1880     g_value_unset (val);
1881     *val = new_val;
1882     return TRUE;
1883   }
1884
1885   return FALSE;
1886 }
1887
1888 static gboolean
1889 gst_v4l2_object_get_interlace_mode (enum v4l2_field field,
1890     GstVideoInterlaceMode * interlace_mode)
1891 {
1892   /* NB: If you add new return values, please fix mode_strings in
1893    * gst_v4l2_object_add_interlace_mode */
1894   switch (field) {
1895     case V4L2_FIELD_ANY:
1896       GST_ERROR
1897           ("Driver bug detected - check driver with v4l2-compliance from http://git.linuxtv.org/v4l-utils.git\n");
1898       /* fallthrough */
1899     case V4L2_FIELD_NONE:
1900       *interlace_mode = GST_VIDEO_INTERLACE_MODE_PROGRESSIVE;
1901       return TRUE;
1902     case V4L2_FIELD_INTERLACED:
1903     case V4L2_FIELD_INTERLACED_TB:
1904     case V4L2_FIELD_INTERLACED_BT:
1905       *interlace_mode = GST_VIDEO_INTERLACE_MODE_INTERLEAVED;
1906       return TRUE;
1907     default:
1908       GST_ERROR ("Unknown enum v4l2_field %d", field);
1909       return FALSE;
1910   }
1911 }
1912
1913 static gboolean
1914 gst_v4l2_object_get_colorspace (struct v4l2_format *fmt,
1915     GstVideoColorimetry * cinfo)
1916 {
1917   gboolean is_rgb =
1918       gst_v4l2_object_v4l2fourcc_is_rgb (fmt->fmt.pix.pixelformat);
1919   enum v4l2_colorspace colorspace;
1920   enum v4l2_quantization range;
1921   enum v4l2_ycbcr_encoding matrix;
1922   enum v4l2_xfer_func transfer;
1923   gboolean ret = TRUE;
1924
1925   if (V4L2_TYPE_IS_MULTIPLANAR (fmt->type)) {
1926     colorspace = fmt->fmt.pix_mp.colorspace;
1927     range = fmt->fmt.pix_mp.quantization;
1928     matrix = fmt->fmt.pix_mp.ycbcr_enc;
1929     transfer = fmt->fmt.pix_mp.xfer_func;
1930   } else {
1931     colorspace = fmt->fmt.pix.colorspace;
1932     range = fmt->fmt.pix.quantization;
1933     matrix = fmt->fmt.pix.ycbcr_enc;
1934     transfer = fmt->fmt.pix.xfer_func;
1935   }
1936
1937   /* First step, set the defaults for each primaries */
1938   switch (colorspace) {
1939     case V4L2_COLORSPACE_SMPTE170M:
1940       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
1941       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT601;
1942       cinfo->transfer = GST_VIDEO_TRANSFER_BT709;
1943       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_SMPTE170M;
1944       break;
1945     case V4L2_COLORSPACE_REC709:
1946       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
1947       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT709;
1948       cinfo->transfer = GST_VIDEO_TRANSFER_BT709;
1949       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_BT709;
1950       break;
1951     case V4L2_COLORSPACE_SRGB:
1952     case V4L2_COLORSPACE_JPEG:
1953       cinfo->range = GST_VIDEO_COLOR_RANGE_0_255;
1954       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT601;
1955       cinfo->transfer = GST_VIDEO_TRANSFER_SRGB;
1956       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_BT709;
1957       break;
1958     case V4L2_COLORSPACE_ADOBERGB:
1959       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
1960       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT601;
1961       cinfo->transfer = GST_VIDEO_TRANSFER_ADOBERGB;
1962       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_ADOBERGB;
1963       break;
1964     case V4L2_COLORSPACE_BT2020:
1965       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
1966       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT2020;
1967       cinfo->transfer = GST_VIDEO_TRANSFER_BT709;
1968       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_BT2020;
1969       break;
1970     case V4L2_COLORSPACE_SMPTE240M:
1971       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
1972       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_SMPTE240M;
1973       cinfo->transfer = GST_VIDEO_TRANSFER_SMPTE240M;
1974       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_SMPTE240M;
1975       break;
1976     case V4L2_COLORSPACE_470_SYSTEM_M:
1977       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
1978       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT601;
1979       cinfo->transfer = GST_VIDEO_TRANSFER_BT709;
1980       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_BT470M;
1981       break;
1982     case V4L2_COLORSPACE_470_SYSTEM_BG:
1983       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
1984       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT601;
1985       cinfo->transfer = GST_VIDEO_TRANSFER_BT709;
1986       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_BT470BG;
1987       break;
1988     case V4L2_COLORSPACE_RAW:
1989       /* Explicitly unknown */
1990       cinfo->range = GST_VIDEO_COLOR_RANGE_UNKNOWN;
1991       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_UNKNOWN;
1992       cinfo->transfer = GST_VIDEO_TRANSFER_UNKNOWN;
1993       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_UNKNOWN;
1994       break;
1995     default:
1996       GST_DEBUG ("Unknown enum v4l2_colorspace %d", colorspace);
1997       ret = FALSE;
1998       break;
1999   }
2000
2001   if (!ret)
2002     goto done;
2003
2004   /* Second step, apply any custom variation */
2005   switch (range) {
2006     case V4L2_QUANTIZATION_FULL_RANGE:
2007       cinfo->range = GST_VIDEO_COLOR_RANGE_0_255;
2008       break;
2009     case V4L2_QUANTIZATION_LIM_RANGE:
2010       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
2011       break;
2012     case V4L2_QUANTIZATION_DEFAULT:
2013       /* replicated V4L2_MAP_QUANTIZATION_DEFAULT macro behavior */
2014       if (is_rgb && colorspace == V4L2_COLORSPACE_BT2020)
2015         cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
2016       else if (is_rgb || matrix == V4L2_YCBCR_ENC_XV601
2017           || matrix == V4L2_YCBCR_ENC_XV709
2018           || colorspace == V4L2_COLORSPACE_JPEG)
2019         cinfo->range = GST_VIDEO_COLOR_RANGE_0_255;
2020       else
2021         cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
2022       break;
2023     default:
2024       GST_WARNING ("Unknown enum v4l2_quantization value %d", range);
2025       cinfo->range = GST_VIDEO_COLOR_RANGE_UNKNOWN;
2026       break;
2027   }
2028
2029   switch (matrix) {
2030     case V4L2_YCBCR_ENC_XV601:
2031     case V4L2_YCBCR_ENC_SYCC:
2032       GST_FIXME ("XV601 and SYCC not defined, assuming 601");
2033       /* fallthrough */
2034     case V4L2_YCBCR_ENC_601:
2035       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT601;
2036       break;
2037     case V4L2_YCBCR_ENC_XV709:
2038       GST_FIXME ("XV709 not defined, assuming 709");
2039       /* fallthrough */
2040     case V4L2_YCBCR_ENC_709:
2041       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT709;
2042       break;
2043     case V4L2_YCBCR_ENC_BT2020_CONST_LUM:
2044       GST_FIXME ("BT2020 with constant lumma is not defined, assuming BT2020");
2045       /* fallthrough */
2046     case V4L2_YCBCR_ENC_BT2020:
2047       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT2020;
2048       break;
2049     case V4L2_YCBCR_ENC_SMPTE240M:
2050       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_SMPTE240M;
2051       break;
2052     case V4L2_YCBCR_ENC_DEFAULT:
2053       /* nothing, just use defaults for colorspace */
2054       break;
2055     default:
2056       GST_WARNING ("Unknown enum v4l2_ycbcr_encoding value %d", matrix);
2057       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_UNKNOWN;
2058       break;
2059   }
2060
2061   /* Set identity matrix for R'G'B' formats to avoid creating
2062    * confusion. This though is cosmetic as it's now properly ignored by
2063    * the video info API and videoconvert. */
2064   if (is_rgb)
2065     cinfo->matrix = GST_VIDEO_COLOR_MATRIX_RGB;
2066
2067   switch (transfer) {
2068     case V4L2_XFER_FUNC_709:
2069       cinfo->transfer = GST_VIDEO_TRANSFER_BT709;
2070       break;
2071     case V4L2_XFER_FUNC_SRGB:
2072       cinfo->transfer = GST_VIDEO_TRANSFER_SRGB;
2073       break;
2074     case V4L2_XFER_FUNC_ADOBERGB:
2075       cinfo->transfer = GST_VIDEO_TRANSFER_ADOBERGB;
2076       break;
2077     case V4L2_XFER_FUNC_SMPTE240M:
2078       cinfo->transfer = GST_VIDEO_TRANSFER_SMPTE240M;
2079       break;
2080     case V4L2_XFER_FUNC_NONE:
2081       cinfo->transfer = GST_VIDEO_TRANSFER_GAMMA10;
2082       break;
2083     case V4L2_XFER_FUNC_DEFAULT:
2084       /* nothing, just use defaults for colorspace */
2085       break;
2086     default:
2087       GST_WARNING ("Unknown enum v4l2_xfer_func value %d", transfer);
2088       cinfo->transfer = GST_VIDEO_TRANSFER_UNKNOWN;
2089       break;
2090   }
2091
2092 done:
2093   return ret;
2094 }
2095
2096 static int
2097 gst_v4l2_object_try_fmt (GstV4l2Object * v4l2object,
2098     struct v4l2_format *try_fmt)
2099 {
2100   int fd = v4l2object->video_fd;
2101   struct v4l2_format fmt;
2102   int r;
2103
2104   memcpy (&fmt, try_fmt, sizeof (fmt));
2105   r = v4l2_ioctl (fd, VIDIOC_TRY_FMT, &fmt);
2106
2107   if (r < 0 && errno == ENOTTY) {
2108     /* The driver might not implement TRY_FMT, in which case we will try
2109        S_FMT to probe */
2110     if (GST_V4L2_IS_ACTIVE (v4l2object))
2111       goto error;
2112
2113     memcpy (&fmt, try_fmt, sizeof (fmt));
2114     r = v4l2_ioctl (fd, VIDIOC_S_FMT, &fmt);
2115   }
2116   memcpy (try_fmt, &fmt, sizeof (fmt));
2117   return r;
2118
2119 error:
2120   memcpy (try_fmt, &fmt, sizeof (fmt));
2121   GST_WARNING_OBJECT (v4l2object->element,
2122       "Unable to try format: %s", g_strerror (errno));
2123   return r;
2124 }
2125
2126
2127 static void
2128 gst_v4l2_object_add_interlace_mode (GstV4l2Object * v4l2object,
2129     GstStructure * s, guint32 width, guint32 height, guint32 pixelformat)
2130 {
2131   struct v4l2_format fmt;
2132   GValue interlace_formats = { 0, };
2133   GstVideoInterlaceMode interlace_mode, prev = -1;
2134
2135   const gchar *mode_strings[] = { "progressive",
2136     "interleaved",
2137     "mixed"
2138   };
2139
2140   if (!g_str_equal (gst_structure_get_name (s), "video/x-raw"))
2141     return;
2142
2143   if (v4l2object->never_interlaced) {
2144     gst_structure_set (s, "interlace-mode", G_TYPE_STRING, "progressive", NULL);
2145     return;
2146   }
2147
2148   g_value_init (&interlace_formats, GST_TYPE_LIST);
2149
2150   /* Try twice - once for NONE, once for INTERLACED. */
2151   memset (&fmt, 0, sizeof (fmt));
2152   fmt.type = v4l2object->type;
2153   fmt.fmt.pix.width = width;
2154   fmt.fmt.pix.height = height;
2155   fmt.fmt.pix.pixelformat = pixelformat;
2156   fmt.fmt.pix.field = V4L2_FIELD_NONE;
2157
2158   if (gst_v4l2_object_try_fmt (v4l2object, &fmt) == 0 &&
2159       gst_v4l2_object_get_interlace_mode (fmt.fmt.pix.field, &interlace_mode)) {
2160     GValue interlace_enum = { 0, };
2161     g_value_init (&interlace_enum, G_TYPE_STRING);
2162     g_value_set_string (&interlace_enum, mode_strings[interlace_mode]);
2163     gst_value_list_append_and_take_value (&interlace_formats, &interlace_enum);
2164     prev = interlace_mode;
2165   }
2166
2167   memset (&fmt, 0, sizeof (fmt));
2168   fmt.type = v4l2object->type;
2169   fmt.fmt.pix.width = width;
2170   fmt.fmt.pix.height = height;
2171   fmt.fmt.pix.pixelformat = pixelformat;
2172   fmt.fmt.pix.field = V4L2_FIELD_INTERLACED;
2173
2174   if (gst_v4l2_object_try_fmt (v4l2object, &fmt) == 0 &&
2175       gst_v4l2_object_get_interlace_mode (fmt.fmt.pix.field, &interlace_mode) &&
2176       prev != interlace_mode) {
2177     GValue interlace_enum = { 0, };
2178     g_value_init (&interlace_enum, G_TYPE_STRING);
2179     g_value_set_string (&interlace_enum, mode_strings[interlace_mode]);
2180     gst_value_list_append_and_take_value (&interlace_formats, &interlace_enum);
2181   }
2182
2183   if (gst_v4l2src_value_simplify (&interlace_formats)
2184       || gst_value_list_get_size (&interlace_formats) > 0)
2185     gst_structure_take_value (s, "interlace-mode", &interlace_formats);
2186   else
2187     GST_WARNING_OBJECT (v4l2object, "Failed to determine interlace mode");
2188
2189   return;
2190 }
2191
2192 static void
2193 gst_v4l2_object_fill_colorimetry_list (GValue * list,
2194     GstVideoColorimetry * cinfo)
2195 {
2196   GValue colorimetry = G_VALUE_INIT;
2197   guint size;
2198   guint i;
2199   gboolean found = FALSE;
2200
2201   g_value_init (&colorimetry, G_TYPE_STRING);
2202   g_value_take_string (&colorimetry, gst_video_colorimetry_to_string (cinfo));
2203
2204   /* only insert if no duplicate */
2205   size = gst_value_list_get_size (list);
2206   for (i = 0; i < size; i++) {
2207     const GValue *tmp;
2208
2209     tmp = gst_value_list_get_value (list, i);
2210     if (gst_value_compare (&colorimetry, tmp) == GST_VALUE_EQUAL) {
2211       found = TRUE;
2212       break;
2213     }
2214   }
2215
2216   if (!found)
2217     gst_value_list_append_and_take_value (list, &colorimetry);
2218   else
2219     g_value_unset (&colorimetry);
2220 }
2221
2222 static void
2223 gst_v4l2_object_add_colorspace (GstV4l2Object * v4l2object, GstStructure * s,
2224     guint32 width, guint32 height, guint32 pixelformat)
2225 {
2226   struct v4l2_format fmt;
2227   GValue list = G_VALUE_INIT;
2228   GstVideoColorimetry cinfo;
2229   enum v4l2_colorspace req_cspace;
2230
2231   memset (&fmt, 0, sizeof (fmt));
2232   fmt.type = v4l2object->type;
2233   fmt.fmt.pix.width = width;
2234   fmt.fmt.pix.height = height;
2235   fmt.fmt.pix.pixelformat = pixelformat;
2236
2237   g_value_init (&list, GST_TYPE_LIST);
2238
2239   /* step 1: get device default colorspace and insert it first as
2240    * it should be the preferred one */
2241   if (gst_v4l2_object_try_fmt (v4l2object, &fmt) == 0) {
2242     if (gst_v4l2_object_get_colorspace (&fmt, &cinfo))
2243       gst_v4l2_object_fill_colorimetry_list (&list, &cinfo);
2244   }
2245
2246   /* step 2: probe all colorspace other than default
2247    * We don't probe all colorspace, range, matrix and transfer combination to
2248    * avoid ioctl flooding which could greatly increase initialization time
2249    * with low-speed devices (UVC...) */
2250   for (req_cspace = V4L2_COLORSPACE_SMPTE170M;
2251       req_cspace <= V4L2_COLORSPACE_RAW; req_cspace++) {
2252     /* V4L2_COLORSPACE_BT878 is deprecated and shall not be used, so skip */
2253     if (req_cspace == V4L2_COLORSPACE_BT878)
2254       continue;
2255
2256     if (V4L2_TYPE_IS_MULTIPLANAR (v4l2object->type))
2257       fmt.fmt.pix_mp.colorspace = req_cspace;
2258     else
2259       fmt.fmt.pix.colorspace = req_cspace;
2260
2261     if (gst_v4l2_object_try_fmt (v4l2object, &fmt) == 0) {
2262       enum v4l2_colorspace colorspace;
2263
2264       if (V4L2_TYPE_IS_MULTIPLANAR (v4l2object->type))
2265         colorspace = fmt.fmt.pix_mp.colorspace;
2266       else
2267         colorspace = fmt.fmt.pix.colorspace;
2268
2269       if (colorspace == req_cspace) {
2270         if (gst_v4l2_object_get_colorspace (&fmt, &cinfo))
2271           gst_v4l2_object_fill_colorimetry_list (&list, &cinfo);
2272       }
2273     }
2274   }
2275
2276   if (gst_value_list_get_size (&list) > 0)
2277     gst_structure_take_value (s, "colorimetry", &list);
2278   else
2279     g_value_unset (&list);
2280
2281   return;
2282 }
2283
2284 /* The frame interval enumeration code first appeared in Linux 2.6.19. */
2285 static GstStructure *
2286 gst_v4l2_object_probe_caps_for_format_and_size (GstV4l2Object * v4l2object,
2287     guint32 pixelformat,
2288     guint32 width, guint32 height, const GstStructure * template)
2289 {
2290   gint fd = v4l2object->video_fd;
2291   struct v4l2_frmivalenum ival;
2292   guint32 num, denom;
2293   GstStructure *s;
2294   GValue rates = { 0, };
2295
2296   memset (&ival, 0, sizeof (struct v4l2_frmivalenum));
2297   ival.index = 0;
2298   ival.pixel_format = pixelformat;
2299   ival.width = width;
2300   ival.height = height;
2301
2302   GST_LOG_OBJECT (v4l2object->element,
2303       "get frame interval for %ux%u, %" GST_FOURCC_FORMAT, width, height,
2304       GST_FOURCC_ARGS (pixelformat));
2305
2306   /* keep in mind that v4l2 gives us frame intervals (durations); we invert the
2307    * fraction to get framerate */
2308   if (v4l2_ioctl (fd, VIDIOC_ENUM_FRAMEINTERVALS, &ival) < 0)
2309     goto enum_frameintervals_failed;
2310
2311   if (ival.type == V4L2_FRMIVAL_TYPE_DISCRETE) {
2312     GValue rate = { 0, };
2313
2314     g_value_init (&rates, GST_TYPE_LIST);
2315     g_value_init (&rate, GST_TYPE_FRACTION);
2316
2317     do {
2318       num = ival.discrete.numerator;
2319       denom = ival.discrete.denominator;
2320
2321       if (num > G_MAXINT || denom > G_MAXINT) {
2322         /* let us hope we don't get here... */
2323         num >>= 1;
2324         denom >>= 1;
2325       }
2326
2327       GST_LOG_OBJECT (v4l2object->element, "adding discrete framerate: %d/%d",
2328           denom, num);
2329
2330       /* swap to get the framerate */
2331       gst_value_set_fraction (&rate, denom, num);
2332       gst_value_list_append_value (&rates, &rate);
2333
2334       ival.index++;
2335     } while (v4l2_ioctl (fd, VIDIOC_ENUM_FRAMEINTERVALS, &ival) >= 0);
2336   } else if (ival.type == V4L2_FRMIVAL_TYPE_STEPWISE) {
2337     GValue min = { 0, };
2338     GValue step = { 0, };
2339     GValue max = { 0, };
2340     gboolean added = FALSE;
2341     guint32 minnum, mindenom;
2342     guint32 maxnum, maxdenom;
2343
2344     g_value_init (&rates, GST_TYPE_LIST);
2345
2346     g_value_init (&min, GST_TYPE_FRACTION);
2347     g_value_init (&step, GST_TYPE_FRACTION);
2348     g_value_init (&max, GST_TYPE_FRACTION);
2349
2350     /* get the min */
2351     minnum = ival.stepwise.min.numerator;
2352     mindenom = ival.stepwise.min.denominator;
2353     if (minnum > G_MAXINT || mindenom > G_MAXINT) {
2354       minnum >>= 1;
2355       mindenom >>= 1;
2356     }
2357     GST_LOG_OBJECT (v4l2object->element, "stepwise min frame interval: %d/%d",
2358         minnum, mindenom);
2359     gst_value_set_fraction (&min, minnum, mindenom);
2360
2361     /* get the max */
2362     maxnum = ival.stepwise.max.numerator;
2363     maxdenom = ival.stepwise.max.denominator;
2364     if (maxnum > G_MAXINT || maxdenom > G_MAXINT) {
2365       maxnum >>= 1;
2366       maxdenom >>= 1;
2367     }
2368
2369     GST_LOG_OBJECT (v4l2object->element, "stepwise max frame interval: %d/%d",
2370         maxnum, maxdenom);
2371     gst_value_set_fraction (&max, maxnum, maxdenom);
2372
2373     /* get the step */
2374     num = ival.stepwise.step.numerator;
2375     denom = ival.stepwise.step.denominator;
2376     if (num > G_MAXINT || denom > G_MAXINT) {
2377       num >>= 1;
2378       denom >>= 1;
2379     }
2380
2381     if (num == 0 || denom == 0) {
2382       /* in this case we have a wrong fraction or no step, set the step to max
2383        * so that we only add the min value in the loop below */
2384       num = maxnum;
2385       denom = maxdenom;
2386     }
2387
2388     /* since we only have gst_value_fraction_subtract and not add, negate the
2389      * numerator */
2390     GST_LOG_OBJECT (v4l2object->element, "stepwise step frame interval: %d/%d",
2391         num, denom);
2392     gst_value_set_fraction (&step, -num, denom);
2393
2394     while (gst_value_compare (&min, &max) != GST_VALUE_GREATER_THAN) {
2395       GValue rate = { 0, };
2396
2397       num = gst_value_get_fraction_numerator (&min);
2398       denom = gst_value_get_fraction_denominator (&min);
2399       GST_LOG_OBJECT (v4l2object->element, "adding stepwise framerate: %d/%d",
2400           denom, num);
2401
2402       /* invert to get the framerate */
2403       g_value_init (&rate, GST_TYPE_FRACTION);
2404       gst_value_set_fraction (&rate, denom, num);
2405       gst_value_list_append_value (&rates, &rate);
2406       added = TRUE;
2407
2408       /* we're actually adding because step was negated above. This is because
2409        * there is no _add function... */
2410       if (!gst_value_fraction_subtract (&min, &min, &step)) {
2411         GST_WARNING_OBJECT (v4l2object->element, "could not step fraction!");
2412         break;
2413       }
2414     }
2415     if (!added) {
2416       /* no range was added, leave the default range from the template */
2417       GST_WARNING_OBJECT (v4l2object->element,
2418           "no range added, leaving default");
2419       g_value_unset (&rates);
2420     }
2421   } else if (ival.type == V4L2_FRMIVAL_TYPE_CONTINUOUS) {
2422     guint32 maxnum, maxdenom;
2423
2424     g_value_init (&rates, GST_TYPE_FRACTION_RANGE);
2425
2426     num = ival.stepwise.min.numerator;
2427     denom = ival.stepwise.min.denominator;
2428     if (num > G_MAXINT || denom > G_MAXINT) {
2429       num >>= 1;
2430       denom >>= 1;
2431     }
2432
2433     maxnum = ival.stepwise.max.numerator;
2434     maxdenom = ival.stepwise.max.denominator;
2435     if (maxnum > G_MAXINT || maxdenom > G_MAXINT) {
2436       maxnum >>= 1;
2437       maxdenom >>= 1;
2438     }
2439
2440     GST_LOG_OBJECT (v4l2object->element,
2441         "continuous frame interval %d/%d to %d/%d", maxdenom, maxnum, denom,
2442         num);
2443
2444     gst_value_set_fraction_range_full (&rates, maxdenom, maxnum, denom, num);
2445   } else {
2446     goto unknown_type;
2447   }
2448
2449 return_data:
2450   s = gst_structure_copy (template);
2451   gst_structure_set (s, "width", G_TYPE_INT, (gint) width,
2452       "height", G_TYPE_INT, (gint) height, NULL);
2453   gst_v4l2_object_add_aspect_ratio (v4l2object, s);
2454   gst_v4l2_object_add_interlace_mode (v4l2object, s, width, height,
2455       pixelformat);
2456   gst_v4l2_object_add_colorspace (v4l2object, s, width, height, pixelformat);
2457
2458   if (G_IS_VALUE (&rates)) {
2459     gst_v4l2src_value_simplify (&rates);
2460     /* only change the framerate on the template when we have a valid probed new
2461      * value */
2462     gst_structure_take_value (s, "framerate", &rates);
2463   } else if (v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE ||
2464       v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE_MPLANE) {
2465     gst_structure_set (s, "framerate", GST_TYPE_FRACTION_RANGE, 0, 1, G_MAXINT,
2466         1, NULL);
2467   }
2468   return s;
2469
2470   /* ERRORS */
2471 enum_frameintervals_failed:
2472   {
2473     GST_DEBUG_OBJECT (v4l2object->element,
2474         "Unable to enumerate intervals for %" GST_FOURCC_FORMAT "@%ux%u",
2475         GST_FOURCC_ARGS (pixelformat), width, height);
2476     goto return_data;
2477   }
2478 unknown_type:
2479   {
2480     /* I don't see how this is actually an error, we ignore the format then */
2481     GST_WARNING_OBJECT (v4l2object->element,
2482         "Unknown frame interval type at %" GST_FOURCC_FORMAT "@%ux%u: %u",
2483         GST_FOURCC_ARGS (pixelformat), width, height, ival.type);
2484     return NULL;
2485   }
2486 }
2487
2488 static gint
2489 sort_by_frame_size (GstStructure * s1, GstStructure * s2)
2490 {
2491   int w1, h1, w2, h2;
2492
2493   gst_structure_get_int (s1, "width", &w1);
2494   gst_structure_get_int (s1, "height", &h1);
2495   gst_structure_get_int (s2, "width", &w2);
2496   gst_structure_get_int (s2, "height", &h2);
2497
2498   /* I think it's safe to assume that this won't overflow for a while */
2499   return ((w2 * h2) - (w1 * h1));
2500 }
2501
2502 static void
2503 gst_v4l2_object_update_and_append (GstV4l2Object * v4l2object,
2504     guint32 format, GstCaps * caps, GstStructure * s)
2505 {
2506   GstStructure *alt_s = NULL;
2507
2508   /* Encoded stream on output buffer need to be parsed */
2509   if (v4l2object->type == V4L2_BUF_TYPE_VIDEO_OUTPUT ||
2510       v4l2object->type == V4L2_BUF_TYPE_VIDEO_OUTPUT_MPLANE) {
2511     gint i = 0;
2512
2513     for (; i < GST_V4L2_FORMAT_COUNT; i++) {
2514       if (format == gst_v4l2_formats[i].format &&
2515           gst_v4l2_formats[i].flags & GST_V4L2_CODEC &&
2516           !(gst_v4l2_formats[i].flags & GST_V4L2_NO_PARSE)) {
2517         gst_structure_set (s, "parsed", G_TYPE_BOOLEAN, TRUE, NULL);
2518         break;
2519       }
2520     }
2521   }
2522
2523   if (v4l2object->has_alpha_component &&
2524       (v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE ||
2525           v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE_MPLANE)) {
2526     switch (format) {
2527       case V4L2_PIX_FMT_RGB32:
2528         alt_s = gst_structure_copy (s);
2529         gst_structure_set (alt_s, "format", G_TYPE_STRING, "ARGB", NULL);
2530         break;
2531       case V4L2_PIX_FMT_BGR32:
2532         alt_s = gst_structure_copy (s);
2533         gst_structure_set (alt_s, "format", G_TYPE_STRING, "BGRA", NULL);
2534         break;
2535       default:
2536         break;
2537     }
2538   }
2539
2540   gst_caps_append_structure (caps, s);
2541
2542   if (alt_s)
2543     gst_caps_append_structure (caps, alt_s);
2544 }
2545
2546 static GstCaps *
2547 gst_v4l2_object_probe_caps_for_format (GstV4l2Object * v4l2object,
2548     guint32 pixelformat, const GstStructure * template)
2549 {
2550   GstCaps *ret = gst_caps_new_empty ();
2551   GstStructure *tmp;
2552   gint fd = v4l2object->video_fd;
2553   struct v4l2_frmsizeenum size;
2554   GList *results = NULL;
2555   guint32 w, h;
2556
2557   if (pixelformat == GST_MAKE_FOURCC ('M', 'P', 'E', 'G')) {
2558     gst_caps_append_structure (ret, gst_structure_copy (template));
2559     return ret;
2560   }
2561
2562   memset (&size, 0, sizeof (struct v4l2_frmsizeenum));
2563   size.index = 0;
2564   size.pixel_format = pixelformat;
2565
2566   GST_DEBUG_OBJECT (v4l2object->element,
2567       "Enumerating frame sizes for %" GST_FOURCC_FORMAT,
2568       GST_FOURCC_ARGS (pixelformat));
2569
2570   if (v4l2_ioctl (fd, VIDIOC_ENUM_FRAMESIZES, &size) < 0)
2571     goto enum_framesizes_failed;
2572
2573   if (size.type == V4L2_FRMSIZE_TYPE_DISCRETE) {
2574     do {
2575       GST_LOG_OBJECT (v4l2object->element, "got discrete frame size %dx%d",
2576           size.discrete.width, size.discrete.height);
2577
2578       w = MIN (size.discrete.width, G_MAXINT);
2579       h = MIN (size.discrete.height, G_MAXINT);
2580
2581       if (w && h) {
2582         tmp =
2583             gst_v4l2_object_probe_caps_for_format_and_size (v4l2object,
2584             pixelformat, w, h, template);
2585
2586         if (tmp)
2587           results = g_list_prepend (results, tmp);
2588       }
2589
2590       size.index++;
2591     } while (v4l2_ioctl (fd, VIDIOC_ENUM_FRAMESIZES, &size) >= 0);
2592     GST_DEBUG_OBJECT (v4l2object->element,
2593         "done iterating discrete frame sizes");
2594   } else if (size.type == V4L2_FRMSIZE_TYPE_STEPWISE) {
2595     guint32 maxw, maxh, step_w, step_h;
2596
2597     GST_DEBUG_OBJECT (v4l2object->element, "we have stepwise frame sizes:");
2598     GST_DEBUG_OBJECT (v4l2object->element, "min width:   %d",
2599         size.stepwise.min_width);
2600     GST_DEBUG_OBJECT (v4l2object->element, "min height:  %d",
2601         size.stepwise.min_height);
2602     GST_DEBUG_OBJECT (v4l2object->element, "max width:   %d",
2603         size.stepwise.max_width);
2604     GST_DEBUG_OBJECT (v4l2object->element, "min height:  %d",
2605         size.stepwise.max_height);
2606     GST_DEBUG_OBJECT (v4l2object->element, "step width:  %d",
2607         size.stepwise.step_width);
2608     GST_DEBUG_OBJECT (v4l2object->element, "step height: %d",
2609         size.stepwise.step_height);
2610
2611     w = MAX (size.stepwise.min_width, 1);
2612     h = MAX (size.stepwise.min_height, 1);
2613     maxw = MIN (size.stepwise.max_width, G_MAXINT);
2614     maxh = MIN (size.stepwise.max_height, G_MAXINT);
2615
2616     step_w = MAX (size.stepwise.step_width, 1);
2617     step_h = MAX (size.stepwise.step_height, 1);
2618
2619     /* FIXME: check for sanity and that min/max are multiples of the steps */
2620
2621     /* we only query details for the max width/height since it's likely the
2622      * most restricted if there are any resolution-dependent restrictions */
2623     tmp = gst_v4l2_object_probe_caps_for_format_and_size (v4l2object,
2624         pixelformat, maxw, maxh, template);
2625
2626     if (tmp) {
2627       GValue step_range = G_VALUE_INIT;
2628
2629       g_value_init (&step_range, GST_TYPE_INT_RANGE);
2630       gst_value_set_int_range_step (&step_range, w, maxw, step_w);
2631       gst_structure_set_value (tmp, "width", &step_range);
2632
2633       gst_value_set_int_range_step (&step_range, h, maxh, step_h);
2634       gst_structure_take_value (tmp, "height", &step_range);
2635
2636       /* no point using the results list here, since there's only one struct */
2637       gst_v4l2_object_update_and_append (v4l2object, pixelformat, ret, tmp);
2638     }
2639   } else if (size.type == V4L2_FRMSIZE_TYPE_CONTINUOUS) {
2640     guint32 maxw, maxh;
2641
2642     GST_DEBUG_OBJECT (v4l2object->element, "we have continuous frame sizes:");
2643     GST_DEBUG_OBJECT (v4l2object->element, "min width:   %d",
2644         size.stepwise.min_width);
2645     GST_DEBUG_OBJECT (v4l2object->element, "min height:  %d",
2646         size.stepwise.min_height);
2647     GST_DEBUG_OBJECT (v4l2object->element, "max width:   %d",
2648         size.stepwise.max_width);
2649     GST_DEBUG_OBJECT (v4l2object->element, "min height:  %d",
2650         size.stepwise.max_height);
2651
2652     w = MAX (size.stepwise.min_width, 1);
2653     h = MAX (size.stepwise.min_height, 1);
2654     maxw = MIN (size.stepwise.max_width, G_MAXINT);
2655     maxh = MIN (size.stepwise.max_height, G_MAXINT);
2656
2657     tmp =
2658         gst_v4l2_object_probe_caps_for_format_and_size (v4l2object, pixelformat,
2659         w, h, template);
2660     if (tmp) {
2661       gst_structure_set (tmp, "width", GST_TYPE_INT_RANGE, (gint) w,
2662           (gint) maxw, "height", GST_TYPE_INT_RANGE, (gint) h, (gint) maxh,
2663           NULL);
2664
2665       /* no point using the results list here, since there's only one struct */
2666       gst_v4l2_object_update_and_append (v4l2object, pixelformat, ret, tmp);
2667     }
2668   } else {
2669     goto unknown_type;
2670   }
2671
2672   /* we use an intermediary list to store and then sort the results of the
2673    * probing because we can't make any assumptions about the order in which
2674    * the driver will give us the sizes, but we want the final caps to contain
2675    * the results starting with the highest resolution and having the lowest
2676    * resolution last, since order in caps matters for things like fixation. */
2677   results = g_list_sort (results, (GCompareFunc) sort_by_frame_size);
2678   while (results != NULL) {
2679     gst_v4l2_object_update_and_append (v4l2object, pixelformat, ret,
2680         results->data);
2681     results = g_list_delete_link (results, results);
2682   }
2683
2684   if (gst_caps_is_empty (ret))
2685     goto enum_framesizes_no_results;
2686
2687   return ret;
2688
2689   /* ERRORS */
2690 enum_framesizes_failed:
2691   {
2692     /* I don't see how this is actually an error */
2693     GST_DEBUG_OBJECT (v4l2object->element,
2694         "Failed to enumerate frame sizes for pixelformat %" GST_FOURCC_FORMAT
2695         " (%s)", GST_FOURCC_ARGS (pixelformat), g_strerror (errno));
2696     goto default_frame_sizes;
2697   }
2698 enum_framesizes_no_results:
2699   {
2700     /* it's possible that VIDIOC_ENUM_FRAMESIZES is defined but the driver in
2701      * question doesn't actually support it yet */
2702     GST_DEBUG_OBJECT (v4l2object->element,
2703         "No results for pixelformat %" GST_FOURCC_FORMAT
2704         " enumerating frame sizes, trying fallback",
2705         GST_FOURCC_ARGS (pixelformat));
2706     goto default_frame_sizes;
2707   }
2708 unknown_type:
2709   {
2710     GST_WARNING_OBJECT (v4l2object->element,
2711         "Unknown frame sizeenum type for pixelformat %" GST_FOURCC_FORMAT
2712         ": %u", GST_FOURCC_ARGS (pixelformat), size.type);
2713     goto default_frame_sizes;
2714   }
2715
2716 default_frame_sizes:
2717   {
2718     gint min_w, max_w, min_h, max_h, fix_num = 0, fix_denom = 0;
2719
2720     /* This code is for Linux < 2.6.19 */
2721     min_w = min_h = 1;
2722     max_w = max_h = GST_V4L2_MAX_SIZE;
2723     if (!gst_v4l2_object_get_nearest_size (v4l2object, pixelformat, &min_w,
2724             &min_h)) {
2725       GST_WARNING_OBJECT (v4l2object->element,
2726           "Could not probe minimum capture size for pixelformat %"
2727           GST_FOURCC_FORMAT, GST_FOURCC_ARGS (pixelformat));
2728     }
2729     if (!gst_v4l2_object_get_nearest_size (v4l2object, pixelformat, &max_w,
2730             &max_h)) {
2731       GST_WARNING_OBJECT (v4l2object->element,
2732           "Could not probe maximum capture size for pixelformat %"
2733           GST_FOURCC_FORMAT, GST_FOURCC_ARGS (pixelformat));
2734     }
2735
2736     /* Since we can't get framerate directly, try to use the current norm */
2737     if (v4l2object->tv_norm && v4l2object->norms) {
2738       GList *norms;
2739       GstTunerNorm *norm = NULL;
2740       GstTunerNorm *current =
2741           gst_v4l2_tuner_get_norm_by_std_id (v4l2object, v4l2object->tv_norm);
2742
2743       for (norms = v4l2object->norms; norms != NULL; norms = norms->next) {
2744         norm = (GstTunerNorm *) norms->data;
2745         if (!strcmp (norm->label, current->label))
2746           break;
2747       }
2748       /* If it's possible, set framerate to that (discrete) value */
2749       if (norm) {
2750         fix_num = gst_value_get_fraction_numerator (&norm->framerate);
2751         fix_denom = gst_value_get_fraction_denominator (&norm->framerate);
2752       }
2753     }
2754
2755     tmp = gst_structure_copy (template);
2756     if (fix_num) {
2757       gst_structure_set (tmp, "framerate", GST_TYPE_FRACTION, fix_num,
2758           fix_denom, NULL);
2759     } else if (v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE ||
2760         v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE_MPLANE) {
2761       /* if norm can't be used, copy the template framerate */
2762       gst_structure_set (tmp, "framerate", GST_TYPE_FRACTION_RANGE, 0, 1,
2763           G_MAXINT, 1, NULL);
2764     }
2765
2766     if (min_w == max_w)
2767       gst_structure_set (tmp, "width", G_TYPE_INT, max_w, NULL);
2768     else
2769       gst_structure_set (tmp, "width", GST_TYPE_INT_RANGE, min_w, max_w, NULL);
2770
2771     if (min_h == max_h)
2772       gst_structure_set (tmp, "height", G_TYPE_INT, max_h, NULL);
2773     else
2774       gst_structure_set (tmp, "height", GST_TYPE_INT_RANGE, min_h, max_h, NULL);
2775
2776     /* We could consider setting interlace mode from min and max. */
2777     gst_v4l2_object_add_interlace_mode (v4l2object, tmp, max_w, max_h,
2778         pixelformat);
2779     gst_v4l2_object_add_aspect_ratio (v4l2object, tmp);
2780     /* We could consider to check colorspace for min too, in case it depends on
2781      * the size. But in this case, min and max could not be enough */
2782     gst_v4l2_object_add_colorspace (v4l2object, tmp, max_w, max_h, pixelformat);
2783
2784     gst_v4l2_object_update_and_append (v4l2object, pixelformat, ret, tmp);
2785     return ret;
2786   }
2787 }
2788
2789 static gboolean
2790 gst_v4l2_object_get_nearest_size (GstV4l2Object * v4l2object,
2791     guint32 pixelformat, gint * width, gint * height)
2792 {
2793   struct v4l2_format fmt;
2794   gboolean ret = FALSE;
2795   GstVideoInterlaceMode interlace_mode;
2796
2797   g_return_val_if_fail (width != NULL, FALSE);
2798   g_return_val_if_fail (height != NULL, FALSE);
2799
2800   GST_LOG_OBJECT (v4l2object->element,
2801       "getting nearest size to %dx%d with format %" GST_FOURCC_FORMAT,
2802       *width, *height, GST_FOURCC_ARGS (pixelformat));
2803
2804   memset (&fmt, 0, sizeof (struct v4l2_format));
2805
2806   /* get size delimiters */
2807   memset (&fmt, 0, sizeof (fmt));
2808   fmt.type = v4l2object->type;
2809   fmt.fmt.pix.width = *width;
2810   fmt.fmt.pix.height = *height;
2811   fmt.fmt.pix.pixelformat = pixelformat;
2812   fmt.fmt.pix.field = V4L2_FIELD_ANY;
2813
2814   if (gst_v4l2_object_try_fmt (v4l2object, &fmt) < 0)
2815     goto error;
2816
2817   GST_LOG_OBJECT (v4l2object->element,
2818       "got nearest size %dx%d", fmt.fmt.pix.width, fmt.fmt.pix.height);
2819
2820   *width = fmt.fmt.pix.width;
2821   *height = fmt.fmt.pix.height;
2822
2823   if (!gst_v4l2_object_get_interlace_mode (fmt.fmt.pix.field, &interlace_mode)) {
2824     GST_WARNING_OBJECT (v4l2object->element,
2825         "Unsupported field type for %" GST_FOURCC_FORMAT "@%ux%u: %u",
2826         GST_FOURCC_ARGS (pixelformat), *width, *height, fmt.fmt.pix.field);
2827     goto error;
2828   }
2829
2830   ret = TRUE;
2831
2832 error:
2833   if (!ret) {
2834     GST_WARNING_OBJECT (v4l2object->element,
2835         "Unable to try format: %s", g_strerror (errno));
2836   }
2837
2838   return ret;
2839 }
2840
2841 static gboolean
2842 gst_v4l2_object_setup_pool (GstV4l2Object * v4l2object, GstCaps * caps)
2843 {
2844   GstV4l2IOMode mode;
2845
2846   GST_DEBUG_OBJECT (v4l2object->element, "initializing the %s system",
2847       V4L2_TYPE_IS_OUTPUT (v4l2object->type) ? "output" : "capture");
2848
2849   GST_V4L2_CHECK_OPEN (v4l2object);
2850   GST_V4L2_CHECK_NOT_ACTIVE (v4l2object);
2851
2852   /* find transport */
2853   mode = v4l2object->req_mode;
2854
2855   if (v4l2object->device_caps & V4L2_CAP_READWRITE) {
2856     if (v4l2object->req_mode == GST_V4L2_IO_AUTO)
2857       mode = GST_V4L2_IO_RW;
2858   } else if (v4l2object->req_mode == GST_V4L2_IO_RW)
2859     goto method_not_supported;
2860
2861   if (v4l2object->device_caps & V4L2_CAP_STREAMING) {
2862     if (v4l2object->req_mode == GST_V4L2_IO_AUTO)
2863       mode = GST_V4L2_IO_MMAP;
2864   } else if (v4l2object->req_mode == GST_V4L2_IO_MMAP)
2865     goto method_not_supported;
2866
2867   /* if still no transport selected, error out */
2868   if (mode == GST_V4L2_IO_AUTO)
2869     goto no_supported_capture_method;
2870
2871   GST_INFO_OBJECT (v4l2object->element, "accessing buffers via mode %d", mode);
2872   v4l2object->mode = mode;
2873
2874   /* If min_buffers is not set, the driver either does not support the control or
2875      it has not been asked yet via propose_allocation/decide_allocation. */
2876   if (!v4l2object->min_buffers)
2877     gst_v4l2_get_driver_min_buffers (v4l2object);
2878
2879   /* Map the buffers */
2880   GST_LOG_OBJECT (v4l2object->element, "initiating buffer pool");
2881
2882   if (!(v4l2object->pool = gst_v4l2_buffer_pool_new (v4l2object, caps)))
2883     goto buffer_pool_new_failed;
2884
2885   GST_V4L2_SET_ACTIVE (v4l2object);
2886
2887   return TRUE;
2888
2889   /* ERRORS */
2890 buffer_pool_new_failed:
2891   {
2892     GST_ELEMENT_ERROR (v4l2object->element, RESOURCE, READ,
2893         (_("Could not map buffers from device '%s'"),
2894             v4l2object->videodev),
2895         ("Failed to create buffer pool: %s", g_strerror (errno)));
2896     return FALSE;
2897   }
2898 method_not_supported:
2899   {
2900     GST_ELEMENT_ERROR (v4l2object->element, RESOURCE, READ,
2901         (_("The driver of device '%s' does not support the IO method %d"),
2902             v4l2object->videodev, mode), (NULL));
2903     return FALSE;
2904   }
2905 no_supported_capture_method:
2906   {
2907     GST_ELEMENT_ERROR (v4l2object->element, RESOURCE, READ,
2908         (_("The driver of device '%s' does not support any known IO "
2909                 "method."), v4l2object->videodev), (NULL));
2910     return FALSE;
2911   }
2912 }
2913
2914 static void
2915 gst_v4l2_object_set_stride (GstVideoInfo * info, GstVideoAlignment * align,
2916     gint plane, gint stride)
2917 {
2918   const GstVideoFormatInfo *finfo = info->finfo;
2919
2920   if (GST_VIDEO_FORMAT_INFO_IS_TILED (finfo)) {
2921     gint x_tiles, y_tiles, ws, hs, tile_height, padded_height;
2922
2923
2924     ws = GST_VIDEO_FORMAT_INFO_TILE_WS (finfo);
2925     hs = GST_VIDEO_FORMAT_INFO_TILE_HS (finfo);
2926     tile_height = 1 << hs;
2927
2928     padded_height = GST_VIDEO_FORMAT_INFO_SCALE_HEIGHT (finfo, plane,
2929         info->height + align->padding_top + align->padding_bottom);
2930     padded_height = GST_ROUND_UP_N (padded_height, tile_height);
2931
2932     x_tiles = stride >> ws;
2933     y_tiles = padded_height >> hs;
2934     info->stride[plane] = GST_VIDEO_TILE_MAKE_STRIDE (x_tiles, y_tiles);
2935   } else {
2936     info->stride[plane] = stride;
2937   }
2938 }
2939
2940 static void
2941 gst_v4l2_object_extrapolate_info (GstV4l2Object * v4l2object,
2942     GstVideoInfo * info, GstVideoAlignment * align, gint stride)
2943 {
2944   const GstVideoFormatInfo *finfo = info->finfo;
2945   gint i, estride, padded_height;
2946   gsize offs = 0;
2947
2948   g_return_if_fail (v4l2object->n_v4l2_planes == 1);
2949
2950   padded_height = info->height + align->padding_top + align->padding_bottom;
2951
2952   for (i = 0; i < finfo->n_planes; i++) {
2953     estride = gst_v4l2_object_extrapolate_stride (finfo, i, stride);
2954
2955     gst_v4l2_object_set_stride (info, align, i, estride);
2956
2957     info->offset[i] = offs;
2958     offs += estride *
2959         GST_VIDEO_FORMAT_INFO_SCALE_HEIGHT (finfo, i, padded_height);
2960
2961     GST_DEBUG_OBJECT (v4l2object->element,
2962         "Extrapolated for plane %d with base stride %d: "
2963         "stride %d, offset %" G_GSIZE_FORMAT, i, stride, info->stride[i],
2964         info->offset[i]);
2965   }
2966
2967   /* Update the image size according the amount of data we are going to
2968    * read/write. This workaround bugs in driver where the sizeimage provided
2969    * by TRY/S_FMT represent the buffer length (maximum size) rather then the expected
2970    * bytesused (buffer size). */
2971   if (offs < info->size)
2972     info->size = offs;
2973 }
2974
2975 static void
2976 gst_v4l2_object_save_format (GstV4l2Object * v4l2object,
2977     struct v4l2_fmtdesc *fmtdesc, struct v4l2_format *format,
2978     GstVideoInfo * info, GstVideoAlignment * align)
2979 {
2980   const GstVideoFormatInfo *finfo = info->finfo;
2981   gboolean standard_stride = TRUE;
2982   gint stride, padded_width, padded_height, i;
2983
2984   if (GST_VIDEO_INFO_FORMAT (info) == GST_VIDEO_FORMAT_ENCODED) {
2985     v4l2object->n_v4l2_planes = 1;
2986     info->size = format->fmt.pix.sizeimage;
2987     goto store_info;
2988   }
2989
2990   /* adjust right padding */
2991   if (V4L2_TYPE_IS_MULTIPLANAR (v4l2object->type))
2992     stride = format->fmt.pix_mp.plane_fmt[0].bytesperline;
2993   else
2994     stride = format->fmt.pix.bytesperline;
2995
2996   padded_width = stride / GST_VIDEO_FORMAT_INFO_PSTRIDE (finfo, 0);
2997
2998   if (padded_width < format->fmt.pix.width)
2999     GST_WARNING_OBJECT (v4l2object->element,
3000         "Driver bug detected, stride is too small for the width");
3001
3002   align->padding_right = padded_width - info->width - align->padding_left;
3003
3004   /* adjust bottom padding */
3005   padded_height = format->fmt.pix.height;
3006
3007   if (GST_VIDEO_FORMAT_INFO_IS_TILED (finfo)) {
3008     guint hs, tile_height;
3009
3010     hs = GST_VIDEO_FORMAT_INFO_TILE_HS (finfo);
3011     tile_height = 1 << hs;
3012
3013     padded_height = GST_ROUND_UP_N (padded_height, tile_height);
3014   }
3015
3016   align->padding_bottom = padded_height - info->height - align->padding_top;
3017
3018   /* setup the strides and offset */
3019   if (V4L2_TYPE_IS_MULTIPLANAR (v4l2object->type)) {
3020     struct v4l2_pix_format_mplane *pix_mp = &format->fmt.pix_mp;
3021
3022     /* figure out the frame layout */
3023     v4l2object->n_v4l2_planes = MAX (1, pix_mp->num_planes);
3024     info->size = 0;
3025     for (i = 0; i < v4l2object->n_v4l2_planes; i++) {
3026       stride = pix_mp->plane_fmt[i].bytesperline;
3027
3028       if (info->stride[i] != stride)
3029         standard_stride = FALSE;
3030
3031       gst_v4l2_object_set_stride (info, align, i, stride);
3032       info->offset[i] = info->size;
3033       info->size += pix_mp->plane_fmt[i].sizeimage;
3034     }
3035
3036     /* Extrapolate stride if planar format are being set in 1 v4l2 plane */
3037     if (v4l2object->n_v4l2_planes < finfo->n_planes) {
3038       stride = format->fmt.pix_mp.plane_fmt[0].bytesperline;
3039       gst_v4l2_object_extrapolate_info (v4l2object, info, align, stride);
3040     }
3041   } else {
3042     /* only one plane in non-MPLANE mode */
3043     v4l2object->n_v4l2_planes = 1;
3044     info->size = format->fmt.pix.sizeimage;
3045     stride = format->fmt.pix.bytesperline;
3046
3047     if (info->stride[0] != stride)
3048       standard_stride = FALSE;
3049
3050     gst_v4l2_object_extrapolate_info (v4l2object, info, align, stride);
3051   }
3052
3053   /* adjust the offset to take into account left and top */
3054   if (GST_VIDEO_FORMAT_INFO_IS_TILED (finfo)) {
3055     if ((align->padding_left + align->padding_top) > 0)
3056       GST_WARNING_OBJECT (v4l2object->element,
3057           "Left and top padding is not permitted for tiled formats");
3058   } else {
3059     for (i = 0; i < finfo->n_planes; i++) {
3060       gint vedge, hedge;
3061
3062       /* FIXME we assume plane as component as this is true for all supported
3063        * format we support. */
3064
3065       hedge = GST_VIDEO_FORMAT_INFO_SCALE_WIDTH (finfo, i, align->padding_left);
3066       vedge = GST_VIDEO_FORMAT_INFO_SCALE_HEIGHT (finfo, i, align->padding_top);
3067
3068       info->offset[i] += (vedge * info->stride[i]) +
3069           (hedge * GST_VIDEO_INFO_COMP_PSTRIDE (info, i));
3070     }
3071   }
3072
3073 store_info:
3074   GST_DEBUG_OBJECT (v4l2object->element, "Got sizeimage %" G_GSIZE_FORMAT,
3075       info->size);
3076
3077   /* to avoid copies we need video meta if top or left padding */
3078   v4l2object->need_video_meta =
3079       ((align->padding_top + align->padding_left) != 0);
3080
3081   /* ... or if stride is non "standard" */
3082   if (!standard_stride)
3083     v4l2object->need_video_meta = TRUE;
3084
3085   /* ... or also video meta if we use multiple, non-contiguous, planes */
3086   if (v4l2object->n_v4l2_planes > 1)
3087     v4l2object->need_video_meta = TRUE;
3088
3089   v4l2object->info = *info;
3090   v4l2object->align = *align;
3091   v4l2object->format = *format;
3092   v4l2object->fmtdesc = fmtdesc;
3093
3094   /* if we have a framerate pre-calculate duration */
3095   if (info->fps_n > 0 && info->fps_d > 0) {
3096     v4l2object->duration = gst_util_uint64_scale_int (GST_SECOND, info->fps_d,
3097         info->fps_n);
3098   } else {
3099     v4l2object->duration = GST_CLOCK_TIME_NONE;
3100   }
3101 }
3102
3103 gint
3104 gst_v4l2_object_extrapolate_stride (const GstVideoFormatInfo * finfo,
3105     gint plane, gint stride)
3106 {
3107   gint estride;
3108
3109   switch (finfo->format) {
3110     case GST_VIDEO_FORMAT_NV12:
3111     case GST_VIDEO_FORMAT_NV12_64Z32:
3112     case GST_VIDEO_FORMAT_NV21:
3113     case GST_VIDEO_FORMAT_NV16:
3114     case GST_VIDEO_FORMAT_NV61:
3115     case GST_VIDEO_FORMAT_NV24:
3116       estride = (plane == 0 ? 1 : 2) *
3117           GST_VIDEO_FORMAT_INFO_SCALE_WIDTH (finfo, plane, stride);
3118       break;
3119     default:
3120       estride = GST_VIDEO_FORMAT_INFO_SCALE_WIDTH (finfo, plane, stride);
3121       break;
3122   }
3123
3124   return estride;
3125 }
3126
3127 static gboolean
3128 gst_v4l2_object_set_format_full (GstV4l2Object * v4l2object, GstCaps * caps,
3129     gboolean try_only, GstV4l2Error * error)
3130 {
3131   gint fd = v4l2object->video_fd;
3132   struct v4l2_format format;
3133   struct v4l2_streamparm streamparm;
3134   enum v4l2_field field;
3135   guint32 pixelformat;
3136   struct v4l2_fmtdesc *fmtdesc;
3137   GstVideoInfo info;
3138   GstVideoAlignment align;
3139   gint width, height, fps_n, fps_d;
3140   gint n_v4l_planes;
3141   gint i = 0;
3142   gboolean is_mplane;
3143   enum v4l2_colorspace colorspace = 0;
3144   enum v4l2_quantization range = 0;
3145   enum v4l2_ycbcr_encoding matrix = 0;
3146   enum v4l2_xfer_func transfer = 0;
3147
3148   GST_V4L2_CHECK_OPEN (v4l2object);
3149   if (!try_only)
3150     GST_V4L2_CHECK_NOT_ACTIVE (v4l2object);
3151
3152   is_mplane = V4L2_TYPE_IS_MULTIPLANAR (v4l2object->type);
3153
3154   gst_video_info_init (&info);
3155   gst_video_alignment_reset (&align);
3156
3157   if (!gst_v4l2_object_get_caps_info (v4l2object, caps, &fmtdesc, &info))
3158     goto invalid_caps;
3159
3160   pixelformat = fmtdesc->pixelformat;
3161   width = GST_VIDEO_INFO_WIDTH (&info);
3162   height = GST_VIDEO_INFO_HEIGHT (&info);
3163   fps_n = GST_VIDEO_INFO_FPS_N (&info);
3164   fps_d = GST_VIDEO_INFO_FPS_D (&info);
3165
3166   /* if encoded format (GST_VIDEO_INFO_N_PLANES return 0)
3167    * or if contiguous is prefered */
3168   n_v4l_planes = GST_VIDEO_INFO_N_PLANES (&info);
3169   if (!n_v4l_planes || !v4l2object->prefered_non_contiguous)
3170     n_v4l_planes = 1;
3171
3172   if (GST_VIDEO_INFO_IS_INTERLACED (&info)) {
3173     GST_DEBUG_OBJECT (v4l2object->element, "interlaced video");
3174     /* ideally we would differentiate between types of interlaced video
3175      * but there is not sufficient information in the caps..
3176      */
3177     field = V4L2_FIELD_INTERLACED;
3178   } else {
3179     GST_DEBUG_OBJECT (v4l2object->element, "progressive video");
3180     field = V4L2_FIELD_NONE;
3181   }
3182
3183   if (V4L2_TYPE_IS_OUTPUT (v4l2object->type)) {
3184     /* We first pick th main colorspace from the primaries */
3185     switch (info.colorimetry.primaries) {
3186       case GST_VIDEO_COLOR_PRIMARIES_BT709:
3187         /* There is two colorspaces using these primaries, use the range to
3188          * differentiate */
3189         if (info.colorimetry.range == GST_VIDEO_COLOR_RANGE_16_235)
3190           colorspace = V4L2_COLORSPACE_REC709;
3191         else
3192           colorspace = V4L2_COLORSPACE_SRGB;
3193         break;
3194       case GST_VIDEO_COLOR_PRIMARIES_BT470M:
3195         colorspace = V4L2_COLORSPACE_470_SYSTEM_M;
3196         break;
3197       case GST_VIDEO_COLOR_PRIMARIES_BT470BG:
3198         colorspace = V4L2_COLORSPACE_470_SYSTEM_BG;
3199         break;
3200       case GST_VIDEO_COLOR_PRIMARIES_SMPTE170M:
3201         colorspace = V4L2_COLORSPACE_SMPTE170M;
3202         break;
3203       case GST_VIDEO_COLOR_PRIMARIES_SMPTE240M:
3204         colorspace = V4L2_COLORSPACE_SMPTE240M;
3205         break;
3206
3207       case GST_VIDEO_COLOR_PRIMARIES_FILM:
3208       case GST_VIDEO_COLOR_PRIMARIES_UNKNOWN:
3209         /* We don't know, we will guess */
3210         break;
3211
3212       default:
3213         GST_WARNING_OBJECT (v4l2object->element,
3214             "Unknown colorimetry primaries %d", info.colorimetry.primaries);
3215         break;
3216     }
3217
3218     switch (info.colorimetry.range) {
3219       case GST_VIDEO_COLOR_RANGE_0_255:
3220         range = V4L2_QUANTIZATION_FULL_RANGE;
3221         break;
3222       case GST_VIDEO_COLOR_RANGE_16_235:
3223         range = V4L2_QUANTIZATION_LIM_RANGE;
3224         break;
3225       case GST_VIDEO_COLOR_RANGE_UNKNOWN:
3226         /* We let the driver pick a default one */
3227         break;
3228       default:
3229         GST_WARNING_OBJECT (v4l2object->element,
3230             "Unknown colorimetry range %d", info.colorimetry.range);
3231         break;
3232     }
3233
3234     switch (info.colorimetry.matrix) {
3235       case GST_VIDEO_COLOR_MATRIX_RGB:
3236         /* Unspecified, leave to default */
3237         break;
3238         /* FCC is about the same as BT601 with less digit */
3239       case GST_VIDEO_COLOR_MATRIX_FCC:
3240       case GST_VIDEO_COLOR_MATRIX_BT601:
3241         matrix = V4L2_YCBCR_ENC_601;
3242         break;
3243       case GST_VIDEO_COLOR_MATRIX_BT709:
3244         matrix = V4L2_YCBCR_ENC_709;
3245         break;
3246       case GST_VIDEO_COLOR_MATRIX_SMPTE240M:
3247         matrix = V4L2_YCBCR_ENC_SMPTE240M;
3248         break;
3249       case GST_VIDEO_COLOR_MATRIX_BT2020:
3250         matrix = V4L2_YCBCR_ENC_BT2020;
3251         break;
3252       case GST_VIDEO_COLOR_MATRIX_UNKNOWN:
3253         /* We let the driver pick a default one */
3254         break;
3255       default:
3256         GST_WARNING_OBJECT (v4l2object->element,
3257             "Unknown colorimetry matrix %d", info.colorimetry.matrix);
3258         break;
3259     }
3260
3261     switch (info.colorimetry.transfer) {
3262       case GST_VIDEO_TRANSFER_GAMMA18:
3263       case GST_VIDEO_TRANSFER_GAMMA20:
3264       case GST_VIDEO_TRANSFER_GAMMA22:
3265       case GST_VIDEO_TRANSFER_GAMMA28:
3266         GST_WARNING_OBJECT (v4l2object->element,
3267             "GAMMA 18, 20, 22, 28 transfer functions not supported");
3268         /* fallthrough */
3269       case GST_VIDEO_TRANSFER_GAMMA10:
3270         transfer = V4L2_XFER_FUNC_NONE;
3271         break;
3272       case GST_VIDEO_TRANSFER_BT709:
3273         transfer = V4L2_XFER_FUNC_709;
3274         break;
3275       case GST_VIDEO_TRANSFER_SMPTE240M:
3276         transfer = V4L2_XFER_FUNC_SMPTE240M;
3277         break;
3278       case GST_VIDEO_TRANSFER_SRGB:
3279         transfer = V4L2_XFER_FUNC_SRGB;
3280         break;
3281       case GST_VIDEO_TRANSFER_LOG100:
3282       case GST_VIDEO_TRANSFER_LOG316:
3283         GST_WARNING_OBJECT (v4l2object->element,
3284             "LOG 100, 316 transfer functions not supported");
3285         /* FIXME No known sensible default, maybe AdobeRGB ? */
3286         break;
3287       case GST_VIDEO_TRANSFER_UNKNOWN:
3288         /* We let the driver pick a default one */
3289         break;
3290       default:
3291         GST_WARNING_OBJECT (v4l2object->element,
3292             "Unknown colorimetry tranfer %d", info.colorimetry.transfer);
3293         break;
3294     }
3295
3296     if (colorspace == 0) {
3297       /* Try to guess colorspace according to pixelformat and size */
3298       if (GST_VIDEO_INFO_IS_YUV (&info)) {
3299         /* SD streams likely use SMPTE170M and HD streams REC709 */
3300         if (width <= 720 && height <= 576)
3301           colorspace = V4L2_COLORSPACE_SMPTE170M;
3302         else
3303           colorspace = V4L2_COLORSPACE_REC709;
3304       } else if (GST_VIDEO_INFO_IS_RGB (&info)) {
3305         colorspace = V4L2_COLORSPACE_SRGB;
3306         transfer = V4L2_XFER_FUNC_NONE;
3307       }
3308     }
3309   }
3310
3311   GST_DEBUG_OBJECT (v4l2object->element, "Desired format %dx%d, format "
3312       "%" GST_FOURCC_FORMAT " stride: %d", width, height,
3313       GST_FOURCC_ARGS (pixelformat), GST_VIDEO_INFO_PLANE_STRIDE (&info, 0));
3314
3315   memset (&format, 0x00, sizeof (struct v4l2_format));
3316   format.type = v4l2object->type;
3317
3318   if (is_mplane) {
3319     format.type = v4l2object->type;
3320     format.fmt.pix_mp.pixelformat = pixelformat;
3321     format.fmt.pix_mp.width = width;
3322     format.fmt.pix_mp.height = height;
3323     format.fmt.pix_mp.field = field;
3324     format.fmt.pix_mp.num_planes = n_v4l_planes;
3325
3326     /* try to ask our prefered stride but it's not a failure if not
3327      * accepted */
3328     for (i = 0; i < n_v4l_planes; i++) {
3329       gint stride = GST_VIDEO_INFO_PLANE_STRIDE (&info, i);
3330
3331       if (GST_VIDEO_FORMAT_INFO_IS_TILED (info.finfo))
3332         stride = GST_VIDEO_TILE_X_TILES (stride) <<
3333             GST_VIDEO_FORMAT_INFO_TILE_WS (info.finfo);
3334
3335       format.fmt.pix_mp.plane_fmt[i].bytesperline = stride;
3336     }
3337
3338     if (GST_VIDEO_INFO_FORMAT (&info) == GST_VIDEO_FORMAT_ENCODED)
3339       format.fmt.pix_mp.plane_fmt[0].sizeimage = ENCODED_BUFFER_SIZE;
3340   } else {
3341     gint stride = GST_VIDEO_INFO_PLANE_STRIDE (&info, 0);
3342
3343     format.type = v4l2object->type;
3344     format.fmt.pix.width = width;
3345     format.fmt.pix.height = height;
3346     format.fmt.pix.pixelformat = pixelformat;
3347     format.fmt.pix.field = field;
3348
3349     if (GST_VIDEO_FORMAT_INFO_IS_TILED (info.finfo))
3350       stride = GST_VIDEO_TILE_X_TILES (stride) <<
3351           GST_VIDEO_FORMAT_INFO_TILE_WS (info.finfo);
3352
3353     /* try to ask our prefered stride */
3354     format.fmt.pix.bytesperline = stride;
3355
3356     if (GST_VIDEO_INFO_FORMAT (&info) == GST_VIDEO_FORMAT_ENCODED)
3357       format.fmt.pix.sizeimage = ENCODED_BUFFER_SIZE;
3358   }
3359
3360   GST_DEBUG_OBJECT (v4l2object->element, "Desired format is %dx%d, format "
3361       "%" GST_FOURCC_FORMAT ", nb planes %d", format.fmt.pix.width,
3362       format.fmt.pix_mp.height,
3363       GST_FOURCC_ARGS (format.fmt.pix.pixelformat),
3364       is_mplane ? format.fmt.pix_mp.num_planes : 1);
3365
3366 #ifndef GST_DISABLE_GST_DEBUG
3367   if (is_mplane) {
3368     for (i = 0; i < format.fmt.pix_mp.num_planes; i++)
3369       GST_DEBUG_OBJECT (v4l2object->element, "  stride %d",
3370           format.fmt.pix_mp.plane_fmt[i].bytesperline);
3371   } else {
3372     GST_DEBUG_OBJECT (v4l2object->element, "  stride %d",
3373         format.fmt.pix.bytesperline);
3374   }
3375 #endif
3376
3377   if (V4L2_TYPE_IS_OUTPUT (v4l2object->type)) {
3378     if (is_mplane) {
3379       format.fmt.pix_mp.colorspace = colorspace;
3380       format.fmt.pix_mp.quantization = range;
3381       format.fmt.pix_mp.ycbcr_enc = matrix;
3382       format.fmt.pix_mp.xfer_func = transfer;
3383     } else {
3384       format.fmt.pix.colorspace = colorspace;
3385       format.fmt.pix.quantization = range;
3386       format.fmt.pix.ycbcr_enc = matrix;
3387       format.fmt.pix.xfer_func = transfer;
3388     }
3389
3390     GST_DEBUG_OBJECT (v4l2object->element, "Desired colorspace is %d:%d:%d:%d",
3391         colorspace, range, matrix, transfer);
3392   }
3393
3394   if (try_only) {
3395     if (v4l2_ioctl (fd, VIDIOC_TRY_FMT, &format) < 0)
3396       goto try_fmt_failed;
3397   } else {
3398     if (v4l2_ioctl (fd, VIDIOC_S_FMT, &format) < 0)
3399       goto set_fmt_failed;
3400   }
3401
3402   GST_DEBUG_OBJECT (v4l2object->element, "Got format of %dx%d, format "
3403       "%" GST_FOURCC_FORMAT ", nb planes %d, colorspace %d",
3404       format.fmt.pix.width, format.fmt.pix_mp.height,
3405       GST_FOURCC_ARGS (format.fmt.pix.pixelformat),
3406       is_mplane ? format.fmt.pix_mp.num_planes : 1,
3407       is_mplane ? format.fmt.pix_mp.colorspace : format.fmt.pix.colorspace);
3408
3409 #ifndef GST_DISABLE_GST_DEBUG
3410   if (is_mplane) {
3411     for (i = 0; i < format.fmt.pix_mp.num_planes; i++)
3412       GST_DEBUG_OBJECT (v4l2object->element, "  stride %d, sizeimage %d",
3413           format.fmt.pix_mp.plane_fmt[i].bytesperline,
3414           format.fmt.pix_mp.plane_fmt[i].sizeimage);
3415   } else {
3416     GST_DEBUG_OBJECT (v4l2object->element, "  stride %d, sizeimage %d",
3417         format.fmt.pix.bytesperline, format.fmt.pix.sizeimage);
3418   }
3419 #endif
3420
3421   if (format.fmt.pix.pixelformat != pixelformat)
3422     goto invalid_pixelformat;
3423
3424   /* Only negotiate size with raw data.
3425    * For some codecs the dimensions are *not* in the bitstream, IIRC VC1
3426    * in ASF mode for example, there is also not reason for a driver to
3427    * change the size. */
3428   if (info.finfo->format != GST_VIDEO_FORMAT_ENCODED) {
3429     /* We can crop larger images */
3430     if (format.fmt.pix.width < width || format.fmt.pix.height < height)
3431       goto invalid_dimensions;
3432
3433     /* Note, this will be adjusted if upstream has non-centered cropping. */
3434     align.padding_top = 0;
3435     align.padding_bottom = format.fmt.pix.height - height;
3436     align.padding_left = 0;
3437     align.padding_right = format.fmt.pix.width - width;
3438   }
3439
3440   if (is_mplane && format.fmt.pix_mp.num_planes != n_v4l_planes)
3441     goto invalid_planes;
3442
3443   if (try_only)                 /* good enough for trying only */
3444     return TRUE;
3445
3446   if (GST_VIDEO_INFO_HAS_ALPHA (&info)) {
3447     struct v4l2_control ctl = { 0, };
3448     ctl.id = V4L2_CID_ALPHA_COMPONENT;
3449     ctl.value = 0xff;
3450
3451     if (v4l2_ioctl (fd, VIDIOC_S_CTRL, &ctl) < 0)
3452       GST_WARNING_OBJECT (v4l2object->element,
3453           "Failed to set alpha component value");
3454   }
3455
3456   /* Is there a reason we require the caller to always specify a framerate? */
3457   GST_DEBUG_OBJECT (v4l2object->element, "Desired framerate: %u/%u", fps_n,
3458       fps_d);
3459
3460   memset (&streamparm, 0x00, sizeof (struct v4l2_streamparm));
3461   streamparm.type = v4l2object->type;
3462
3463   if (v4l2_ioctl (fd, VIDIOC_G_PARM, &streamparm) < 0)
3464     goto get_parm_failed;
3465
3466   GST_VIDEO_INFO_FPS_N (&info) =
3467       streamparm.parm.capture.timeperframe.denominator;
3468   GST_VIDEO_INFO_FPS_D (&info) = streamparm.parm.capture.timeperframe.numerator;
3469
3470   if (v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE
3471       || v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE_MPLANE) {
3472     GST_DEBUG_OBJECT (v4l2object->element, "Got framerate: %u/%u",
3473         streamparm.parm.capture.timeperframe.denominator,
3474         streamparm.parm.capture.timeperframe.numerator);
3475
3476     /* We used to skip frame rate setup if the camera was already setup
3477      * with the requested frame rate. This breaks some cameras though,
3478      * causing them to not output data (several models of Thinkpad cameras
3479      * have this problem at least).
3480      * So, don't skip. */
3481     GST_LOG_OBJECT (v4l2object->element, "Setting framerate to %u/%u", fps_n,
3482         fps_d);
3483     /* We want to change the frame rate, so check whether we can. Some cheap USB
3484      * cameras don't have the capability */
3485     if ((streamparm.parm.capture.capability & V4L2_CAP_TIMEPERFRAME) == 0) {
3486       GST_DEBUG_OBJECT (v4l2object->element,
3487           "Not setting framerate (not supported)");
3488       goto done;
3489     }
3490
3491     /* Note: V4L2 wants the frame interval, we have the frame rate */
3492     streamparm.parm.capture.timeperframe.numerator = fps_d;
3493     streamparm.parm.capture.timeperframe.denominator = fps_n;
3494
3495     /* some cheap USB cam's won't accept any change */
3496     if (v4l2_ioctl (fd, VIDIOC_S_PARM, &streamparm) < 0)
3497       goto set_parm_failed;
3498
3499     if (streamparm.parm.capture.timeperframe.numerator > 0 &&
3500         streamparm.parm.capture.timeperframe.denominator > 0) {
3501       /* get new values */
3502       fps_d = streamparm.parm.capture.timeperframe.numerator;
3503       fps_n = streamparm.parm.capture.timeperframe.denominator;
3504
3505       GST_INFO_OBJECT (v4l2object->element, "Set framerate to %u/%u", fps_n,
3506           fps_d);
3507     } else {
3508       /* fix v4l2 capture driver to provide framerate values */
3509       GST_WARNING_OBJECT (v4l2object->element,
3510           "Reuse caps framerate %u/%u - fix v4l2 capture driver", fps_n, fps_d);
3511     }
3512
3513     GST_VIDEO_INFO_FPS_N (&info) = fps_n;
3514     GST_VIDEO_INFO_FPS_D (&info) = fps_d;
3515   }
3516
3517 done:
3518   /* add boolean return, so we can fail on drivers bugs */
3519   gst_v4l2_object_save_format (v4l2object, fmtdesc, &format, &info, &align);
3520
3521   /* now configure the pool */
3522   if (!gst_v4l2_object_setup_pool (v4l2object, caps))
3523     goto pool_failed;
3524
3525   return TRUE;
3526
3527   /* ERRORS */
3528 invalid_caps:
3529   {
3530     GST_DEBUG_OBJECT (v4l2object->element, "can't parse caps %" GST_PTR_FORMAT,
3531         caps);
3532     return FALSE;
3533   }
3534 try_fmt_failed:
3535   {
3536     if (errno == EBUSY) {
3537       GST_V4L2_ERROR (error, RESOURCE, BUSY,
3538           (_("Device '%s' is busy"), v4l2object->videodev),
3539           ("Call to TRY_FMT failed for %" GST_FOURCC_FORMAT " @ %dx%d: %s",
3540               GST_FOURCC_ARGS (pixelformat), width, height,
3541               g_strerror (errno)));
3542     }
3543     return FALSE;
3544   }
3545 set_fmt_failed:
3546   {
3547     if (errno == EBUSY) {
3548       GST_V4L2_ERROR (error, RESOURCE, BUSY,
3549           (_("Device '%s' is busy"), v4l2object->videodev),
3550           ("Call to S_FMT failed for %" GST_FOURCC_FORMAT " @ %dx%d: %s",
3551               GST_FOURCC_ARGS (pixelformat), width, height,
3552               g_strerror (errno)));
3553     } else {
3554       GST_V4L2_ERROR (error, RESOURCE, SETTINGS,
3555           (_("Device '%s' cannot capture at %dx%d"),
3556               v4l2object->videodev, width, height),
3557           ("Call to S_FMT failed for %" GST_FOURCC_FORMAT " @ %dx%d: %s",
3558               GST_FOURCC_ARGS (pixelformat), width, height,
3559               g_strerror (errno)));
3560     }
3561     return FALSE;
3562   }
3563 invalid_dimensions:
3564   {
3565     if (!try_only) {
3566       GST_V4L2_ERROR (error, RESOURCE, SETTINGS,
3567           (_("Device '%s' cannot capture at %dx%d"),
3568               v4l2object->videodev, width, height),
3569           ("Tried to capture at %dx%d, but device returned size %dx%d",
3570               width, height, format.fmt.pix.width, format.fmt.pix.height));
3571     }
3572     return FALSE;
3573   }
3574 invalid_pixelformat:
3575   {
3576     if (!try_only) {
3577       GST_V4L2_ERROR (error, RESOURCE, SETTINGS,
3578           (_("Device '%s' cannot capture in the specified format"),
3579               v4l2object->videodev),
3580           ("Tried to capture in %" GST_FOURCC_FORMAT
3581               ", but device returned format" " %" GST_FOURCC_FORMAT,
3582               GST_FOURCC_ARGS (pixelformat),
3583               GST_FOURCC_ARGS (format.fmt.pix.pixelformat)));
3584     }
3585     return FALSE;
3586   }
3587 invalid_planes:
3588   {
3589     if (!try_only) {
3590       GST_V4L2_ERROR (error, RESOURCE, SETTINGS,
3591           (_("Device '%s' does support non-contiguous planes"),
3592               v4l2object->videodev),
3593           ("Device wants %d planes", format.fmt.pix_mp.num_planes));
3594     }
3595     return FALSE;
3596   }
3597 get_parm_failed:
3598   {
3599     /* it's possible that this call is not supported */
3600     if (errno != EINVAL && errno != ENOTTY) {
3601       GST_V4L2_ERROR (error, RESOURCE, SETTINGS,
3602           (_("Could not get parameters on device '%s'"),
3603               v4l2object->videodev), GST_ERROR_SYSTEM);
3604     }
3605     goto done;
3606   }
3607 set_parm_failed:
3608   {
3609     GST_V4L2_ERROR (error, RESOURCE, SETTINGS,
3610         (_("Video device did not accept new frame rate setting.")),
3611         GST_ERROR_SYSTEM);
3612     goto done;
3613   }
3614 pool_failed:
3615   {
3616     /* setup_pool already send the error */
3617     return FALSE;
3618   }
3619 }
3620
3621 gboolean
3622 gst_v4l2_object_set_format (GstV4l2Object * v4l2object, GstCaps * caps,
3623     GstV4l2Error * error)
3624 {
3625   return gst_v4l2_object_set_format_full (v4l2object, caps, FALSE, error);
3626 }
3627
3628 gboolean
3629 gst_v4l2_object_try_format (GstV4l2Object * v4l2object, GstCaps * caps,
3630     GstV4l2Error * error)
3631 {
3632   return gst_v4l2_object_set_format_full (v4l2object, caps, TRUE, error);
3633 }
3634
3635 /**
3636  * gst_v4l2_object_acquire_format:
3637  * @v4l2object the object
3638  * @info a GstVideoInfo to be filled
3639  *
3640  * Acquire the driver choosen format. This is useful in decoder or encoder elements where
3641  * the output format is choosen by the HW.
3642  *
3643  * Returns: %TRUE on success, %FALSE on failure.
3644  */
3645 gboolean
3646 gst_v4l2_object_acquire_format (GstV4l2Object * v4l2object, GstVideoInfo * info)
3647 {
3648   struct v4l2_fmtdesc *fmtdesc;
3649   struct v4l2_format fmt;
3650   struct v4l2_crop crop;
3651   struct v4l2_selection sel;
3652   struct v4l2_rect *r = NULL;
3653   GstVideoFormat format;
3654   guint width, height;
3655   GstVideoAlignment align;
3656
3657   gst_video_info_init (info);
3658   gst_video_alignment_reset (&align);
3659
3660   memset (&fmt, 0x00, sizeof (struct v4l2_format));
3661   fmt.type = v4l2object->type;
3662   if (v4l2_ioctl (v4l2object->video_fd, VIDIOC_G_FMT, &fmt) < 0)
3663     goto get_fmt_failed;
3664
3665   fmtdesc = gst_v4l2_object_get_format_from_fourcc (v4l2object,
3666       fmt.fmt.pix.pixelformat);
3667   if (fmtdesc == NULL)
3668     goto unsupported_format;
3669
3670   /* No need to care about mplane, the four first params are the same */
3671   format = gst_v4l2_object_v4l2fourcc_to_video_format (fmt.fmt.pix.pixelformat);
3672
3673   /* fails if we do no translate the fmt.pix.pixelformat to GstVideoFormat */
3674   if (format == GST_VIDEO_FORMAT_UNKNOWN)
3675     goto unsupported_format;
3676
3677   if (fmt.fmt.pix.width == 0 || fmt.fmt.pix.height == 0)
3678     goto invalid_dimensions;
3679
3680   width = fmt.fmt.pix.width;
3681   height = fmt.fmt.pix.height;
3682
3683   /* Use the default compose rectangle */
3684   memset (&sel, 0, sizeof (struct v4l2_selection));
3685   sel.type = v4l2object->type;
3686   sel.target = V4L2_SEL_TGT_COMPOSE_DEFAULT;
3687   if (v4l2_ioctl (v4l2object->video_fd, VIDIOC_G_SELECTION, &sel) >= 0) {
3688     r = &sel.r;
3689   } else {
3690     /* For ancient kernels, fall back to G_CROP */
3691     memset (&crop, 0, sizeof (struct v4l2_crop));
3692     crop.type = v4l2object->type;
3693     if (v4l2_ioctl (v4l2object->video_fd, VIDIOC_G_CROP, &crop) >= 0)
3694       r = &crop.c;
3695   }
3696   if (r) {
3697     align.padding_left = r->left;
3698     align.padding_top = r->top;
3699     align.padding_right = width - r->width - r->left;
3700     align.padding_bottom = height - r->height - r->top;
3701     width = r->width;
3702     height = r->height;
3703   }
3704
3705   gst_video_info_set_format (info, format, width, height);
3706
3707   switch (fmt.fmt.pix.field) {
3708     case V4L2_FIELD_ANY:
3709     case V4L2_FIELD_NONE:
3710       info->interlace_mode = GST_VIDEO_INTERLACE_MODE_PROGRESSIVE;
3711       break;
3712     case V4L2_FIELD_INTERLACED:
3713     case V4L2_FIELD_INTERLACED_TB:
3714     case V4L2_FIELD_INTERLACED_BT:
3715       info->interlace_mode = GST_VIDEO_INTERLACE_MODE_INTERLEAVED;
3716       break;
3717     default:
3718       goto unsupported_field;
3719   }
3720
3721   gst_v4l2_object_get_colorspace (&fmt, &info->colorimetry);
3722
3723   gst_v4l2_object_save_format (v4l2object, fmtdesc, &fmt, info, &align);
3724
3725   /* Shall we setup the pool ? */
3726
3727   return TRUE;
3728
3729 get_fmt_failed:
3730   {
3731     GST_ELEMENT_WARNING (v4l2object->element, RESOURCE, SETTINGS,
3732         (_("Video device did not provide output format.")), GST_ERROR_SYSTEM);
3733     return FALSE;
3734   }
3735 invalid_dimensions:
3736   {
3737     GST_ELEMENT_WARNING (v4l2object->element, RESOURCE, SETTINGS,
3738         (_("Video device returned invalid dimensions.")),
3739         ("Expected non 0 dimensions, got %dx%d", fmt.fmt.pix.width,
3740             fmt.fmt.pix.height));
3741     return FALSE;
3742   }
3743 unsupported_field:
3744   {
3745     GST_ELEMENT_ERROR (v4l2object->element, RESOURCE, SETTINGS,
3746         (_("Video device uses an unsupported interlacing method.")),
3747         ("V4L2 field type %d not supported", fmt.fmt.pix.field));
3748     return FALSE;
3749   }
3750 unsupported_format:
3751   {
3752     GST_ELEMENT_ERROR (v4l2object->element, RESOURCE, SETTINGS,
3753         (_("Video device uses an unsupported pixel format.")),
3754         ("V4L2 format %" GST_FOURCC_FORMAT " not supported",
3755             GST_FOURCC_ARGS (fmt.fmt.pix.pixelformat)));
3756     return FALSE;
3757   }
3758 }
3759
3760 gboolean
3761 gst_v4l2_object_set_crop (GstV4l2Object * obj)
3762 {
3763   struct v4l2_crop crop = { 0 };
3764
3765   crop.type = obj->type;
3766   crop.c.left = obj->align.padding_left;
3767   crop.c.top = obj->align.padding_top;
3768   crop.c.width = obj->info.width;
3769   crop.c.height = obj->info.height;
3770
3771   if (obj->align.padding_left + obj->align.padding_top +
3772       obj->align.padding_right + obj->align.padding_bottom == 0) {
3773     GST_DEBUG_OBJECT (obj->element, "no cropping needed");
3774     return TRUE;
3775   }
3776
3777   GST_DEBUG_OBJECT (obj->element,
3778       "Desired cropping left %u, top %u, size %ux%u", crop.c.left, crop.c.top,
3779       crop.c.width, crop.c.height);
3780
3781   if (v4l2_ioctl (obj->video_fd, VIDIOC_S_CROP, &crop) < 0) {
3782     GST_WARNING_OBJECT (obj->element, "VIDIOC_S_CROP failed");
3783     return FALSE;
3784   }
3785
3786   if (v4l2_ioctl (obj->video_fd, VIDIOC_G_CROP, &crop) < 0) {
3787     GST_WARNING_OBJECT (obj->element, "VIDIOC_G_CROP failed");
3788     return FALSE;
3789   }
3790
3791   GST_DEBUG_OBJECT (obj->element,
3792       "Got cropping left %u, top %u, size %ux%u", crop.c.left, crop.c.top,
3793       crop.c.width, crop.c.height);
3794
3795   return TRUE;
3796 }
3797
3798 gboolean
3799 gst_v4l2_object_caps_equal (GstV4l2Object * v4l2object, GstCaps * caps)
3800 {
3801   GstStructure *config;
3802   GstCaps *oldcaps;
3803   gboolean ret;
3804
3805   if (!v4l2object->pool)
3806     return FALSE;
3807
3808   config = gst_buffer_pool_get_config (v4l2object->pool);
3809   gst_buffer_pool_config_get_params (config, &oldcaps, NULL, NULL, NULL);
3810
3811   ret = oldcaps && gst_caps_is_equal (caps, oldcaps);
3812
3813   gst_structure_free (config);
3814
3815   return ret;
3816 }
3817
3818 gboolean
3819 gst_v4l2_object_unlock (GstV4l2Object * v4l2object)
3820 {
3821   gboolean ret = TRUE;
3822
3823   GST_LOG_OBJECT (v4l2object->element, "start flushing");
3824
3825   if (v4l2object->pool && gst_buffer_pool_is_active (v4l2object->pool))
3826     gst_buffer_pool_set_flushing (v4l2object->pool, TRUE);
3827
3828   return ret;
3829 }
3830
3831 gboolean
3832 gst_v4l2_object_unlock_stop (GstV4l2Object * v4l2object)
3833 {
3834   gboolean ret = TRUE;
3835
3836   GST_LOG_OBJECT (v4l2object->element, "stop flushing");
3837
3838   if (v4l2object->pool && gst_buffer_pool_is_active (v4l2object->pool))
3839     gst_buffer_pool_set_flushing (v4l2object->pool, FALSE);
3840
3841   return ret;
3842 }
3843
3844 gboolean
3845 gst_v4l2_object_stop (GstV4l2Object * v4l2object)
3846 {
3847   GST_DEBUG_OBJECT (v4l2object->element, "stopping");
3848
3849   if (!GST_V4L2_IS_OPEN (v4l2object))
3850     goto done;
3851   if (!GST_V4L2_IS_ACTIVE (v4l2object))
3852     goto done;
3853
3854   if (v4l2object->pool) {
3855     GST_DEBUG_OBJECT (v4l2object->element, "deactivating pool");
3856     gst_buffer_pool_set_active (v4l2object->pool, FALSE);
3857     gst_object_unref (v4l2object->pool);
3858     v4l2object->pool = NULL;
3859   }
3860
3861   GST_V4L2_SET_INACTIVE (v4l2object);
3862
3863 done:
3864   return TRUE;
3865 }
3866
3867 GstCaps *
3868 gst_v4l2_object_probe_caps (GstV4l2Object * v4l2object, GstCaps * filter)
3869 {
3870   GstCaps *ret;
3871   GSList *walk;
3872   GSList *formats;
3873
3874   formats = gst_v4l2_object_get_format_list (v4l2object);
3875
3876   ret = gst_caps_new_empty ();
3877
3878   for (walk = formats; walk; walk = walk->next) {
3879     struct v4l2_fmtdesc *format;
3880     GstStructure *template;
3881
3882     format = (struct v4l2_fmtdesc *) walk->data;
3883
3884     template = gst_v4l2_object_v4l2fourcc_to_bare_struct (format->pixelformat);
3885
3886     if (template) {
3887       GstCaps *tmp;
3888
3889       tmp = gst_v4l2_object_probe_caps_for_format (v4l2object,
3890           format->pixelformat, template);
3891       if (tmp)
3892         gst_caps_append (ret, tmp);
3893
3894       gst_structure_free (template);
3895     } else {
3896       GST_DEBUG_OBJECT (v4l2object->element, "unknown format %u",
3897           format->pixelformat);
3898     }
3899   }
3900
3901   if (filter) {
3902     GstCaps *tmp;
3903
3904     tmp = ret;
3905     ret = gst_caps_intersect_full (filter, ret, GST_CAPS_INTERSECT_FIRST);
3906     gst_caps_unref (tmp);
3907   }
3908
3909   return ret;
3910 }
3911
3912 GstCaps *
3913 gst_v4l2_object_get_caps (GstV4l2Object * v4l2object, GstCaps * filter)
3914 {
3915   GstCaps *ret;
3916
3917   if (v4l2object->probed_caps == NULL)
3918     v4l2object->probed_caps = gst_v4l2_object_probe_caps (v4l2object, NULL);
3919
3920   if (filter) {
3921     ret = gst_caps_intersect_full (filter, v4l2object->probed_caps,
3922         GST_CAPS_INTERSECT_FIRST);
3923   } else {
3924     ret = gst_caps_ref (v4l2object->probed_caps);
3925   }
3926
3927   GST_INFO_OBJECT (v4l2object->element, "probed caps: %" GST_PTR_FORMAT, ret);
3928
3929   return ret;
3930 }
3931
3932 gboolean
3933 gst_v4l2_object_decide_allocation (GstV4l2Object * obj, GstQuery * query)
3934 {
3935   GstCaps *caps;
3936   GstBufferPool *pool = NULL, *other_pool = NULL;
3937   GstStructure *config;
3938   guint size, min, max, own_min = 0;
3939   gboolean update;
3940   gboolean has_video_meta;
3941   gboolean can_share_own_pool, pushing_from_our_pool = FALSE;
3942   GstAllocator *allocator = NULL;
3943   GstAllocationParams params = { 0 };
3944
3945   GST_DEBUG_OBJECT (obj->element, "decide allocation");
3946
3947   g_return_val_if_fail (obj->type == V4L2_BUF_TYPE_VIDEO_CAPTURE ||
3948       obj->type == V4L2_BUF_TYPE_VIDEO_CAPTURE_MPLANE, FALSE);
3949
3950   gst_query_parse_allocation (query, &caps, NULL);
3951
3952   if (obj->pool == NULL) {
3953     if (!gst_v4l2_object_setup_pool (obj, caps))
3954       goto pool_failed;
3955   }
3956
3957   if (gst_query_get_n_allocation_params (query) > 0)
3958     gst_query_parse_nth_allocation_param (query, 0, &allocator, &params);
3959
3960   if (gst_query_get_n_allocation_pools (query) > 0) {
3961     gst_query_parse_nth_allocation_pool (query, 0, &pool, &size, &min, &max);
3962     update = TRUE;
3963   } else {
3964     pool = NULL;
3965     min = max = 0;
3966     size = 0;
3967     update = FALSE;
3968   }
3969
3970   GST_DEBUG_OBJECT (obj->element, "allocation: size:%u min:%u max:%u pool:%"
3971       GST_PTR_FORMAT, size, min, max, pool);
3972
3973   has_video_meta =
3974       gst_query_find_allocation_meta (query, GST_VIDEO_META_API_TYPE, NULL);
3975
3976   can_share_own_pool = (has_video_meta || !obj->need_video_meta);
3977
3978   gst_v4l2_get_driver_min_buffers (obj);
3979   /* We can't share our own pool, if it exceed V4L2 capacity */
3980   if (min + obj->min_buffers + 1 > VIDEO_MAX_FRAME)
3981     can_share_own_pool = FALSE;
3982
3983   /* select a pool */
3984   switch (obj->mode) {
3985     case GST_V4L2_IO_RW:
3986       if (pool) {
3987         /* in READ/WRITE mode, prefer a downstream pool because our own pool
3988          * doesn't help much, we have to write to it as well */
3989         GST_DEBUG_OBJECT (obj->element,
3990             "read/write mode: using downstream pool");
3991         /* use the bigest size, when we use our own pool we can't really do any
3992          * other size than what the hardware gives us but for downstream pools
3993          * we can try */
3994         size = MAX (size, obj->info.size);
3995       } else if (can_share_own_pool) {
3996         /* no downstream pool, use our own then */
3997         GST_DEBUG_OBJECT (obj->element,
3998             "read/write mode: no downstream pool, using our own");
3999         pool = gst_object_ref (obj->pool);
4000         size = obj->info.size;
4001         pushing_from_our_pool = TRUE;
4002       }
4003       break;
4004
4005     case GST_V4L2_IO_USERPTR:
4006     case GST_V4L2_IO_DMABUF_IMPORT:
4007       /* in importing mode, prefer our own pool, and pass the other pool to
4008        * our own, so it can serve itself */
4009       if (pool == NULL)
4010         goto no_downstream_pool;
4011       gst_v4l2_buffer_pool_set_other_pool (GST_V4L2_BUFFER_POOL (obj->pool),
4012           pool);
4013       other_pool = pool;
4014       gst_object_unref (pool);
4015       pool = gst_object_ref (obj->pool);
4016       size = obj->info.size;
4017       break;
4018
4019     case GST_V4L2_IO_MMAP:
4020     case GST_V4L2_IO_DMABUF:
4021       /* in streaming mode, prefer our own pool */
4022       /* Check if we can use it ... */
4023       if (can_share_own_pool) {
4024         if (pool)
4025           gst_object_unref (pool);
4026         pool = gst_object_ref (obj->pool);
4027         size = obj->info.size;
4028         GST_DEBUG_OBJECT (obj->element,
4029             "streaming mode: using our own pool %" GST_PTR_FORMAT, pool);
4030         pushing_from_our_pool = TRUE;
4031       } else if (pool) {
4032         GST_DEBUG_OBJECT (obj->element,
4033             "streaming mode: copying to downstream pool %" GST_PTR_FORMAT,
4034             pool);
4035       } else {
4036         GST_DEBUG_OBJECT (obj->element,
4037             "streaming mode: no usable pool, copying to generic pool");
4038         size = MAX (size, obj->info.size);
4039       }
4040       break;
4041     case GST_V4L2_IO_AUTO:
4042     default:
4043       GST_WARNING_OBJECT (obj->element, "unhandled mode");
4044       break;
4045   }
4046
4047   if (size == 0)
4048     goto no_size;
4049
4050   /* If pushing from our own pool, configure it with queried minimum,
4051    * otherwise use the minimum required */
4052   if (pushing_from_our_pool) {
4053     /* When pushing from our own pool, we need what downstream one, to be able
4054      * to fill the pipeline, the minimum required to decoder according to the
4055      * driver and 1 more, so we don't endup up with everything downstream or
4056      * held by the decoder. */
4057     own_min = min + obj->min_buffers + 1;
4058
4059     /* If no allocation parameters where provided, allow for a little more
4060      * buffers and enable copy threshold */
4061     if (!update) {
4062       own_min += 3;
4063       gst_v4l2_buffer_pool_copy_at_threshold (GST_V4L2_BUFFER_POOL (pool),
4064           TRUE);
4065     } else {
4066       gst_v4l2_buffer_pool_copy_at_threshold (GST_V4L2_BUFFER_POOL (pool),
4067           FALSE);
4068     }
4069
4070   } else {
4071     /* In this case we'll have to configure two buffer pool. For our buffer
4072      * pool, we'll need what the driver one, and one more, so we can dequeu */
4073     own_min = obj->min_buffers + 1;
4074     own_min = MAX (own_min, GST_V4L2_MIN_BUFFERS);
4075
4076     /* for the downstream pool, we keep what downstream wants, though ensure
4077      * at least a minimum if downstream didn't suggest anything (we are
4078      * expecting the base class to create a default one for the context) */
4079     min = MAX (min, GST_V4L2_MIN_BUFFERS);
4080
4081     /* To import we need the other pool to hold at least own_min */
4082     if (obj->pool == pool)
4083       min += own_min;
4084   }
4085
4086   /* Request a bigger max, if one was suggested but it's too small */
4087   if (max != 0)
4088     max = MAX (min, max);
4089
4090   /* First step, configure our own pool */
4091   config = gst_buffer_pool_get_config (obj->pool);
4092
4093   if (obj->need_video_meta || has_video_meta) {
4094     GST_DEBUG_OBJECT (obj->element, "activate Video Meta");
4095     gst_buffer_pool_config_add_option (config,
4096         GST_BUFFER_POOL_OPTION_VIDEO_META);
4097   }
4098
4099   gst_buffer_pool_config_set_allocator (config, allocator, &params);
4100   gst_buffer_pool_config_set_params (config, caps, size, own_min, 0);
4101
4102   GST_DEBUG_OBJECT (obj->element, "setting own pool config to %"
4103       GST_PTR_FORMAT, config);
4104
4105   /* Our pool often need to adjust the value */
4106   if (!gst_buffer_pool_set_config (obj->pool, config)) {
4107     config = gst_buffer_pool_get_config (obj->pool);
4108
4109     GST_DEBUG_OBJECT (obj->element, "own pool config changed to %"
4110         GST_PTR_FORMAT, config);
4111
4112     /* our pool will adjust the maximum buffer, which we are fine with */
4113     if (!gst_buffer_pool_set_config (obj->pool, config))
4114       goto config_failed;
4115   }
4116
4117   /* Now configure the other pool if different */
4118   if (obj->pool != pool)
4119     other_pool = pool;
4120
4121   if (other_pool) {
4122     config = gst_buffer_pool_get_config (other_pool);
4123     gst_buffer_pool_config_set_allocator (config, allocator, &params);
4124     gst_buffer_pool_config_set_params (config, caps, size, min, max);
4125
4126     GST_DEBUG_OBJECT (obj->element, "setting other pool config to %"
4127         GST_PTR_FORMAT, config);
4128
4129     /* if downstream supports video metadata, add this to the pool config */
4130     if (has_video_meta) {
4131       GST_DEBUG_OBJECT (obj->element, "activate Video Meta");
4132       gst_buffer_pool_config_add_option (config,
4133           GST_BUFFER_POOL_OPTION_VIDEO_META);
4134     }
4135
4136     if (!gst_buffer_pool_set_config (other_pool, config)) {
4137       config = gst_buffer_pool_get_config (other_pool);
4138
4139       if (!gst_buffer_pool_config_validate_params (config, caps, size, min,
4140               max)) {
4141         gst_structure_free (config);
4142         goto config_failed;
4143       }
4144
4145       if (!gst_buffer_pool_set_config (other_pool, config))
4146         goto config_failed;
4147     }
4148   }
4149
4150   if (pool) {
4151     /* For simplicity, simply read back the active configuration, so our base
4152      * class get the right information */
4153     config = gst_buffer_pool_get_config (pool);
4154     gst_buffer_pool_config_get_params (config, NULL, &size, &min, &max);
4155     gst_structure_free (config);
4156   }
4157
4158   if (update)
4159     gst_query_set_nth_allocation_pool (query, 0, pool, size, min, max);
4160   else
4161     gst_query_add_allocation_pool (query, pool, size, min, max);
4162
4163   if (allocator)
4164     gst_object_unref (allocator);
4165
4166   if (pool)
4167     gst_object_unref (pool);
4168
4169   return TRUE;
4170
4171 pool_failed:
4172   {
4173     /* setup_pool already send the error */
4174     goto cleanup;
4175   }
4176 config_failed:
4177   {
4178     GST_ELEMENT_ERROR (obj->element, RESOURCE, SETTINGS,
4179         (_("Failed to configure internal buffer pool.")), (NULL));
4180     goto cleanup;
4181   }
4182 no_size:
4183   {
4184     GST_ELEMENT_ERROR (obj->element, RESOURCE, SETTINGS,
4185         (_("Video device did not suggest any buffer size.")), (NULL));
4186     goto cleanup;
4187   }
4188 cleanup:
4189   {
4190     if (allocator)
4191       gst_object_unref (allocator);
4192
4193     if (pool)
4194       gst_object_unref (pool);
4195     return FALSE;
4196   }
4197 no_downstream_pool:
4198   {
4199     GST_ELEMENT_ERROR (obj->element, RESOURCE, SETTINGS,
4200         (_("No downstream pool to import from.")),
4201         ("When importing DMABUF or USERPTR, we need a pool to import from"));
4202     return FALSE;
4203   }
4204 }
4205
4206 gboolean
4207 gst_v4l2_object_propose_allocation (GstV4l2Object * obj, GstQuery * query)
4208 {
4209   GstBufferPool *pool;
4210   /* we need at least 2 buffers to operate */
4211   guint size, min, max;
4212   GstCaps *caps;
4213   gboolean need_pool;
4214
4215   /* Set defaults allocation parameters */
4216   size = obj->info.size;
4217   min = GST_V4L2_MIN_BUFFERS;
4218   max = VIDEO_MAX_FRAME;
4219
4220   gst_query_parse_allocation (query, &caps, &need_pool);
4221
4222   if (caps == NULL)
4223     goto no_caps;
4224
4225   if ((pool = obj->pool))
4226     gst_object_ref (pool);
4227
4228   if (pool != NULL) {
4229     GstCaps *pcaps;
4230     GstStructure *config;
4231
4232     /* we had a pool, check caps */
4233     config = gst_buffer_pool_get_config (pool);
4234     gst_buffer_pool_config_get_params (config, &pcaps, NULL, NULL, NULL);
4235
4236     GST_DEBUG_OBJECT (obj->element,
4237         "we had a pool with caps %" GST_PTR_FORMAT, pcaps);
4238     if (!gst_caps_is_equal (caps, pcaps)) {
4239       gst_structure_free (config);
4240       gst_object_unref (pool);
4241       goto different_caps;
4242     }
4243     gst_structure_free (config);
4244   }
4245   gst_v4l2_get_driver_min_buffers (obj);
4246
4247   min = MAX (obj->min_buffers, GST_V4L2_MIN_BUFFERS);
4248
4249   gst_query_add_allocation_pool (query, pool, size, min, max);
4250
4251   /* we also support various metadata */
4252   gst_query_add_allocation_meta (query, GST_VIDEO_META_API_TYPE, NULL);
4253
4254   if (pool)
4255     gst_object_unref (pool);
4256
4257   return TRUE;
4258
4259   /* ERRORS */
4260 no_caps:
4261   {
4262     GST_DEBUG_OBJECT (obj->element, "no caps specified");
4263     return FALSE;
4264   }
4265 different_caps:
4266   {
4267     /* different caps, we can't use this pool */
4268     GST_DEBUG_OBJECT (obj->element, "pool has different caps");
4269     return FALSE;
4270   }
4271 }