v4l2: fix sRGB colorspace definition
[platform/upstream/gst-plugins-good.git] / sys / v4l2 / gstv4l2object.c
1 /* GStreamer
2  *
3  * Copyright (C) 2001-2002 Ronald Bultje <rbultje@ronald.bitfreak.net>
4  *               2006 Edgard Lima <edgard.lima@indt.org.br>
5  *
6  * gstv4l2object.c: base class for V4L2 elements
7  *
8  * This library is free software; you can redistribute it and/or modify
9  * it under the terms of the GNU Library General Public License as published
10  * by the Free Software Foundation; either version 2 of the License, or
11  * (at your option) any later version. This library is distributed in the hope
12  * that it will be useful, but WITHOUT ANY WARRANTY; without even the
13  * implied warranty of MERCHANTABILITY or FITNESS FOR A PARTICULAR
14  * PURPOSE.  See the GNU Library General Public License for more details.
15  * You should have received a copy of the GNU Library General Public
16  * License along with this library; if not, write to the Free Software
17  * Foundation, Inc., 51 Franklin St, Fifth Floor, Boston, MA 02110-1301,
18  * USA.
19  */
20
21 /* FIXME 0.11: suppress warnings for deprecated API such as GValueArray
22  * with newer GLib versions (>= 2.31.0) */
23 #define GLIB_DISABLE_DEPRECATION_WARNINGS
24
25 #ifdef HAVE_CONFIG_H
26 #include <config.h>
27 #endif
28
29 #include <sys/stat.h>
30 #include <fcntl.h>
31 #include <errno.h>
32 #include <unistd.h>
33 #include <string.h>
34
35 #ifdef HAVE_GUDEV
36 #include <gudev/gudev.h>
37 #endif
38
39 #include "v4l2_calls.h"
40 #include "gstv4l2tuner.h"
41 #include "gstv4l2colorbalance.h"
42
43 #include "gst/gst-i18n-plugin.h"
44
45 #include <gst/video/video.h>
46
47 GST_DEBUG_CATEGORY_EXTERN (v4l2_debug);
48 #define GST_CAT_DEFAULT v4l2_debug
49
50 #define DEFAULT_PROP_DEVICE_NAME        NULL
51 #define DEFAULT_PROP_DEVICE_FD          -1
52 #define DEFAULT_PROP_FLAGS              0
53 #define DEFAULT_PROP_TV_NORM            0
54 #define DEFAULT_PROP_CHANNEL            NULL
55 #define DEFAULT_PROP_FREQUENCY          0
56 #define DEFAULT_PROP_IO_MODE            GST_V4L2_IO_AUTO
57
58 #define ENCODED_BUFFER_SIZE             (1 * 1024 * 1024)
59
60 enum
61 {
62   PROP_0,
63   V4L2_STD_OBJECT_PROPS,
64 };
65
66 /*
67  * common format / caps utilities:
68  */
69 typedef enum
70 {
71   GST_V4L2_RAW = 1 << 0,
72   GST_V4L2_CODEC = 1 << 1,
73   GST_V4L2_TRANSPORT = 1 << 2,
74   GST_V4L2_NO_PARSE = 1 << 3,
75   GST_V4L2_ALL = 0xffff
76 } GstV4L2FormatFlags;
77
78 typedef struct
79 {
80   guint32 format;
81   gboolean dimensions;
82   GstV4L2FormatFlags flags;
83 } GstV4L2FormatDesc;
84
85 static const GstV4L2FormatDesc gst_v4l2_formats[] = {
86   /* RGB formats */
87   {V4L2_PIX_FMT_RGB332, TRUE, GST_V4L2_RAW},
88   {V4L2_PIX_FMT_ARGB555, TRUE, GST_V4L2_RAW},
89   {V4L2_PIX_FMT_XRGB555, TRUE, GST_V4L2_RAW},
90   {V4L2_PIX_FMT_ARGB555X, TRUE, GST_V4L2_RAW},
91   {V4L2_PIX_FMT_XRGB555X, TRUE, GST_V4L2_RAW},
92   {V4L2_PIX_FMT_RGB565, TRUE, GST_V4L2_RAW},
93   {V4L2_PIX_FMT_RGB565X, TRUE, GST_V4L2_RAW},
94   {V4L2_PIX_FMT_BGR666, TRUE, GST_V4L2_RAW},
95   {V4L2_PIX_FMT_BGR24, TRUE, GST_V4L2_RAW},
96   {V4L2_PIX_FMT_RGB24, TRUE, GST_V4L2_RAW},
97   {V4L2_PIX_FMT_ABGR32, TRUE, GST_V4L2_RAW},
98   {V4L2_PIX_FMT_XBGR32, TRUE, GST_V4L2_RAW},
99   {V4L2_PIX_FMT_ARGB32, TRUE, GST_V4L2_RAW},
100   {V4L2_PIX_FMT_XRGB32, TRUE, GST_V4L2_RAW},
101
102   /* Deprecated Packed RGB Image Formats (alpha ambiguity) */
103   {V4L2_PIX_FMT_RGB444, TRUE, GST_V4L2_RAW},
104   {V4L2_PIX_FMT_RGB555, TRUE, GST_V4L2_RAW},
105   {V4L2_PIX_FMT_RGB555X, TRUE, GST_V4L2_RAW},
106   {V4L2_PIX_FMT_BGR32, TRUE, GST_V4L2_RAW},
107   {V4L2_PIX_FMT_RGB32, TRUE, GST_V4L2_RAW},
108
109   /* Grey formats */
110   {V4L2_PIX_FMT_GREY, TRUE, GST_V4L2_RAW},
111   {V4L2_PIX_FMT_Y4, TRUE, GST_V4L2_RAW},
112   {V4L2_PIX_FMT_Y6, TRUE, GST_V4L2_RAW},
113   {V4L2_PIX_FMT_Y10, TRUE, GST_V4L2_RAW},
114   {V4L2_PIX_FMT_Y12, TRUE, GST_V4L2_RAW},
115   {V4L2_PIX_FMT_Y16, TRUE, GST_V4L2_RAW},
116   {V4L2_PIX_FMT_Y16_BE, TRUE, GST_V4L2_RAW},
117   {V4L2_PIX_FMT_Y10BPACK, TRUE, GST_V4L2_RAW},
118
119   /* Palette formats */
120   {V4L2_PIX_FMT_PAL8, TRUE, GST_V4L2_RAW},
121
122   /* Chrominance formats */
123   {V4L2_PIX_FMT_UV8, TRUE, GST_V4L2_RAW},
124
125   /* Luminance+Chrominance formats */
126   {V4L2_PIX_FMT_YVU410, TRUE, GST_V4L2_RAW},
127   {V4L2_PIX_FMT_YVU420, TRUE, GST_V4L2_RAW},
128   {V4L2_PIX_FMT_YVU420M, TRUE, GST_V4L2_RAW},
129   {V4L2_PIX_FMT_YUYV, TRUE, GST_V4L2_RAW},
130   {V4L2_PIX_FMT_YYUV, TRUE, GST_V4L2_RAW},
131   {V4L2_PIX_FMT_YVYU, TRUE, GST_V4L2_RAW},
132   {V4L2_PIX_FMT_UYVY, TRUE, GST_V4L2_RAW},
133   {V4L2_PIX_FMT_VYUY, TRUE, GST_V4L2_RAW},
134   {V4L2_PIX_FMT_YUV422P, TRUE, GST_V4L2_RAW},
135   {V4L2_PIX_FMT_YUV411P, TRUE, GST_V4L2_RAW},
136   {V4L2_PIX_FMT_Y41P, TRUE, GST_V4L2_RAW},
137   {V4L2_PIX_FMT_YUV444, TRUE, GST_V4L2_RAW},
138   {V4L2_PIX_FMT_YUV555, TRUE, GST_V4L2_RAW},
139   {V4L2_PIX_FMT_YUV565, TRUE, GST_V4L2_RAW},
140   {V4L2_PIX_FMT_YUV32, TRUE, GST_V4L2_RAW},
141   {V4L2_PIX_FMT_YUV410, TRUE, GST_V4L2_RAW},
142   {V4L2_PIX_FMT_YUV420, TRUE, GST_V4L2_RAW},
143   {V4L2_PIX_FMT_YUV420M, TRUE, GST_V4L2_RAW},
144   {V4L2_PIX_FMT_HI240, TRUE, GST_V4L2_RAW},
145   {V4L2_PIX_FMT_HM12, TRUE, GST_V4L2_RAW},
146   {V4L2_PIX_FMT_M420, TRUE, GST_V4L2_RAW},
147
148   /* two planes -- one Y, one Cr + Cb interleaved  */
149   {V4L2_PIX_FMT_NV12, TRUE, GST_V4L2_RAW},
150   {V4L2_PIX_FMT_NV12M, TRUE, GST_V4L2_RAW},
151   {V4L2_PIX_FMT_NV12MT, TRUE, GST_V4L2_RAW},
152   {V4L2_PIX_FMT_NV12MT_16X16, TRUE, GST_V4L2_RAW},
153   {V4L2_PIX_FMT_NV21, TRUE, GST_V4L2_RAW},
154   {V4L2_PIX_FMT_NV21M, TRUE, GST_V4L2_RAW},
155   {V4L2_PIX_FMT_NV16, TRUE, GST_V4L2_RAW},
156   {V4L2_PIX_FMT_NV16M, TRUE, GST_V4L2_RAW},
157   {V4L2_PIX_FMT_NV61, TRUE, GST_V4L2_RAW},
158   {V4L2_PIX_FMT_NV61M, TRUE, GST_V4L2_RAW},
159   {V4L2_PIX_FMT_NV24, TRUE, GST_V4L2_RAW},
160   {V4L2_PIX_FMT_NV42, TRUE, GST_V4L2_RAW},
161
162   /* Bayer formats - see http://www.siliconimaging.com/RGB%20Bayer.htm */
163   {V4L2_PIX_FMT_SBGGR8, TRUE, GST_V4L2_CODEC},
164   {V4L2_PIX_FMT_SGBRG8, TRUE, GST_V4L2_CODEC},
165   {V4L2_PIX_FMT_SGRBG8, TRUE, GST_V4L2_CODEC},
166   {V4L2_PIX_FMT_SRGGB8, TRUE, GST_V4L2_CODEC},
167
168   /* compressed formats */
169   {V4L2_PIX_FMT_MJPEG, FALSE, GST_V4L2_CODEC},
170   {V4L2_PIX_FMT_JPEG, FALSE, GST_V4L2_CODEC},
171   {V4L2_PIX_FMT_PJPG, FALSE, GST_V4L2_CODEC},
172   {V4L2_PIX_FMT_DV, FALSE, GST_V4L2_TRANSPORT},
173   {V4L2_PIX_FMT_MPEG, FALSE, GST_V4L2_TRANSPORT},
174   {V4L2_PIX_FMT_H264, FALSE, GST_V4L2_CODEC},
175   {V4L2_PIX_FMT_H264_NO_SC, FALSE, GST_V4L2_CODEC},
176   {V4L2_PIX_FMT_H264_MVC, FALSE, GST_V4L2_CODEC},
177   {V4L2_PIX_FMT_H263, FALSE, GST_V4L2_CODEC},
178   {V4L2_PIX_FMT_MPEG1, FALSE, GST_V4L2_CODEC},
179   {V4L2_PIX_FMT_MPEG2, FALSE, GST_V4L2_CODEC},
180   {V4L2_PIX_FMT_MPEG4, FALSE, GST_V4L2_CODEC},
181   {V4L2_PIX_FMT_XVID, FALSE, GST_V4L2_CODEC},
182   {V4L2_PIX_FMT_VC1_ANNEX_G, FALSE, GST_V4L2_CODEC},
183   {V4L2_PIX_FMT_VC1_ANNEX_L, FALSE, GST_V4L2_CODEC},
184   {V4L2_PIX_FMT_VP8, FALSE, GST_V4L2_CODEC | GST_V4L2_NO_PARSE},
185
186   /*  Vendor-specific formats   */
187   {V4L2_PIX_FMT_WNVA, TRUE, GST_V4L2_CODEC},
188   {V4L2_PIX_FMT_SN9C10X, TRUE, GST_V4L2_CODEC},
189   {V4L2_PIX_FMT_PWC1, TRUE, GST_V4L2_CODEC},
190   {V4L2_PIX_FMT_PWC2, TRUE, GST_V4L2_CODEC},
191 };
192
193 #define GST_V4L2_FORMAT_COUNT (G_N_ELEMENTS (gst_v4l2_formats))
194
195 static GSList *gst_v4l2_object_get_format_list (GstV4l2Object * v4l2object);
196
197
198 #define GST_TYPE_V4L2_DEVICE_FLAGS (gst_v4l2_device_get_type ())
199 static GType
200 gst_v4l2_device_get_type (void)
201 {
202   static GType v4l2_device_type = 0;
203
204   if (v4l2_device_type == 0) {
205     static const GFlagsValue values[] = {
206       {V4L2_CAP_VIDEO_CAPTURE, "Device supports video capture", "capture"},
207       {V4L2_CAP_VIDEO_OUTPUT, "Device supports video playback", "output"},
208       {V4L2_CAP_VIDEO_OVERLAY, "Device supports video overlay", "overlay"},
209
210       {V4L2_CAP_VBI_CAPTURE, "Device supports the VBI capture", "vbi-capture"},
211       {V4L2_CAP_VBI_OUTPUT, "Device supports the VBI output", "vbi-output"},
212
213       {V4L2_CAP_TUNER, "Device has a tuner or modulator", "tuner"},
214       {V4L2_CAP_AUDIO, "Device has audio inputs or outputs", "audio"},
215
216       {0, NULL, NULL}
217     };
218
219     v4l2_device_type =
220         g_flags_register_static ("GstV4l2DeviceTypeFlags", values);
221   }
222
223   return v4l2_device_type;
224 }
225
226 #define GST_TYPE_V4L2_TV_NORM (gst_v4l2_tv_norm_get_type ())
227 static GType
228 gst_v4l2_tv_norm_get_type (void)
229 {
230   static GType v4l2_tv_norm = 0;
231
232   if (!v4l2_tv_norm) {
233     static const GEnumValue tv_norms[] = {
234       {0, "none", "none"},
235
236       {V4L2_STD_NTSC, "NTSC", "NTSC"},
237       {V4L2_STD_NTSC_M, "NTSC-M", "NTSC-M"},
238       {V4L2_STD_NTSC_M_JP, "NTSC-M-JP", "NTSC-M-JP"},
239       {V4L2_STD_NTSC_M_KR, "NTSC-M-KR", "NTSC-M-KR"},
240       {V4L2_STD_NTSC_443, "NTSC-443", "NTSC-443"},
241
242       {V4L2_STD_PAL, "PAL", "PAL"},
243       {V4L2_STD_PAL_BG, "PAL-BG", "PAL-BG"},
244       {V4L2_STD_PAL_B, "PAL-B", "PAL-B"},
245       {V4L2_STD_PAL_B1, "PAL-B1", "PAL-B1"},
246       {V4L2_STD_PAL_G, "PAL-G", "PAL-G"},
247       {V4L2_STD_PAL_H, "PAL-H", "PAL-H"},
248       {V4L2_STD_PAL_I, "PAL-I", "PAL-I"},
249       {V4L2_STD_PAL_DK, "PAL-DK", "PAL-DK"},
250       {V4L2_STD_PAL_D, "PAL-D", "PAL-D"},
251       {V4L2_STD_PAL_D1, "PAL-D1", "PAL-D1"},
252       {V4L2_STD_PAL_K, "PAL-K", "PAL-K"},
253       {V4L2_STD_PAL_M, "PAL-M", "PAL-M"},
254       {V4L2_STD_PAL_N, "PAL-N", "PAL-N"},
255       {V4L2_STD_PAL_Nc, "PAL-Nc", "PAL-Nc"},
256       {V4L2_STD_PAL_60, "PAL-60", "PAL-60"},
257
258       {V4L2_STD_SECAM, "SECAM", "SECAM"},
259       {V4L2_STD_SECAM_B, "SECAM-B", "SECAM-B"},
260       {V4L2_STD_SECAM_G, "SECAM-G", "SECAM-G"},
261       {V4L2_STD_SECAM_H, "SECAM-H", "SECAM-H"},
262       {V4L2_STD_SECAM_DK, "SECAM-DK", "SECAM-DK"},
263       {V4L2_STD_SECAM_D, "SECAM-D", "SECAM-D"},
264       {V4L2_STD_SECAM_K, "SECAM-K", "SECAM-K"},
265       {V4L2_STD_SECAM_K1, "SECAM-K1", "SECAM-K1"},
266       {V4L2_STD_SECAM_L, "SECAM-L", "SECAM-L"},
267       {V4L2_STD_SECAM_LC, "SECAM-Lc", "SECAM-Lc"},
268
269       {0, NULL, NULL}
270     };
271
272     v4l2_tv_norm = g_enum_register_static ("V4L2_TV_norms", tv_norms);
273   }
274
275   return v4l2_tv_norm;
276 }
277
278 GType
279 gst_v4l2_io_mode_get_type (void)
280 {
281   static GType v4l2_io_mode = 0;
282
283   if (!v4l2_io_mode) {
284     static const GEnumValue io_modes[] = {
285       {GST_V4L2_IO_AUTO, "GST_V4L2_IO_AUTO", "auto"},
286       {GST_V4L2_IO_RW, "GST_V4L2_IO_RW", "rw"},
287       {GST_V4L2_IO_MMAP, "GST_V4L2_IO_MMAP", "mmap"},
288       {GST_V4L2_IO_USERPTR, "GST_V4L2_IO_USERPTR", "userptr"},
289       {GST_V4L2_IO_DMABUF, "GST_V4L2_IO_DMABUF", "dmabuf"},
290       {GST_V4L2_IO_DMABUF_IMPORT, "GST_V4L2_IO_DMABUF_IMPORT",
291           "dmabuf-import"},
292
293       {0, NULL, NULL}
294     };
295     v4l2_io_mode = g_enum_register_static ("GstV4l2IOMode", io_modes);
296   }
297   return v4l2_io_mode;
298 }
299
300 void
301 gst_v4l2_object_install_properties_helper (GObjectClass * gobject_class,
302     const char *default_device)
303 {
304   g_object_class_install_property (gobject_class, PROP_DEVICE,
305       g_param_spec_string ("device", "Device", "Device location",
306           default_device, G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
307   g_object_class_install_property (gobject_class, PROP_DEVICE_NAME,
308       g_param_spec_string ("device-name", "Device name",
309           "Name of the device", DEFAULT_PROP_DEVICE_NAME,
310           G_PARAM_READABLE | G_PARAM_STATIC_STRINGS));
311   g_object_class_install_property (gobject_class, PROP_DEVICE_FD,
312       g_param_spec_int ("device-fd", "File descriptor",
313           "File descriptor of the device", -1, G_MAXINT, DEFAULT_PROP_DEVICE_FD,
314           G_PARAM_READABLE | G_PARAM_STATIC_STRINGS));
315   g_object_class_install_property (gobject_class, PROP_FLAGS,
316       g_param_spec_flags ("flags", "Flags", "Device type flags",
317           GST_TYPE_V4L2_DEVICE_FLAGS, DEFAULT_PROP_FLAGS,
318           G_PARAM_READABLE | G_PARAM_STATIC_STRINGS));
319
320   /**
321    * GstV4l2Src:brightness:
322    *
323    * Picture brightness, or more precisely, the black level
324    */
325   g_object_class_install_property (gobject_class, PROP_BRIGHTNESS,
326       g_param_spec_int ("brightness", "Brightness",
327           "Picture brightness, or more precisely, the black level", G_MININT,
328           G_MAXINT, 0,
329           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS | GST_PARAM_CONTROLLABLE));
330   /**
331    * GstV4l2Src:contrast:
332    *
333    * Picture contrast or luma gain
334    */
335   g_object_class_install_property (gobject_class, PROP_CONTRAST,
336       g_param_spec_int ("contrast", "Contrast",
337           "Picture contrast or luma gain", G_MININT,
338           G_MAXINT, 0,
339           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS | GST_PARAM_CONTROLLABLE));
340   /**
341    * GstV4l2Src:saturation:
342    *
343    * Picture color saturation or chroma gain
344    */
345   g_object_class_install_property (gobject_class, PROP_SATURATION,
346       g_param_spec_int ("saturation", "Saturation",
347           "Picture color saturation or chroma gain", G_MININT,
348           G_MAXINT, 0,
349           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS | GST_PARAM_CONTROLLABLE));
350   /**
351    * GstV4l2Src:hue:
352    *
353    * Hue or color balance
354    */
355   g_object_class_install_property (gobject_class, PROP_HUE,
356       g_param_spec_int ("hue", "Hue",
357           "Hue or color balance", G_MININT,
358           G_MAXINT, 0,
359           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS | GST_PARAM_CONTROLLABLE));
360
361   /**
362    * GstV4l2Src:norm:
363    *
364    * TV norm
365    */
366   g_object_class_install_property (gobject_class, PROP_TV_NORM,
367       g_param_spec_enum ("norm", "TV norm",
368           "video standard",
369           GST_TYPE_V4L2_TV_NORM, DEFAULT_PROP_TV_NORM,
370           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
371
372   /**
373    * GstV4l2Src:io-mode:
374    *
375    * IO Mode
376    */
377   g_object_class_install_property (gobject_class, PROP_IO_MODE,
378       g_param_spec_enum ("io-mode", "IO mode",
379           "I/O mode",
380           GST_TYPE_V4L2_IO_MODE, DEFAULT_PROP_IO_MODE,
381           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
382
383   /**
384    * GstV4l2Src:extra-controls:
385    *
386    * Additional v4l2 controls for the device. The controls are identified
387    * by the control name (lowercase with '_' for any non-alphanumeric
388    * characters).
389    *
390    * Since: 1.2
391    */
392   g_object_class_install_property (gobject_class, PROP_EXTRA_CONTROLS,
393       g_param_spec_boxed ("extra-controls", "Extra Controls",
394           "Extra v4l2 controls (CIDs) for the device",
395           GST_TYPE_STRUCTURE, G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
396
397   /**
398    * GstV4l2Src:pixel-aspect-ratio:
399    *
400    * The pixel aspect ratio of the device. This overwrites the pixel aspect
401    * ratio queried from the device.
402    *
403    * Since: 1.2
404    */
405   g_object_class_install_property (gobject_class, PROP_PIXEL_ASPECT_RATIO,
406       g_param_spec_string ("pixel-aspect-ratio", "Pixel Aspect Ratio",
407           "Overwrite the pixel aspect ratio of the device", "1/1",
408           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
409
410   /**
411    * GstV4l2Src:force-aspect-ratio:
412    *
413    * When enabled, the pixel aspect ratio queried from the device or set
414    * with the pixel-aspect-ratio property will be enforced.
415    *
416    * Since: 1.2
417    */
418   g_object_class_install_property (gobject_class, PROP_FORCE_ASPECT_RATIO,
419       g_param_spec_boolean ("force-aspect-ratio", "Force aspect ratio",
420           "When enabled, the pixel aspect ratio will be enforced", TRUE,
421           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
422
423 }
424
425 void
426 gst_v4l2_object_install_m2m_properties_helper (GObjectClass * gobject_class)
427 {
428   g_object_class_install_property (gobject_class, PROP_DEVICE,
429       g_param_spec_string ("device", "Device", "Device location",
430           NULL, G_PARAM_READABLE | G_PARAM_STATIC_STRINGS));
431
432   g_object_class_install_property (gobject_class, PROP_DEVICE_NAME,
433       g_param_spec_string ("device-name", "Device name",
434           "Name of the device", DEFAULT_PROP_DEVICE_NAME,
435           G_PARAM_READABLE | G_PARAM_STATIC_STRINGS));
436
437   g_object_class_install_property (gobject_class, PROP_DEVICE_FD,
438       g_param_spec_int ("device-fd", "File descriptor",
439           "File descriptor of the device", -1, G_MAXINT, DEFAULT_PROP_DEVICE_FD,
440           G_PARAM_READABLE | G_PARAM_STATIC_STRINGS));
441
442   g_object_class_install_property (gobject_class, PROP_OUTPUT_IO_MODE,
443       g_param_spec_enum ("output-io-mode", "Output IO mode",
444           "Output side I/O mode (matches sink pad)",
445           GST_TYPE_V4L2_IO_MODE, DEFAULT_PROP_IO_MODE,
446           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
447
448   g_object_class_install_property (gobject_class, PROP_CAPTURE_IO_MODE,
449       g_param_spec_enum ("capture-io-mode", "Capture IO mode",
450           "Capture I/O mode (matches src pad)",
451           GST_TYPE_V4L2_IO_MODE, DEFAULT_PROP_IO_MODE,
452           G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
453
454   g_object_class_install_property (gobject_class, PROP_EXTRA_CONTROLS,
455       g_param_spec_boxed ("extra-controls", "Extra Controls",
456           "Extra v4l2 controls (CIDs) for the device",
457           GST_TYPE_STRUCTURE, G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
458 }
459
460 GstV4l2Object *
461 gst_v4l2_object_new (GstElement * element,
462     enum v4l2_buf_type type,
463     const char *default_device,
464     GstV4l2GetInOutFunction get_in_out_func,
465     GstV4l2SetInOutFunction set_in_out_func,
466     GstV4l2UpdateFpsFunction update_fps_func)
467 {
468   GstV4l2Object *v4l2object;
469
470   /*
471    * some default values
472    */
473   v4l2object = g_new0 (GstV4l2Object, 1);
474
475   v4l2object->type = type;
476   v4l2object->formats = NULL;
477
478   v4l2object->element = element;
479   v4l2object->get_in_out_func = get_in_out_func;
480   v4l2object->set_in_out_func = set_in_out_func;
481   v4l2object->update_fps_func = update_fps_func;
482
483   v4l2object->video_fd = -1;
484   v4l2object->active = FALSE;
485   v4l2object->videodev = g_strdup (default_device);
486
487   v4l2object->norms = NULL;
488   v4l2object->channels = NULL;
489   v4l2object->colors = NULL;
490
491   v4l2object->xwindow_id = 0;
492
493   v4l2object->keep_aspect = TRUE;
494
495   v4l2object->n_v4l2_planes = 0;
496
497   v4l2object->no_initial_format = FALSE;
498
499   return v4l2object;
500 }
501
502 static gboolean gst_v4l2_object_clear_format_list (GstV4l2Object * v4l2object);
503
504
505 void
506 gst_v4l2_object_destroy (GstV4l2Object * v4l2object)
507 {
508   g_return_if_fail (v4l2object != NULL);
509
510   g_free (v4l2object->videodev);
511
512   g_free (v4l2object->channel);
513
514   if (v4l2object->formats) {
515     gst_v4l2_object_clear_format_list (v4l2object);
516   }
517
518   if (v4l2object->probed_caps) {
519     gst_caps_unref (v4l2object->probed_caps);
520   }
521
522   g_free (v4l2object);
523 }
524
525
526 static gboolean
527 gst_v4l2_object_clear_format_list (GstV4l2Object * v4l2object)
528 {
529   g_slist_foreach (v4l2object->formats, (GFunc) g_free, NULL);
530   g_slist_free (v4l2object->formats);
531   v4l2object->formats = NULL;
532
533   return TRUE;
534 }
535
536 static gint
537 gst_v4l2_object_prop_to_cid (guint prop_id)
538 {
539   gint cid = -1;
540
541   switch (prop_id) {
542     case PROP_BRIGHTNESS:
543       cid = V4L2_CID_BRIGHTNESS;
544       break;
545     case PROP_CONTRAST:
546       cid = V4L2_CID_CONTRAST;
547       break;
548     case PROP_SATURATION:
549       cid = V4L2_CID_SATURATION;
550       break;
551     case PROP_HUE:
552       cid = V4L2_CID_HUE;
553       break;
554     default:
555       GST_WARNING ("unmapped property id: %d", prop_id);
556   }
557   return cid;
558 }
559
560
561 gboolean
562 gst_v4l2_object_set_property_helper (GstV4l2Object * v4l2object,
563     guint prop_id, const GValue * value, GParamSpec * pspec)
564 {
565   switch (prop_id) {
566     case PROP_DEVICE:
567       g_free (v4l2object->videodev);
568       v4l2object->videodev = g_value_dup_string (value);
569       break;
570     case PROP_BRIGHTNESS:
571     case PROP_CONTRAST:
572     case PROP_SATURATION:
573     case PROP_HUE:
574     {
575       gint cid = gst_v4l2_object_prop_to_cid (prop_id);
576
577       if (cid != -1) {
578         if (GST_V4L2_IS_OPEN (v4l2object)) {
579           gst_v4l2_set_attribute (v4l2object, cid, g_value_get_int (value));
580         }
581       }
582       return TRUE;
583     }
584       break;
585     case PROP_TV_NORM:
586       v4l2object->tv_norm = g_value_get_enum (value);
587       break;
588 #if 0
589     case PROP_CHANNEL:
590       if (GST_V4L2_IS_OPEN (v4l2object)) {
591         GstTuner *tuner = GST_TUNER (v4l2object->element);
592         GstTunerChannel *channel = gst_tuner_find_channel_by_name (tuner,
593             (gchar *) g_value_get_string (value));
594
595         if (channel) {
596           /* like gst_tuner_set_channel (tuner, channel)
597              without g_object_notify */
598           gst_v4l2_tuner_set_channel (v4l2object, channel);
599         }
600       } else {
601         g_free (v4l2object->channel);
602         v4l2object->channel = g_value_dup_string (value);
603       }
604       break;
605     case PROP_FREQUENCY:
606       if (GST_V4L2_IS_OPEN (v4l2object)) {
607         GstTuner *tuner = GST_TUNER (v4l2object->element);
608         GstTunerChannel *channel = gst_tuner_get_channel (tuner);
609
610         if (channel &&
611             GST_TUNER_CHANNEL_HAS_FLAG (channel, GST_TUNER_CHANNEL_FREQUENCY)) {
612           /* like
613              gst_tuner_set_frequency (tuner, channel, g_value_get_ulong (value))
614              without g_object_notify */
615           gst_v4l2_tuner_set_frequency (v4l2object, channel,
616               g_value_get_ulong (value));
617         }
618       } else {
619         v4l2object->frequency = g_value_get_ulong (value);
620       }
621       break;
622 #endif
623
624     case PROP_IO_MODE:
625       v4l2object->req_mode = g_value_get_enum (value);
626       break;
627     case PROP_CAPTURE_IO_MODE:
628       g_return_val_if_fail (!V4L2_TYPE_IS_OUTPUT (v4l2object->type), FALSE);
629       v4l2object->req_mode = g_value_get_enum (value);
630       break;
631     case PROP_OUTPUT_IO_MODE:
632       g_return_val_if_fail (V4L2_TYPE_IS_OUTPUT (v4l2object->type), FALSE);
633       v4l2object->req_mode = g_value_get_enum (value);
634       break;
635     case PROP_EXTRA_CONTROLS:{
636       const GstStructure *s = gst_value_get_structure (value);
637
638       if (v4l2object->extra_controls)
639         gst_structure_free (v4l2object->extra_controls);
640
641       v4l2object->extra_controls = s ? gst_structure_copy (s) : NULL;
642       if (GST_V4L2_IS_OPEN (v4l2object))
643         gst_v4l2_set_controls (v4l2object, v4l2object->extra_controls);
644       break;
645     }
646     case PROP_PIXEL_ASPECT_RATIO:
647       g_free (v4l2object->par);
648       v4l2object->par = g_new0 (GValue, 1);
649       g_value_init (v4l2object->par, GST_TYPE_FRACTION);
650       if (!g_value_transform (value, v4l2object->par)) {
651         g_warning ("Could not transform string to aspect ratio");
652         gst_value_set_fraction (v4l2object->par, 1, 1);
653       }
654       GST_DEBUG_OBJECT (v4l2object->element, "set PAR to %d/%d",
655           gst_value_get_fraction_numerator (v4l2object->par),
656           gst_value_get_fraction_denominator (v4l2object->par));
657       break;
658     case PROP_FORCE_ASPECT_RATIO:
659       v4l2object->keep_aspect = g_value_get_boolean (value);
660       break;
661     default:
662       return FALSE;
663       break;
664   }
665   return TRUE;
666 }
667
668
669 gboolean
670 gst_v4l2_object_get_property_helper (GstV4l2Object * v4l2object,
671     guint prop_id, GValue * value, GParamSpec * pspec)
672 {
673   switch (prop_id) {
674     case PROP_DEVICE:
675       g_value_set_string (value, v4l2object->videodev);
676       break;
677     case PROP_DEVICE_NAME:
678     {
679       const guchar *new = NULL;
680
681       if (GST_V4L2_IS_OPEN (v4l2object)) {
682         new = v4l2object->vcap.card;
683       } else if (gst_v4l2_open (v4l2object)) {
684         new = v4l2object->vcap.card;
685         gst_v4l2_close (v4l2object);
686       }
687       g_value_set_string (value, (gchar *) new);
688       break;
689     }
690     case PROP_DEVICE_FD:
691     {
692       if (GST_V4L2_IS_OPEN (v4l2object))
693         g_value_set_int (value, v4l2object->video_fd);
694       else
695         g_value_set_int (value, DEFAULT_PROP_DEVICE_FD);
696       break;
697     }
698     case PROP_FLAGS:
699     {
700       guint flags = 0;
701
702       if (GST_V4L2_IS_OPEN (v4l2object)) {
703         flags |= v4l2object->vcap.capabilities &
704             (V4L2_CAP_VIDEO_CAPTURE |
705             V4L2_CAP_VIDEO_OUTPUT |
706             V4L2_CAP_VIDEO_OVERLAY |
707             V4L2_CAP_VBI_CAPTURE |
708             V4L2_CAP_VBI_OUTPUT | V4L2_CAP_TUNER | V4L2_CAP_AUDIO);
709
710         if (v4l2object->vcap.capabilities & V4L2_CAP_VIDEO_CAPTURE_MPLANE)
711           flags |= V4L2_CAP_VIDEO_CAPTURE;
712
713         if (v4l2object->vcap.capabilities & V4L2_CAP_VIDEO_OUTPUT_MPLANE)
714           flags |= V4L2_CAP_VIDEO_OUTPUT;
715       }
716       g_value_set_flags (value, flags);
717       break;
718     }
719     case PROP_BRIGHTNESS:
720     case PROP_CONTRAST:
721     case PROP_SATURATION:
722     case PROP_HUE:
723     {
724       gint cid = gst_v4l2_object_prop_to_cid (prop_id);
725
726       if (cid != -1) {
727         if (GST_V4L2_IS_OPEN (v4l2object)) {
728           gint v;
729           if (gst_v4l2_get_attribute (v4l2object, cid, &v)) {
730             g_value_set_int (value, v);
731           }
732         }
733       }
734       return TRUE;
735     }
736       break;
737     case PROP_TV_NORM:
738       g_value_set_enum (value, v4l2object->tv_norm);
739       break;
740     case PROP_IO_MODE:
741       g_value_set_enum (value, v4l2object->req_mode);
742       break;
743     case PROP_CAPTURE_IO_MODE:
744       g_return_val_if_fail (!V4L2_TYPE_IS_OUTPUT (v4l2object->type), FALSE);
745       g_value_set_enum (value, v4l2object->req_mode);
746       break;
747     case PROP_OUTPUT_IO_MODE:
748       g_return_val_if_fail (V4L2_TYPE_IS_OUTPUT (v4l2object->type), FALSE);
749       g_value_set_enum (value, v4l2object->req_mode);
750       break;
751     case PROP_EXTRA_CONTROLS:
752       gst_value_set_structure (value, v4l2object->extra_controls);
753       break;
754     case PROP_PIXEL_ASPECT_RATIO:
755       if (v4l2object->par)
756         g_value_transform (v4l2object->par, value);
757       break;
758     case PROP_FORCE_ASPECT_RATIO:
759       g_value_set_boolean (value, v4l2object->keep_aspect);
760       break;
761     default:
762       return FALSE;
763       break;
764   }
765   return TRUE;
766 }
767
768 static void
769 gst_v4l2_get_driver_min_buffers (GstV4l2Object * v4l2object)
770 {
771   struct v4l2_control control = { 0, };
772
773   g_return_if_fail (GST_V4L2_IS_OPEN (v4l2object));
774
775   if (V4L2_TYPE_IS_OUTPUT (v4l2object->type))
776     control.id = V4L2_CID_MIN_BUFFERS_FOR_OUTPUT;
777   else
778     control.id = V4L2_CID_MIN_BUFFERS_FOR_CAPTURE;
779
780   if (v4l2_ioctl (v4l2object->video_fd, VIDIOC_G_CTRL, &control) == 0) {
781     GST_DEBUG_OBJECT (v4l2object->element,
782         "driver requires a minimum of %d buffers", control.value);
783     v4l2object->min_buffers = control.value;
784   } else {
785     v4l2object->min_buffers = 0;
786   }
787 }
788
789 static void
790 gst_v4l2_set_defaults (GstV4l2Object * v4l2object)
791 {
792   GstTunerNorm *norm = NULL;
793   GstTunerChannel *channel = NULL;
794   GstTuner *tuner;
795
796   if (!GST_IS_TUNER (v4l2object->element))
797     return;
798
799   tuner = GST_TUNER (v4l2object->element);
800
801   if (v4l2object->tv_norm)
802     norm = gst_v4l2_tuner_get_norm_by_std_id (v4l2object, v4l2object->tv_norm);
803   GST_DEBUG_OBJECT (v4l2object->element, "tv_norm=0x%" G_GINT64_MODIFIER "x, "
804       "norm=%p", (guint64) v4l2object->tv_norm, norm);
805   if (norm) {
806     gst_tuner_set_norm (tuner, norm);
807   } else {
808     norm =
809         GST_TUNER_NORM (gst_tuner_get_norm (GST_TUNER (v4l2object->element)));
810     if (norm) {
811       v4l2object->tv_norm =
812           gst_v4l2_tuner_get_std_id_by_norm (v4l2object, norm);
813       gst_tuner_norm_changed (tuner, norm);
814     }
815   }
816
817   if (v4l2object->channel)
818     channel = gst_tuner_find_channel_by_name (tuner, v4l2object->channel);
819   if (channel) {
820     gst_tuner_set_channel (tuner, channel);
821   } else {
822     channel =
823         GST_TUNER_CHANNEL (gst_tuner_get_channel (GST_TUNER
824             (v4l2object->element)));
825     if (channel) {
826       g_free (v4l2object->channel);
827       v4l2object->channel = g_strdup (channel->label);
828       gst_tuner_channel_changed (tuner, channel);
829     }
830   }
831
832   if (channel
833       && GST_TUNER_CHANNEL_HAS_FLAG (channel, GST_TUNER_CHANNEL_FREQUENCY)) {
834     if (v4l2object->frequency != 0) {
835       gst_tuner_set_frequency (tuner, channel, v4l2object->frequency);
836     } else {
837       v4l2object->frequency = gst_tuner_get_frequency (tuner, channel);
838       if (v4l2object->frequency == 0) {
839         /* guess */
840         gst_tuner_set_frequency (tuner, channel, 1000);
841       } else {
842       }
843     }
844   }
845 }
846
847 gboolean
848 gst_v4l2_object_open (GstV4l2Object * v4l2object)
849 {
850   if (gst_v4l2_open (v4l2object))
851     gst_v4l2_set_defaults (v4l2object);
852   else
853     return FALSE;
854
855   return TRUE;
856 }
857
858 gboolean
859 gst_v4l2_object_open_shared (GstV4l2Object * v4l2object, GstV4l2Object * other)
860 {
861   gboolean ret;
862
863   ret = gst_v4l2_dup (v4l2object, other);
864
865   return ret;
866 }
867
868 gboolean
869 gst_v4l2_object_close (GstV4l2Object * v4l2object)
870 {
871   if (!gst_v4l2_close (v4l2object))
872     return FALSE;
873
874   gst_caps_replace (&v4l2object->probed_caps, NULL);
875
876   if (v4l2object->formats) {
877     gst_v4l2_object_clear_format_list (v4l2object);
878   }
879
880   return TRUE;
881 }
882
883 static struct v4l2_fmtdesc *
884 gst_v4l2_object_get_format_from_fourcc (GstV4l2Object * v4l2object,
885     guint32 fourcc)
886 {
887   struct v4l2_fmtdesc *fmt;
888   GSList *walk;
889
890   if (fourcc == 0)
891     return NULL;
892
893   walk = gst_v4l2_object_get_format_list (v4l2object);
894   while (walk) {
895     fmt = (struct v4l2_fmtdesc *) walk->data;
896     if (fmt->pixelformat == fourcc)
897       return fmt;
898     /* special case for jpeg */
899     if (fmt->pixelformat == V4L2_PIX_FMT_MJPEG ||
900         fmt->pixelformat == V4L2_PIX_FMT_JPEG ||
901         fmt->pixelformat == V4L2_PIX_FMT_PJPG) {
902       if (fourcc == V4L2_PIX_FMT_JPEG || fourcc == V4L2_PIX_FMT_MJPEG ||
903           fourcc == V4L2_PIX_FMT_PJPG) {
904         return fmt;
905       }
906     }
907     walk = g_slist_next (walk);
908   }
909
910   return NULL;
911 }
912
913
914
915 /* complete made up ranking, the values themselves are meaningless */
916 /* These ranks MUST be X such that X<<15 fits on a signed int - see
917    the comment at the end of gst_v4l2_object_format_get_rank. */
918 #define YUV_BASE_RANK     1000
919 #define JPEG_BASE_RANK     500
920 #define DV_BASE_RANK       200
921 #define RGB_BASE_RANK      100
922 #define YUV_ODD_BASE_RANK   50
923 #define RGB_ODD_BASE_RANK   25
924 #define BAYER_BASE_RANK     15
925 #define S910_BASE_RANK      10
926 #define GREY_BASE_RANK       5
927 #define PWC_BASE_RANK        1
928
929 static gint
930 gst_v4l2_object_format_get_rank (const struct v4l2_fmtdesc *fmt)
931 {
932   guint32 fourcc = fmt->pixelformat;
933   gboolean emulated = ((fmt->flags & V4L2_FMT_FLAG_EMULATED) != 0);
934   gint rank = 0;
935
936   switch (fourcc) {
937     case V4L2_PIX_FMT_MJPEG:
938     case V4L2_PIX_FMT_PJPG:
939       rank = JPEG_BASE_RANK;
940       break;
941     case V4L2_PIX_FMT_JPEG:
942       rank = JPEG_BASE_RANK + 1;
943       break;
944     case V4L2_PIX_FMT_MPEG:    /* MPEG          */
945       rank = JPEG_BASE_RANK + 2;
946       break;
947
948     case V4L2_PIX_FMT_RGB332:
949     case V4L2_PIX_FMT_ARGB555:
950     case V4L2_PIX_FMT_XRGB555:
951     case V4L2_PIX_FMT_RGB555:
952     case V4L2_PIX_FMT_ARGB555X:
953     case V4L2_PIX_FMT_XRGB555X:
954     case V4L2_PIX_FMT_RGB555X:
955     case V4L2_PIX_FMT_BGR666:
956     case V4L2_PIX_FMT_RGB565:
957     case V4L2_PIX_FMT_RGB565X:
958     case V4L2_PIX_FMT_RGB444:
959     case V4L2_PIX_FMT_Y4:
960     case V4L2_PIX_FMT_Y6:
961     case V4L2_PIX_FMT_Y10:
962     case V4L2_PIX_FMT_Y12:
963     case V4L2_PIX_FMT_Y10BPACK:
964     case V4L2_PIX_FMT_YUV555:
965     case V4L2_PIX_FMT_YUV565:
966     case V4L2_PIX_FMT_YUV32:
967     case V4L2_PIX_FMT_NV12MT_16X16:
968     case V4L2_PIX_FMT_NV42:
969     case V4L2_PIX_FMT_H264_MVC:
970       rank = RGB_ODD_BASE_RANK;
971       break;
972
973     case V4L2_PIX_FMT_RGB24:
974     case V4L2_PIX_FMT_BGR24:
975       rank = RGB_BASE_RANK - 1;
976       break;
977
978     case V4L2_PIX_FMT_RGB32:
979     case V4L2_PIX_FMT_BGR32:
980     case V4L2_PIX_FMT_ABGR32:
981     case V4L2_PIX_FMT_XBGR32:
982     case V4L2_PIX_FMT_ARGB32:
983     case V4L2_PIX_FMT_XRGB32:
984       rank = RGB_BASE_RANK;
985       break;
986
987     case V4L2_PIX_FMT_GREY:    /*  8  Greyscale     */
988       rank = GREY_BASE_RANK;
989       break;
990
991     case V4L2_PIX_FMT_NV12:    /* 12  Y/CbCr 4:2:0  */
992     case V4L2_PIX_FMT_NV12M:   /* Same as NV12      */
993     case V4L2_PIX_FMT_NV12MT:  /* NV12 64x32 tile   */
994     case V4L2_PIX_FMT_NV21:    /* 12  Y/CrCb 4:2:0  */
995     case V4L2_PIX_FMT_NV21M:   /* Same as NV21      */
996     case V4L2_PIX_FMT_YYUV:    /* 16  YUV 4:2:2     */
997     case V4L2_PIX_FMT_HI240:   /*  8  8-bit color   */
998     case V4L2_PIX_FMT_NV16:    /* 16  Y/CbCr 4:2:2  */
999     case V4L2_PIX_FMT_NV16M:   /* Same as NV16      */
1000     case V4L2_PIX_FMT_NV61:    /* 16  Y/CrCb 4:2:2  */
1001     case V4L2_PIX_FMT_NV61M:   /* Same as NV61      */
1002     case V4L2_PIX_FMT_NV24:    /* 24  Y/CrCb 4:4:4  */
1003       rank = YUV_ODD_BASE_RANK;
1004       break;
1005
1006     case V4L2_PIX_FMT_YVU410:  /* YVU9,  9 bits per pixel */
1007       rank = YUV_BASE_RANK + 3;
1008       break;
1009     case V4L2_PIX_FMT_YUV410:  /* YUV9,  9 bits per pixel */
1010       rank = YUV_BASE_RANK + 2;
1011       break;
1012     case V4L2_PIX_FMT_YUV420:  /* I420, 12 bits per pixel */
1013     case V4L2_PIX_FMT_YUV420M:
1014       rank = YUV_BASE_RANK + 7;
1015       break;
1016     case V4L2_PIX_FMT_YUYV:    /* YUY2, 16 bits per pixel */
1017       rank = YUV_BASE_RANK + 10;
1018       break;
1019     case V4L2_PIX_FMT_YVU420:  /* YV12, 12 bits per pixel */
1020       rank = YUV_BASE_RANK + 6;
1021       break;
1022     case V4L2_PIX_FMT_UYVY:    /* UYVY, 16 bits per pixel */
1023       rank = YUV_BASE_RANK + 9;
1024       break;
1025     case V4L2_PIX_FMT_YUV444:
1026       rank = YUV_BASE_RANK + 6;
1027       break;
1028     case V4L2_PIX_FMT_Y41P:    /* Y41P, 12 bits per pixel */
1029       rank = YUV_BASE_RANK + 5;
1030       break;
1031     case V4L2_PIX_FMT_YUV411P: /* Y41B, 12 bits per pixel */
1032       rank = YUV_BASE_RANK + 4;
1033       break;
1034     case V4L2_PIX_FMT_YUV422P: /* Y42B, 16 bits per pixel */
1035       rank = YUV_BASE_RANK + 8;
1036       break;
1037
1038     case V4L2_PIX_FMT_DV:
1039       rank = DV_BASE_RANK;
1040       break;
1041
1042     case V4L2_PIX_FMT_WNVA:    /* Winnov hw compres */
1043       rank = 0;
1044       break;
1045
1046     case V4L2_PIX_FMT_SBGGR8:
1047     case V4L2_PIX_FMT_SGBRG8:
1048     case V4L2_PIX_FMT_SGRBG8:
1049     case V4L2_PIX_FMT_SRGGB8:
1050       rank = BAYER_BASE_RANK;
1051       break;
1052
1053     case V4L2_PIX_FMT_SN9C10X:
1054       rank = S910_BASE_RANK;
1055       break;
1056
1057     case V4L2_PIX_FMT_PWC1:
1058       rank = PWC_BASE_RANK;
1059       break;
1060     case V4L2_PIX_FMT_PWC2:
1061       rank = PWC_BASE_RANK;
1062       break;
1063
1064     default:
1065       rank = 0;
1066       break;
1067   }
1068
1069   /* All ranks are below 1<<15 so a shift by 15
1070    * will a) make all non-emulated formats larger
1071    * than emulated and b) will not overflow
1072    */
1073   if (!emulated)
1074     rank <<= 15;
1075
1076   return rank;
1077 }
1078
1079
1080
1081 static gint
1082 format_cmp_func (gconstpointer a, gconstpointer b)
1083 {
1084   const struct v4l2_fmtdesc *fa = a;
1085   const struct v4l2_fmtdesc *fb = b;
1086
1087   if (fa->pixelformat == fb->pixelformat)
1088     return 0;
1089
1090   return gst_v4l2_object_format_get_rank (fb) -
1091       gst_v4l2_object_format_get_rank (fa);
1092 }
1093
1094 /******************************************************
1095  * gst_v4l2_object_fill_format_list():
1096  *   create list of supported capture formats
1097  * return value: TRUE on success, FALSE on error
1098  ******************************************************/
1099 static gboolean
1100 gst_v4l2_object_fill_format_list (GstV4l2Object * v4l2object,
1101     enum v4l2_buf_type type)
1102 {
1103   gint n;
1104   struct v4l2_fmtdesc *format;
1105
1106   GST_DEBUG_OBJECT (v4l2object->element, "getting src format enumerations");
1107
1108   /* format enumeration */
1109   for (n = 0;; n++) {
1110     format = g_new0 (struct v4l2_fmtdesc, 1);
1111
1112     format->index = n;
1113     format->type = type;
1114
1115     if (v4l2_ioctl (v4l2object->video_fd, VIDIOC_ENUM_FMT, format) < 0) {
1116       if (errno == EINVAL) {
1117         g_free (format);
1118         break;                  /* end of enumeration */
1119       } else {
1120         goto failed;
1121       }
1122     }
1123
1124     GST_LOG_OBJECT (v4l2object->element, "index:       %u", format->index);
1125     GST_LOG_OBJECT (v4l2object->element, "type:        %d", format->type);
1126     GST_LOG_OBJECT (v4l2object->element, "flags:       %08x", format->flags);
1127     GST_LOG_OBJECT (v4l2object->element, "description: '%s'",
1128         format->description);
1129     GST_LOG_OBJECT (v4l2object->element, "pixelformat: %" GST_FOURCC_FORMAT,
1130         GST_FOURCC_ARGS (format->pixelformat));
1131
1132     /* sort formats according to our preference;  we do this, because caps
1133      * are probed in the order the formats are in the list, and the order of
1134      * formats in the final probed caps matters for things like fixation */
1135     v4l2object->formats = g_slist_insert_sorted (v4l2object->formats, format,
1136         (GCompareFunc) format_cmp_func);
1137   }
1138
1139 #ifndef GST_DISABLE_GST_DEBUG
1140   {
1141     GSList *l;
1142
1143     GST_INFO_OBJECT (v4l2object->element, "got %d format(s):", n);
1144     for (l = v4l2object->formats; l != NULL; l = l->next) {
1145       format = l->data;
1146
1147       GST_INFO_OBJECT (v4l2object->element,
1148           "  %" GST_FOURCC_FORMAT "%s", GST_FOURCC_ARGS (format->pixelformat),
1149           ((format->flags & V4L2_FMT_FLAG_EMULATED)) ? " (emulated)" : "");
1150     }
1151   }
1152 #endif
1153
1154   return TRUE;
1155
1156   /* ERRORS */
1157 failed:
1158   {
1159     GST_ELEMENT_ERROR (v4l2object->element, RESOURCE, SETTINGS,
1160         (_("Failed to enumerate possible video formats device '%s' can work with"), v4l2object->videodev), ("Failed to get number %d in pixelformat enumeration for %s. (%d - %s)", n, v4l2object->videodev, errno, g_strerror (errno)));
1161     g_free (format);
1162     return FALSE;
1163   }
1164 }
1165
1166 /*
1167   * Get the list of supported capture formats, a list of
1168   * <code>struct v4l2_fmtdesc</code>.
1169   */
1170 static GSList *
1171 gst_v4l2_object_get_format_list (GstV4l2Object * v4l2object)
1172 {
1173   if (!v4l2object->formats) {
1174
1175     /* check usual way */
1176     gst_v4l2_object_fill_format_list (v4l2object, v4l2object->type);
1177
1178     /* if our driver supports multi-planar
1179      * and if formats are still empty then we can workaround driver bug
1180      * by also looking up formats as if our device was not supporting
1181      * multiplanar */
1182     if (!v4l2object->formats) {
1183       switch (v4l2object->type) {
1184         case V4L2_BUF_TYPE_VIDEO_CAPTURE_MPLANE:
1185           gst_v4l2_object_fill_format_list (v4l2object,
1186               V4L2_BUF_TYPE_VIDEO_CAPTURE);
1187           break;
1188
1189         case V4L2_BUF_TYPE_VIDEO_OUTPUT_MPLANE:
1190           gst_v4l2_object_fill_format_list (v4l2object,
1191               V4L2_BUF_TYPE_VIDEO_OUTPUT);
1192           break;
1193
1194         default:
1195           break;
1196       }
1197     }
1198   }
1199   return v4l2object->formats;
1200 }
1201
1202 static GstVideoFormat
1203 gst_v4l2_object_v4l2fourcc_to_video_format (guint32 fourcc)
1204 {
1205   GstVideoFormat format;
1206
1207   switch (fourcc) {
1208     case V4L2_PIX_FMT_GREY:    /*  8  Greyscale     */
1209       format = GST_VIDEO_FORMAT_GRAY8;
1210       break;
1211     case V4L2_PIX_FMT_Y16:
1212       format = GST_VIDEO_FORMAT_GRAY16_LE;
1213       break;
1214     case V4L2_PIX_FMT_Y16_BE:
1215       format = GST_VIDEO_FORMAT_GRAY16_BE;
1216       break;
1217     case V4L2_PIX_FMT_XRGB555:
1218     case V4L2_PIX_FMT_RGB555:
1219       format = GST_VIDEO_FORMAT_RGB15;
1220       break;
1221     case V4L2_PIX_FMT_XRGB555X:
1222     case V4L2_PIX_FMT_RGB555X:
1223       format = GST_VIDEO_FORMAT_BGR15;
1224       break;
1225     case V4L2_PIX_FMT_RGB565:
1226       format = GST_VIDEO_FORMAT_RGB16;
1227       break;
1228     case V4L2_PIX_FMT_RGB24:
1229       format = GST_VIDEO_FORMAT_RGB;
1230       break;
1231     case V4L2_PIX_FMT_BGR24:
1232       format = GST_VIDEO_FORMAT_BGR;
1233       break;
1234     case V4L2_PIX_FMT_XRGB32:
1235     case V4L2_PIX_FMT_RGB32:
1236       format = GST_VIDEO_FORMAT_xRGB;
1237       break;
1238     case V4L2_PIX_FMT_XBGR32:
1239     case V4L2_PIX_FMT_BGR32:
1240       format = GST_VIDEO_FORMAT_BGRx;
1241       break;
1242     case V4L2_PIX_FMT_ABGR32:
1243       format = GST_VIDEO_FORMAT_BGRA;
1244       break;
1245     case V4L2_PIX_FMT_ARGB32:
1246       format = GST_VIDEO_FORMAT_ARGB;
1247       break;
1248     case V4L2_PIX_FMT_NV12:
1249     case V4L2_PIX_FMT_NV12M:
1250       format = GST_VIDEO_FORMAT_NV12;
1251       break;
1252     case V4L2_PIX_FMT_NV12MT:
1253       format = GST_VIDEO_FORMAT_NV12_64Z32;
1254       break;
1255     case V4L2_PIX_FMT_NV21:
1256     case V4L2_PIX_FMT_NV21M:
1257       format = GST_VIDEO_FORMAT_NV21;
1258       break;
1259     case V4L2_PIX_FMT_YVU410:
1260       format = GST_VIDEO_FORMAT_YVU9;
1261       break;
1262     case V4L2_PIX_FMT_YUV410:
1263       format = GST_VIDEO_FORMAT_YUV9;
1264       break;
1265     case V4L2_PIX_FMT_YUV420:
1266     case V4L2_PIX_FMT_YUV420M:
1267       format = GST_VIDEO_FORMAT_I420;
1268       break;
1269     case V4L2_PIX_FMT_YUYV:
1270       format = GST_VIDEO_FORMAT_YUY2;
1271       break;
1272     case V4L2_PIX_FMT_YVU420:
1273       format = GST_VIDEO_FORMAT_YV12;
1274       break;
1275     case V4L2_PIX_FMT_UYVY:
1276       format = GST_VIDEO_FORMAT_UYVY;
1277       break;
1278     case V4L2_PIX_FMT_YUV411P:
1279       format = GST_VIDEO_FORMAT_Y41B;
1280       break;
1281     case V4L2_PIX_FMT_YUV422P:
1282       format = GST_VIDEO_FORMAT_Y42B;
1283       break;
1284     case V4L2_PIX_FMT_YVYU:
1285       format = GST_VIDEO_FORMAT_YVYU;
1286       break;
1287     case V4L2_PIX_FMT_NV16:
1288     case V4L2_PIX_FMT_NV16M:
1289       format = GST_VIDEO_FORMAT_NV16;
1290       break;
1291     case V4L2_PIX_FMT_NV61:
1292     case V4L2_PIX_FMT_NV61M:
1293       format = GST_VIDEO_FORMAT_NV61;
1294       break;
1295     case V4L2_PIX_FMT_NV24:
1296       format = GST_VIDEO_FORMAT_NV24;
1297       break;
1298     default:
1299       format = GST_VIDEO_FORMAT_UNKNOWN;
1300       break;
1301   }
1302
1303   return format;
1304 }
1305
1306 static gboolean
1307 gst_v4l2_object_v4l2fourcc_is_yuv (guint32 fourcc)
1308 {
1309   gboolean ret = FALSE;
1310
1311   switch (fourcc) {
1312     case V4L2_PIX_FMT_NV12:
1313     case V4L2_PIX_FMT_NV12M:
1314     case V4L2_PIX_FMT_NV12MT:
1315     case V4L2_PIX_FMT_NV21:
1316     case V4L2_PIX_FMT_NV21M:
1317     case V4L2_PIX_FMT_YVU410:
1318     case V4L2_PIX_FMT_YUV410:
1319     case V4L2_PIX_FMT_YUV420:
1320     case V4L2_PIX_FMT_YUV420M:
1321     case V4L2_PIX_FMT_YUYV:
1322     case V4L2_PIX_FMT_YVU420:
1323     case V4L2_PIX_FMT_UYVY:
1324     case V4L2_PIX_FMT_YUV411P:
1325     case V4L2_PIX_FMT_YUV422P:
1326     case V4L2_PIX_FMT_YVYU:
1327     case V4L2_PIX_FMT_NV16:
1328     case V4L2_PIX_FMT_NV16M:
1329     case V4L2_PIX_FMT_NV61:
1330     case V4L2_PIX_FMT_NV61M:
1331     case V4L2_PIX_FMT_NV24:
1332       ret = TRUE;
1333       break;
1334     default:
1335       break;
1336   }
1337
1338   return ret;
1339 }
1340
1341 static GstStructure *
1342 gst_v4l2_object_v4l2fourcc_to_bare_struct (guint32 fourcc)
1343 {
1344   GstStructure *structure = NULL;
1345
1346   switch (fourcc) {
1347     case V4L2_PIX_FMT_MJPEG:   /* Motion-JPEG */
1348     case V4L2_PIX_FMT_PJPG:    /* Progressive-JPEG */
1349     case V4L2_PIX_FMT_JPEG:    /* JFIF JPEG */
1350       structure = gst_structure_new_empty ("image/jpeg");
1351       break;
1352     case V4L2_PIX_FMT_MPEG1:
1353       structure = gst_structure_new ("video/mpeg",
1354           "mpegversion", G_TYPE_INT, 2, NULL);
1355       break;
1356     case V4L2_PIX_FMT_MPEG2:
1357       structure = gst_structure_new ("video/mpeg",
1358           "mpegversion", G_TYPE_INT, 2, NULL);
1359       break;
1360     case V4L2_PIX_FMT_MPEG4:
1361     case V4L2_PIX_FMT_XVID:
1362       structure = gst_structure_new ("video/mpeg",
1363           "mpegversion", G_TYPE_INT, 4, "systemstream",
1364           G_TYPE_BOOLEAN, FALSE, NULL);
1365       break;
1366     case V4L2_PIX_FMT_H263:
1367       structure = gst_structure_new ("video/x-h263",
1368           "variant", G_TYPE_STRING, "itu", NULL);
1369       break;
1370     case V4L2_PIX_FMT_H264:    /* H.264 */
1371       structure = gst_structure_new ("video/x-h264",
1372           "stream-format", G_TYPE_STRING, "byte-stream", "alignment",
1373           G_TYPE_STRING, "au", NULL);
1374       break;
1375     case V4L2_PIX_FMT_H264_NO_SC:
1376       structure = gst_structure_new ("video/x-h264",
1377           "stream-format", G_TYPE_STRING, "avc", "alignment",
1378           G_TYPE_STRING, "au", NULL);
1379       break;
1380     case V4L2_PIX_FMT_VC1_ANNEX_G:
1381     case V4L2_PIX_FMT_VC1_ANNEX_L:
1382       structure = gst_structure_new ("video/x-wmv",
1383           "wmvversion", G_TYPE_INT, 3, "format", G_TYPE_STRING, "WVC1", NULL);
1384       break;
1385     case V4L2_PIX_FMT_VP8:
1386       structure = gst_structure_new_empty ("video/x-vp8");
1387       break;
1388     case V4L2_PIX_FMT_GREY:    /*  8  Greyscale     */
1389     case V4L2_PIX_FMT_Y16:
1390     case V4L2_PIX_FMT_Y16_BE:
1391     case V4L2_PIX_FMT_XRGB555:
1392     case V4L2_PIX_FMT_RGB555:
1393     case V4L2_PIX_FMT_XRGB555X:
1394     case V4L2_PIX_FMT_RGB555X:
1395     case V4L2_PIX_FMT_RGB565:
1396     case V4L2_PIX_FMT_RGB24:
1397     case V4L2_PIX_FMT_BGR24:
1398     case V4L2_PIX_FMT_RGB32:
1399     case V4L2_PIX_FMT_XRGB32:
1400     case V4L2_PIX_FMT_ARGB32:
1401     case V4L2_PIX_FMT_BGR32:
1402     case V4L2_PIX_FMT_XBGR32:
1403     case V4L2_PIX_FMT_ABGR32:
1404     case V4L2_PIX_FMT_NV12:    /* 12  Y/CbCr 4:2:0  */
1405     case V4L2_PIX_FMT_NV12M:
1406     case V4L2_PIX_FMT_NV12MT:
1407     case V4L2_PIX_FMT_NV21:    /* 12  Y/CrCb 4:2:0  */
1408     case V4L2_PIX_FMT_NV21M:
1409     case V4L2_PIX_FMT_NV16:    /* 16  Y/CbCr 4:2:2  */
1410     case V4L2_PIX_FMT_NV16M:
1411     case V4L2_PIX_FMT_NV61:    /* 16  Y/CrCb 4:2:2  */
1412     case V4L2_PIX_FMT_NV61M:
1413     case V4L2_PIX_FMT_NV24:    /* 24  Y/CrCb 4:4:4  */
1414     case V4L2_PIX_FMT_YVU410:
1415     case V4L2_PIX_FMT_YUV410:
1416     case V4L2_PIX_FMT_YUV420:  /* I420/IYUV */
1417     case V4L2_PIX_FMT_YUV420M:
1418     case V4L2_PIX_FMT_YUYV:
1419     case V4L2_PIX_FMT_YVU420:
1420     case V4L2_PIX_FMT_UYVY:
1421     case V4L2_PIX_FMT_YUV422P:
1422     case V4L2_PIX_FMT_YVYU:
1423     case V4L2_PIX_FMT_YUV411P:{
1424       GstVideoFormat format;
1425       format = gst_v4l2_object_v4l2fourcc_to_video_format (fourcc);
1426       if (format != GST_VIDEO_FORMAT_UNKNOWN)
1427         structure = gst_structure_new ("video/x-raw",
1428             "format", G_TYPE_STRING, gst_video_format_to_string (format), NULL);
1429       break;
1430     }
1431     case V4L2_PIX_FMT_DV:
1432       structure =
1433           gst_structure_new ("video/x-dv", "systemstream", G_TYPE_BOOLEAN, TRUE,
1434           NULL);
1435       break;
1436     case V4L2_PIX_FMT_MPEG:    /* MPEG          */
1437       structure = gst_structure_new ("video/mpegts",
1438           "systemstream", G_TYPE_BOOLEAN, TRUE, NULL);
1439       break;
1440     case V4L2_PIX_FMT_WNVA:    /* Winnov hw compres */
1441       break;
1442     case V4L2_PIX_FMT_SBGGR8:
1443     case V4L2_PIX_FMT_SGBRG8:
1444     case V4L2_PIX_FMT_SGRBG8:
1445     case V4L2_PIX_FMT_SRGGB8:
1446       structure = gst_structure_new ("video/x-bayer", "format", G_TYPE_STRING,
1447           fourcc == V4L2_PIX_FMT_SBGGR8 ? "bggr" :
1448           fourcc == V4L2_PIX_FMT_SGBRG8 ? "gbrg" :
1449           fourcc == V4L2_PIX_FMT_SGRBG8 ? "grbg" :
1450           /* fourcc == V4L2_PIX_FMT_SRGGB8 ? */ "rggb", NULL);
1451       break;
1452     case V4L2_PIX_FMT_SN9C10X:
1453       structure = gst_structure_new_empty ("video/x-sonix");
1454       break;
1455     case V4L2_PIX_FMT_PWC1:
1456       structure = gst_structure_new_empty ("video/x-pwc1");
1457       break;
1458     case V4L2_PIX_FMT_PWC2:
1459       structure = gst_structure_new_empty ("video/x-pwc2");
1460       break;
1461     case V4L2_PIX_FMT_RGB332:
1462     case V4L2_PIX_FMT_BGR666:
1463     case V4L2_PIX_FMT_ARGB555X:
1464     case V4L2_PIX_FMT_RGB565X:
1465     case V4L2_PIX_FMT_RGB444:
1466     case V4L2_PIX_FMT_YYUV:    /* 16  YUV 4:2:2     */
1467     case V4L2_PIX_FMT_HI240:   /*  8  8-bit color   */
1468     case V4L2_PIX_FMT_Y4:
1469     case V4L2_PIX_FMT_Y6:
1470     case V4L2_PIX_FMT_Y10:
1471     case V4L2_PIX_FMT_Y12:
1472     case V4L2_PIX_FMT_Y10BPACK:
1473     case V4L2_PIX_FMT_YUV444:
1474     case V4L2_PIX_FMT_YUV555:
1475     case V4L2_PIX_FMT_YUV565:
1476     case V4L2_PIX_FMT_Y41P:
1477     case V4L2_PIX_FMT_YUV32:
1478     case V4L2_PIX_FMT_NV12MT_16X16:
1479     case V4L2_PIX_FMT_NV42:
1480     case V4L2_PIX_FMT_H264_MVC:
1481     default:
1482       GST_DEBUG ("Unsupported fourcc 0x%08x %" GST_FOURCC_FORMAT,
1483           fourcc, GST_FOURCC_ARGS (fourcc));
1484       break;
1485   }
1486
1487   return structure;
1488 }
1489
1490 GstStructure *
1491 gst_v4l2_object_v4l2fourcc_to_structure (guint32 fourcc)
1492 {
1493   GstStructure *template;
1494   gint i;
1495
1496   template = gst_v4l2_object_v4l2fourcc_to_bare_struct (fourcc);
1497
1498   if (template == NULL)
1499     goto done;
1500
1501   for (i = 0; i < GST_V4L2_FORMAT_COUNT; i++) {
1502     if (gst_v4l2_formats[i].format != fourcc)
1503       continue;
1504
1505     if (gst_v4l2_formats[i].dimensions) {
1506       gst_structure_set (template,
1507           "width", GST_TYPE_INT_RANGE, 1, GST_V4L2_MAX_SIZE,
1508           "height", GST_TYPE_INT_RANGE, 1, GST_V4L2_MAX_SIZE,
1509           "framerate", GST_TYPE_FRACTION_RANGE, 0, 1, G_MAXINT, 1, NULL);
1510     }
1511     break;
1512   }
1513
1514 done:
1515   return template;
1516 }
1517
1518
1519 static GstCaps *
1520 gst_v4l2_object_get_caps_helper (GstV4L2FormatFlags flags)
1521 {
1522   GstStructure *structure;
1523   GstCaps *caps;
1524   guint i;
1525
1526   caps = gst_caps_new_empty ();
1527   for (i = 0; i < GST_V4L2_FORMAT_COUNT; i++) {
1528
1529     if ((gst_v4l2_formats[i].flags & flags) == 0)
1530       continue;
1531
1532     structure =
1533         gst_v4l2_object_v4l2fourcc_to_bare_struct (gst_v4l2_formats[i].format);
1534
1535     if (structure) {
1536       GstStructure *alt_s = NULL;
1537
1538       if (gst_v4l2_formats[i].dimensions) {
1539         gst_structure_set (structure,
1540             "width", GST_TYPE_INT_RANGE, 1, GST_V4L2_MAX_SIZE,
1541             "height", GST_TYPE_INT_RANGE, 1, GST_V4L2_MAX_SIZE,
1542             "framerate", GST_TYPE_FRACTION_RANGE, 0, 1, G_MAXINT, 1, NULL);
1543       }
1544
1545       switch (gst_v4l2_formats[i].format) {
1546         case V4L2_PIX_FMT_RGB32:
1547           alt_s = gst_structure_copy (structure);
1548           gst_structure_set (alt_s, "format", G_TYPE_STRING, "ARGB", NULL);
1549           break;
1550         case V4L2_PIX_FMT_BGR32:
1551           alt_s = gst_structure_copy (structure);
1552           gst_structure_set (alt_s, "format", G_TYPE_STRING, "BGRA", NULL);
1553         default:
1554           break;
1555       }
1556
1557       gst_caps_append_structure (caps, structure);
1558
1559       if (alt_s)
1560         gst_caps_append_structure (caps, alt_s);
1561     }
1562   }
1563
1564   return gst_caps_simplify (caps);
1565 }
1566
1567 GstCaps *
1568 gst_v4l2_object_get_all_caps (void)
1569 {
1570   static GstCaps *caps = NULL;
1571
1572   if (caps == NULL)
1573     caps = gst_v4l2_object_get_caps_helper (GST_V4L2_ALL);
1574
1575   return gst_caps_ref (caps);
1576 }
1577
1578 GstCaps *
1579 gst_v4l2_object_get_raw_caps (void)
1580 {
1581   static GstCaps *caps = NULL;
1582
1583   if (caps == NULL)
1584     caps = gst_v4l2_object_get_caps_helper (GST_V4L2_RAW);
1585
1586   return gst_caps_ref (caps);
1587 }
1588
1589 GstCaps *
1590 gst_v4l2_object_get_codec_caps (void)
1591 {
1592   static GstCaps *caps = NULL;
1593
1594   if (caps == NULL)
1595     caps = gst_v4l2_object_get_caps_helper (GST_V4L2_CODEC);
1596
1597   return gst_caps_ref (caps);
1598 }
1599
1600 /* collect data for the given caps
1601  * @caps: given input caps
1602  * @format: location for the v4l format
1603  * @w/@h: location for width and height
1604  * @fps_n/@fps_d: location for framerate
1605  * @size: location for expected size of the frame or 0 if unknown
1606  */
1607 static gboolean
1608 gst_v4l2_object_get_caps_info (GstV4l2Object * v4l2object, GstCaps * caps,
1609     struct v4l2_fmtdesc **format, GstVideoInfo * info)
1610 {
1611   GstStructure *structure;
1612   guint32 fourcc = 0, fourcc_nc = 0;
1613   const gchar *mimetype;
1614   struct v4l2_fmtdesc *fmt = NULL;
1615
1616   structure = gst_caps_get_structure (caps, 0);
1617
1618   mimetype = gst_structure_get_name (structure);
1619
1620   if (!gst_video_info_from_caps (info, caps))
1621     goto invalid_format;
1622
1623   if (g_str_equal (mimetype, "video/x-raw")) {
1624     switch (GST_VIDEO_INFO_FORMAT (info)) {
1625       case GST_VIDEO_FORMAT_I420:
1626         fourcc = V4L2_PIX_FMT_YUV420;
1627         fourcc_nc = V4L2_PIX_FMT_YUV420M;
1628         break;
1629       case GST_VIDEO_FORMAT_YUY2:
1630         fourcc = V4L2_PIX_FMT_YUYV;
1631         break;
1632       case GST_VIDEO_FORMAT_UYVY:
1633         fourcc = V4L2_PIX_FMT_UYVY;
1634         break;
1635       case GST_VIDEO_FORMAT_YV12:
1636         fourcc = V4L2_PIX_FMT_YVU420;
1637         break;
1638       case GST_VIDEO_FORMAT_Y41B:
1639         fourcc = V4L2_PIX_FMT_YUV411P;
1640         break;
1641       case GST_VIDEO_FORMAT_Y42B:
1642         fourcc = V4L2_PIX_FMT_YUV422P;
1643         break;
1644       case GST_VIDEO_FORMAT_NV12:
1645         fourcc = V4L2_PIX_FMT_NV12;
1646         fourcc_nc = V4L2_PIX_FMT_NV12M;
1647         break;
1648       case GST_VIDEO_FORMAT_NV12_64Z32:
1649         fourcc_nc = V4L2_PIX_FMT_NV12MT;
1650         break;
1651       case GST_VIDEO_FORMAT_NV21:
1652         fourcc = V4L2_PIX_FMT_NV21;
1653         fourcc_nc = V4L2_PIX_FMT_NV21M;
1654         break;
1655       case GST_VIDEO_FORMAT_NV16:
1656         fourcc = V4L2_PIX_FMT_NV16;
1657         fourcc_nc = V4L2_PIX_FMT_NV16M;
1658         break;
1659       case GST_VIDEO_FORMAT_NV61:
1660         fourcc = V4L2_PIX_FMT_NV61;
1661         fourcc_nc = V4L2_PIX_FMT_NV61M;
1662         break;
1663       case GST_VIDEO_FORMAT_NV24:
1664         fourcc = V4L2_PIX_FMT_NV24;
1665         break;
1666       case GST_VIDEO_FORMAT_YVYU:
1667         fourcc = V4L2_PIX_FMT_YVYU;
1668         break;
1669       case GST_VIDEO_FORMAT_RGB15:
1670         fourcc = V4L2_PIX_FMT_RGB555;
1671         break;
1672       case GST_VIDEO_FORMAT_RGB16:
1673         fourcc = V4L2_PIX_FMT_RGB565;
1674         break;
1675       case GST_VIDEO_FORMAT_RGB:
1676         fourcc = V4L2_PIX_FMT_RGB24;
1677         break;
1678       case GST_VIDEO_FORMAT_BGR:
1679         fourcc = V4L2_PIX_FMT_BGR24;
1680         break;
1681       case GST_VIDEO_FORMAT_xRGB:
1682         fourcc = V4L2_PIX_FMT_RGB32;
1683         fourcc_nc = V4L2_PIX_FMT_XRGB32;
1684         break;
1685       case GST_VIDEO_FORMAT_ARGB:
1686         fourcc = V4L2_PIX_FMT_RGB32;
1687         fourcc_nc = V4L2_PIX_FMT_ARGB32;
1688         break;
1689       case GST_VIDEO_FORMAT_BGRx:
1690         fourcc = V4L2_PIX_FMT_BGR32;
1691         fourcc_nc = V4L2_PIX_FMT_XBGR32;
1692         break;
1693       case GST_VIDEO_FORMAT_BGRA:
1694         fourcc = V4L2_PIX_FMT_BGR32;
1695         fourcc_nc = V4L2_PIX_FMT_ABGR32;
1696         break;
1697       case GST_VIDEO_FORMAT_GRAY8:
1698         fourcc = V4L2_PIX_FMT_GREY;
1699         break;
1700       case GST_VIDEO_FORMAT_GRAY16_LE:
1701         fourcc = V4L2_PIX_FMT_Y16;
1702         break;
1703       case GST_VIDEO_FORMAT_GRAY16_BE:
1704         fourcc = V4L2_PIX_FMT_Y16_BE;
1705         break;
1706       default:
1707         break;
1708     }
1709   } else {
1710     if (g_str_equal (mimetype, "video/mpegts")) {
1711       fourcc = V4L2_PIX_FMT_MPEG;
1712     } else if (g_str_equal (mimetype, "video/x-dv")) {
1713       fourcc = V4L2_PIX_FMT_DV;
1714     } else if (g_str_equal (mimetype, "image/jpeg")) {
1715       fourcc = V4L2_PIX_FMT_JPEG;
1716     } else if (g_str_equal (mimetype, "video/mpeg")) {
1717       gint version;
1718       if (gst_structure_get_int (structure, "mpegversion", &version)) {
1719         switch (version) {
1720           case 1:
1721             fourcc = V4L2_PIX_FMT_MPEG1;
1722             break;
1723           case 2:
1724             fourcc = V4L2_PIX_FMT_MPEG2;
1725             break;
1726           case 4:
1727             fourcc = V4L2_PIX_FMT_MPEG4;
1728             fourcc_nc = V4L2_PIX_FMT_XVID;
1729             break;
1730           default:
1731             break;
1732         }
1733       }
1734     } else if (g_str_equal (mimetype, "video/x-h263")) {
1735       fourcc = V4L2_PIX_FMT_H263;
1736     } else if (g_str_equal (mimetype, "video/x-h264")) {
1737       const gchar *stream_format =
1738           gst_structure_get_string (structure, "stream-format");
1739       if (g_str_equal (stream_format, "avc"))
1740         fourcc = V4L2_PIX_FMT_H264_NO_SC;
1741       else
1742         fourcc = V4L2_PIX_FMT_H264;
1743     } else if (g_str_equal (mimetype, "video/x-vp8")) {
1744       fourcc = V4L2_PIX_FMT_VP8;
1745     } else if (g_str_equal (mimetype, "video/x-bayer")) {
1746       fourcc = V4L2_PIX_FMT_SBGGR8;
1747     } else if (g_str_equal (mimetype, "video/x-sonix")) {
1748       fourcc = V4L2_PIX_FMT_SN9C10X;
1749     } else if (g_str_equal (mimetype, "video/x-pwc1")) {
1750       fourcc = V4L2_PIX_FMT_PWC1;
1751     } else if (g_str_equal (mimetype, "video/x-pwc2")) {
1752       fourcc = V4L2_PIX_FMT_PWC2;
1753     }
1754   }
1755
1756
1757   /* Prefer the non-contiguous if supported */
1758   v4l2object->prefered_non_contiguous = TRUE;
1759
1760   if (fourcc_nc)
1761     fmt = gst_v4l2_object_get_format_from_fourcc (v4l2object, fourcc_nc);
1762   else if (fourcc == 0)
1763     goto unhandled_format;
1764
1765   if (fmt == NULL) {
1766     fmt = gst_v4l2_object_get_format_from_fourcc (v4l2object, fourcc);
1767     v4l2object->prefered_non_contiguous = FALSE;
1768   }
1769
1770   if (fmt == NULL)
1771     goto unsupported_format;
1772
1773   *format = fmt;
1774
1775   return TRUE;
1776
1777   /* ERRORS */
1778 invalid_format:
1779   {
1780     GST_DEBUG_OBJECT (v4l2object, "invalid format");
1781     return FALSE;
1782   }
1783 unhandled_format:
1784   {
1785     GST_DEBUG_OBJECT (v4l2object, "unhandled format");
1786     return FALSE;
1787   }
1788 unsupported_format:
1789   {
1790     GST_DEBUG_OBJECT (v4l2object, "unsupported format");
1791     return FALSE;
1792   }
1793 }
1794
1795 static gboolean
1796 gst_v4l2_object_get_nearest_size (GstV4l2Object * v4l2object,
1797     guint32 pixelformat, gint * width, gint * height);
1798
1799 static void
1800 gst_v4l2_object_add_aspect_ratio (GstV4l2Object * v4l2object, GstStructure * s)
1801 {
1802   struct v4l2_cropcap cropcap;
1803   int num = 1, den = 1;
1804
1805   if (!v4l2object->keep_aspect)
1806     return;
1807
1808   if (v4l2object->par) {
1809     num = gst_value_get_fraction_numerator (v4l2object->par);
1810     den = gst_value_get_fraction_denominator (v4l2object->par);
1811     goto done;
1812   }
1813
1814   memset (&cropcap, 0, sizeof (cropcap));
1815
1816   cropcap.type = v4l2object->type;
1817   if (v4l2_ioctl (v4l2object->video_fd, VIDIOC_CROPCAP, &cropcap) < 0)
1818     goto cropcap_failed;
1819
1820   num = cropcap.pixelaspect.numerator;
1821   den = cropcap.pixelaspect.denominator;
1822
1823   /* Ignore PAR that are 0/0 */
1824   if (den == 0)
1825     return;
1826
1827 done:
1828   gst_structure_set (s, "pixel-aspect-ratio", GST_TYPE_FRACTION, num, den,
1829       NULL);
1830   return;
1831
1832 cropcap_failed:
1833   if (errno != ENOTTY)
1834     GST_WARNING_OBJECT (v4l2object->element,
1835         "Failed to probe pixel aspect ratio with VIDIOC_CROPCAP: %s",
1836         g_strerror (errno));
1837   goto done;
1838 }
1839
1840 /* returns TRUE if the value was changed in place, otherwise FALSE */
1841 static gboolean
1842 gst_v4l2src_value_simplify (GValue * val)
1843 {
1844   /* simplify list of one value to one value */
1845   if (GST_VALUE_HOLDS_LIST (val) && gst_value_list_get_size (val) == 1) {
1846     const GValue *list_val;
1847     GValue new_val = G_VALUE_INIT;
1848
1849     list_val = gst_value_list_get_value (val, 0);
1850     g_value_init (&new_val, G_VALUE_TYPE (list_val));
1851     g_value_copy (list_val, &new_val);
1852     g_value_unset (val);
1853     *val = new_val;
1854     return TRUE;
1855   }
1856
1857   return FALSE;
1858 }
1859
1860 static gboolean
1861 gst_v4l2_object_get_interlace_mode (enum v4l2_field field,
1862     GstVideoInterlaceMode * interlace_mode)
1863 {
1864   /* NB: If you add new return values, please fix mode_strings in
1865    * gst_v4l2_object_add_interlace_mode */
1866   switch (field) {
1867     case V4L2_FIELD_ANY:
1868       GST_ERROR
1869           ("Driver bug detected - check driver with v4l2-compliance from http://git.linuxtv.org/v4l-utils.git\n");
1870       /* fallthrough */
1871     case V4L2_FIELD_NONE:
1872       *interlace_mode = GST_VIDEO_INTERLACE_MODE_PROGRESSIVE;
1873       return TRUE;
1874     case V4L2_FIELD_INTERLACED:
1875     case V4L2_FIELD_INTERLACED_TB:
1876     case V4L2_FIELD_INTERLACED_BT:
1877       *interlace_mode = GST_VIDEO_INTERLACE_MODE_INTERLEAVED;
1878       return TRUE;
1879     default:
1880       GST_ERROR ("Unknown enum v4l2_field %d", field);
1881       return FALSE;
1882   }
1883 }
1884
1885 static gboolean
1886 gst_v4l2_object_get_colorspace (enum v4l2_colorspace colorspace,
1887     enum v4l2_quantization range, enum v4l2_ycbcr_encoding matrix,
1888     enum v4l2_xfer_func transfer, GstVideoColorimetry * cinfo)
1889 {
1890   gboolean ret = TRUE;
1891
1892   /* First step, set the defaults for each primaries */
1893   switch (colorspace) {
1894     case V4L2_COLORSPACE_SMPTE170M:
1895       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
1896       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT601;
1897       cinfo->transfer = GST_VIDEO_TRANSFER_BT709;
1898       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_SMPTE170M;
1899       break;
1900     case V4L2_COLORSPACE_REC709:
1901       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
1902       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT709;
1903       cinfo->transfer = GST_VIDEO_TRANSFER_BT709;
1904       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_BT709;
1905       break;
1906     case V4L2_COLORSPACE_SRGB:
1907     case V4L2_COLORSPACE_JPEG:
1908       cinfo->range = GST_VIDEO_COLOR_RANGE_0_255;
1909       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT601;
1910       cinfo->transfer = GST_VIDEO_TRANSFER_SRGB;
1911       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_BT709;
1912       break;
1913     case V4L2_COLORSPACE_ADOBERGB:
1914       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
1915       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT601;
1916       cinfo->transfer = GST_VIDEO_TRANSFER_ADOBERGB;
1917       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_ADOBERGB;
1918       break;
1919     case V4L2_COLORSPACE_BT2020:
1920       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
1921       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT2020;
1922       cinfo->transfer = GST_VIDEO_TRANSFER_BT709;
1923       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_BT2020;
1924       break;
1925     case V4L2_COLORSPACE_SMPTE240M:
1926       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
1927       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_SMPTE240M;
1928       cinfo->transfer = GST_VIDEO_TRANSFER_SMPTE240M;
1929       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_SMPTE240M;
1930       break;
1931     case V4L2_COLORSPACE_470_SYSTEM_M:
1932       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
1933       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT601;
1934       cinfo->transfer = GST_VIDEO_TRANSFER_BT709;
1935       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_BT470M;
1936       break;
1937     case V4L2_COLORSPACE_470_SYSTEM_BG:
1938       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
1939       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT601;
1940       cinfo->transfer = GST_VIDEO_TRANSFER_BT709;
1941       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_BT470BG;
1942       break;
1943     case V4L2_COLORSPACE_RAW:
1944       /* Explicitly unknown */
1945       cinfo->range = GST_VIDEO_COLOR_RANGE_UNKNOWN;
1946       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_UNKNOWN;
1947       cinfo->transfer = GST_VIDEO_TRANSFER_UNKNOWN;
1948       cinfo->primaries = GST_VIDEO_COLOR_PRIMARIES_UNKNOWN;
1949       break;
1950     default:
1951       GST_DEBUG ("Unknown enum v4l2_colorspace %d", colorspace);
1952       ret = FALSE;
1953       break;
1954   }
1955
1956   if (!ret)
1957     goto done;
1958
1959   /* Second step, apply any custom variation */
1960   switch (range) {
1961     case V4L2_QUANTIZATION_FULL_RANGE:
1962       cinfo->range = GST_VIDEO_COLOR_RANGE_0_255;
1963       break;
1964     case V4L2_QUANTIZATION_LIM_RANGE:
1965       cinfo->range = GST_VIDEO_COLOR_RANGE_16_235;
1966       break;
1967     case V4L2_QUANTIZATION_DEFAULT:
1968       /* nothing, just use defaults for colorspace */
1969       break;
1970     default:
1971       GST_WARNING ("Unknown enum v4l2_quantization value %d", range);
1972       cinfo->range = GST_VIDEO_COLOR_RANGE_UNKNOWN;
1973       break;
1974   }
1975
1976   switch (matrix) {
1977     case V4L2_YCBCR_ENC_XV601:
1978     case V4L2_YCBCR_ENC_SYCC:
1979       GST_FIXME ("XV601 and SYCC not defined, assuming 601");
1980       /* fallthrough */
1981     case V4L2_YCBCR_ENC_601:
1982       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT601;
1983       break;
1984     case V4L2_YCBCR_ENC_XV709:
1985       GST_FIXME ("XV709 not defined, assuming 709");
1986       /* fallthrough */
1987     case V4L2_YCBCR_ENC_709:
1988       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT709;
1989       break;
1990     case V4L2_YCBCR_ENC_BT2020_CONST_LUM:
1991       GST_FIXME ("BT2020 with constant lumma is not defined, assuming BT2020");
1992       /* fallthrough */
1993     case V4L2_YCBCR_ENC_BT2020:
1994       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_BT2020;
1995       break;
1996     case V4L2_YCBCR_ENC_SMPTE240M:
1997       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_SMPTE240M;
1998       break;
1999     case V4L2_YCBCR_ENC_DEFAULT:
2000       /* nothing, just use defaults for colorspace */
2001       break;
2002     default:
2003       GST_WARNING ("Unknown enum v4l2_ycbcr_encoding value %d", matrix);
2004       cinfo->matrix = GST_VIDEO_COLOR_MATRIX_UNKNOWN;
2005       break;
2006   }
2007
2008   switch (transfer) {
2009     case V4L2_XFER_FUNC_709:
2010       cinfo->transfer = GST_VIDEO_TRANSFER_BT709;
2011       break;
2012     case V4L2_XFER_FUNC_SRGB:
2013       cinfo->transfer = GST_VIDEO_TRANSFER_SRGB;
2014       break;
2015     case V4L2_XFER_FUNC_ADOBERGB:
2016       cinfo->transfer = GST_VIDEO_TRANSFER_ADOBERGB;
2017       break;
2018     case V4L2_XFER_FUNC_SMPTE240M:
2019       cinfo->transfer = GST_VIDEO_TRANSFER_SMPTE240M;
2020       break;
2021     case V4L2_XFER_FUNC_NONE:
2022       cinfo->transfer = GST_VIDEO_TRANSFER_GAMMA10;
2023       break;
2024     case V4L2_XFER_FUNC_DEFAULT:
2025       /* nothing, just use defaults for colorspace */
2026       break;
2027     default:
2028       GST_WARNING ("Unknown enum v4l2_xfer_func value %d", transfer);
2029       cinfo->transfer = GST_VIDEO_TRANSFER_UNKNOWN;
2030       break;
2031   }
2032
2033 done:
2034   return ret;
2035 }
2036
2037 static int
2038 gst_v4l2_object_try_fmt (GstV4l2Object * v4l2object,
2039     struct v4l2_format *try_fmt)
2040 {
2041   int fd = v4l2object->video_fd;
2042   struct v4l2_format fmt;
2043   int r;
2044
2045   memcpy (&fmt, try_fmt, sizeof (fmt));
2046   r = v4l2_ioctl (fd, VIDIOC_TRY_FMT, &fmt);
2047
2048   if (r < 0 && errno == ENOTTY) {
2049     /* The driver might not implement TRY_FMT, in which case we will try
2050        S_FMT to probe */
2051     if (GST_V4L2_IS_ACTIVE (v4l2object))
2052       goto error;
2053
2054     memcpy (&fmt, try_fmt, sizeof (fmt));
2055     r = v4l2_ioctl (fd, VIDIOC_S_FMT, &fmt);
2056   }
2057   memcpy (try_fmt, &fmt, sizeof (fmt));
2058   return r;
2059
2060 error:
2061   memcpy (try_fmt, &fmt, sizeof (fmt));
2062   GST_WARNING_OBJECT (v4l2object->element,
2063       "Unable to try format: %s", g_strerror (errno));
2064   return r;
2065 }
2066
2067
2068 static void
2069 gst_v4l2_object_add_interlace_mode (GstV4l2Object * v4l2object,
2070     GstStructure * s, guint32 width, guint32 height, guint32 pixelformat)
2071 {
2072   struct v4l2_format fmt;
2073   GValue interlace_formats = { 0, };
2074   GstVideoInterlaceMode interlace_mode, prev = -1;
2075
2076   const gchar *mode_strings[] = { "progressive",
2077     "interleaved",
2078     "mixed"
2079   };
2080
2081   if (!g_str_equal (gst_structure_get_name (s), "video/x-raw"))
2082     return;
2083
2084   if (v4l2object->never_interlaced) {
2085     gst_structure_set (s, "interlace-mode", G_TYPE_STRING, "progressive", NULL);
2086     return;
2087   }
2088
2089   g_value_init (&interlace_formats, GST_TYPE_LIST);
2090
2091   /* Try twice - once for NONE, once for INTERLACED. */
2092   memset (&fmt, 0, sizeof (fmt));
2093   fmt.type = v4l2object->type;
2094   fmt.fmt.pix.width = width;
2095   fmt.fmt.pix.height = height;
2096   fmt.fmt.pix.pixelformat = pixelformat;
2097   fmt.fmt.pix.field = V4L2_FIELD_NONE;
2098
2099   if (gst_v4l2_object_try_fmt (v4l2object, &fmt) == 0 &&
2100       gst_v4l2_object_get_interlace_mode (fmt.fmt.pix.field, &interlace_mode)) {
2101     GValue interlace_enum = { 0, };
2102     g_value_init (&interlace_enum, G_TYPE_STRING);
2103     g_value_set_string (&interlace_enum, mode_strings[interlace_mode]);
2104     gst_value_list_append_and_take_value (&interlace_formats, &interlace_enum);
2105     prev = interlace_mode;
2106   }
2107
2108   memset (&fmt, 0, sizeof (fmt));
2109   fmt.type = v4l2object->type;
2110   fmt.fmt.pix.width = width;
2111   fmt.fmt.pix.height = height;
2112   fmt.fmt.pix.pixelformat = pixelformat;
2113   fmt.fmt.pix.field = V4L2_FIELD_INTERLACED;
2114
2115   if (gst_v4l2_object_try_fmt (v4l2object, &fmt) == 0 &&
2116       gst_v4l2_object_get_interlace_mode (fmt.fmt.pix.field, &interlace_mode) &&
2117       prev != interlace_mode) {
2118     GValue interlace_enum = { 0, };
2119     g_value_init (&interlace_enum, G_TYPE_STRING);
2120     g_value_set_string (&interlace_enum, mode_strings[interlace_mode]);
2121     gst_value_list_append_and_take_value (&interlace_formats, &interlace_enum);
2122   }
2123
2124   gst_v4l2src_value_simplify (&interlace_formats);
2125   gst_structure_take_value (s, "interlace-mode", &interlace_formats);
2126   return;
2127 }
2128
2129 static void
2130 gst_v4l2_object_add_colorspace (GstV4l2Object * v4l2object, GstStructure * s,
2131     guint32 width, guint32 height, guint32 pixelformat)
2132 {
2133   struct v4l2_format fmt;
2134   GValue colorimetry = G_VALUE_INIT;
2135   GstVideoColorimetry cinfo;
2136
2137   /* Don't expose colorimetry unless this is a YUV format */
2138   if (!gst_v4l2_object_v4l2fourcc_is_yuv (pixelformat))
2139     return;
2140
2141   memset (&fmt, 0, sizeof (fmt));
2142   fmt.type = v4l2object->type;
2143   fmt.fmt.pix.width = width;
2144   fmt.fmt.pix.height = height;
2145   fmt.fmt.pix.pixelformat = pixelformat;
2146
2147   if (gst_v4l2_object_try_fmt (v4l2object, &fmt) == 0) {
2148     enum v4l2_colorspace colorspace;
2149     enum v4l2_quantization range;
2150     enum v4l2_ycbcr_encoding matrix;
2151     enum v4l2_xfer_func transfer;
2152
2153     if (V4L2_TYPE_IS_MULTIPLANAR (v4l2object->type)) {
2154       colorspace = fmt.fmt.pix_mp.colorspace;
2155       range = fmt.fmt.pix_mp.quantization;
2156       matrix = fmt.fmt.pix_mp.ycbcr_enc;
2157       transfer = fmt.fmt.pix_mp.xfer_func;
2158     } else {
2159       colorspace = fmt.fmt.pix.colorspace;
2160       range = fmt.fmt.pix.quantization;
2161       matrix = fmt.fmt.pix.ycbcr_enc;
2162       transfer = fmt.fmt.pix.xfer_func;
2163     }
2164
2165     if (gst_v4l2_object_get_colorspace (colorspace, range, matrix, transfer,
2166             &cinfo)) {
2167       g_value_init (&colorimetry, G_TYPE_STRING);
2168       g_value_take_string (&colorimetry,
2169           gst_video_colorimetry_to_string (&cinfo));
2170       gst_structure_take_value (s, "colorimetry", &colorimetry);
2171     }
2172   }
2173 }
2174
2175 /* The frame interval enumeration code first appeared in Linux 2.6.19. */
2176 static GstStructure *
2177 gst_v4l2_object_probe_caps_for_format_and_size (GstV4l2Object * v4l2object,
2178     guint32 pixelformat,
2179     guint32 width, guint32 height, const GstStructure * template)
2180 {
2181   gint fd = v4l2object->video_fd;
2182   struct v4l2_frmivalenum ival;
2183   guint32 num, denom;
2184   GstStructure *s;
2185   GValue rates = { 0, };
2186
2187   memset (&ival, 0, sizeof (struct v4l2_frmivalenum));
2188   ival.index = 0;
2189   ival.pixel_format = pixelformat;
2190   ival.width = width;
2191   ival.height = height;
2192
2193   GST_LOG_OBJECT (v4l2object->element,
2194       "get frame interval for %ux%u, %" GST_FOURCC_FORMAT, width, height,
2195       GST_FOURCC_ARGS (pixelformat));
2196
2197   /* keep in mind that v4l2 gives us frame intervals (durations); we invert the
2198    * fraction to get framerate */
2199   if (v4l2_ioctl (fd, VIDIOC_ENUM_FRAMEINTERVALS, &ival) < 0)
2200     goto enum_frameintervals_failed;
2201
2202   if (ival.type == V4L2_FRMIVAL_TYPE_DISCRETE) {
2203     GValue rate = { 0, };
2204
2205     g_value_init (&rates, GST_TYPE_LIST);
2206     g_value_init (&rate, GST_TYPE_FRACTION);
2207
2208     do {
2209       num = ival.discrete.numerator;
2210       denom = ival.discrete.denominator;
2211
2212       if (num > G_MAXINT || denom > G_MAXINT) {
2213         /* let us hope we don't get here... */
2214         num >>= 1;
2215         denom >>= 1;
2216       }
2217
2218       GST_LOG_OBJECT (v4l2object->element, "adding discrete framerate: %d/%d",
2219           denom, num);
2220
2221       /* swap to get the framerate */
2222       gst_value_set_fraction (&rate, denom, num);
2223       gst_value_list_append_value (&rates, &rate);
2224
2225       ival.index++;
2226     } while (v4l2_ioctl (fd, VIDIOC_ENUM_FRAMEINTERVALS, &ival) >= 0);
2227   } else if (ival.type == V4L2_FRMIVAL_TYPE_STEPWISE) {
2228     GValue min = { 0, };
2229     GValue step = { 0, };
2230     GValue max = { 0, };
2231     gboolean added = FALSE;
2232     guint32 minnum, mindenom;
2233     guint32 maxnum, maxdenom;
2234
2235     g_value_init (&rates, GST_TYPE_LIST);
2236
2237     g_value_init (&min, GST_TYPE_FRACTION);
2238     g_value_init (&step, GST_TYPE_FRACTION);
2239     g_value_init (&max, GST_TYPE_FRACTION);
2240
2241     /* get the min */
2242     minnum = ival.stepwise.min.numerator;
2243     mindenom = ival.stepwise.min.denominator;
2244     if (minnum > G_MAXINT || mindenom > G_MAXINT) {
2245       minnum >>= 1;
2246       mindenom >>= 1;
2247     }
2248     GST_LOG_OBJECT (v4l2object->element, "stepwise min frame interval: %d/%d",
2249         minnum, mindenom);
2250     gst_value_set_fraction (&min, minnum, mindenom);
2251
2252     /* get the max */
2253     maxnum = ival.stepwise.max.numerator;
2254     maxdenom = ival.stepwise.max.denominator;
2255     if (maxnum > G_MAXINT || maxdenom > G_MAXINT) {
2256       maxnum >>= 1;
2257       maxdenom >>= 1;
2258     }
2259
2260     GST_LOG_OBJECT (v4l2object->element, "stepwise max frame interval: %d/%d",
2261         maxnum, maxdenom);
2262     gst_value_set_fraction (&max, maxnum, maxdenom);
2263
2264     /* get the step */
2265     num = ival.stepwise.step.numerator;
2266     denom = ival.stepwise.step.denominator;
2267     if (num > G_MAXINT || denom > G_MAXINT) {
2268       num >>= 1;
2269       denom >>= 1;
2270     }
2271
2272     if (num == 0 || denom == 0) {
2273       /* in this case we have a wrong fraction or no step, set the step to max
2274        * so that we only add the min value in the loop below */
2275       num = maxnum;
2276       denom = maxdenom;
2277     }
2278
2279     /* since we only have gst_value_fraction_subtract and not add, negate the
2280      * numerator */
2281     GST_LOG_OBJECT (v4l2object->element, "stepwise step frame interval: %d/%d",
2282         num, denom);
2283     gst_value_set_fraction (&step, -num, denom);
2284
2285     while (gst_value_compare (&min, &max) != GST_VALUE_GREATER_THAN) {
2286       GValue rate = { 0, };
2287
2288       num = gst_value_get_fraction_numerator (&min);
2289       denom = gst_value_get_fraction_denominator (&min);
2290       GST_LOG_OBJECT (v4l2object->element, "adding stepwise framerate: %d/%d",
2291           denom, num);
2292
2293       /* invert to get the framerate */
2294       g_value_init (&rate, GST_TYPE_FRACTION);
2295       gst_value_set_fraction (&rate, denom, num);
2296       gst_value_list_append_value (&rates, &rate);
2297       added = TRUE;
2298
2299       /* we're actually adding because step was negated above. This is because
2300        * there is no _add function... */
2301       if (!gst_value_fraction_subtract (&min, &min, &step)) {
2302         GST_WARNING_OBJECT (v4l2object->element, "could not step fraction!");
2303         break;
2304       }
2305     }
2306     if (!added) {
2307       /* no range was added, leave the default range from the template */
2308       GST_WARNING_OBJECT (v4l2object->element,
2309           "no range added, leaving default");
2310       g_value_unset (&rates);
2311     }
2312   } else if (ival.type == V4L2_FRMIVAL_TYPE_CONTINUOUS) {
2313     guint32 maxnum, maxdenom;
2314
2315     g_value_init (&rates, GST_TYPE_FRACTION_RANGE);
2316
2317     num = ival.stepwise.min.numerator;
2318     denom = ival.stepwise.min.denominator;
2319     if (num > G_MAXINT || denom > G_MAXINT) {
2320       num >>= 1;
2321       denom >>= 1;
2322     }
2323
2324     maxnum = ival.stepwise.max.numerator;
2325     maxdenom = ival.stepwise.max.denominator;
2326     if (maxnum > G_MAXINT || maxdenom > G_MAXINT) {
2327       maxnum >>= 1;
2328       maxdenom >>= 1;
2329     }
2330
2331     GST_LOG_OBJECT (v4l2object->element,
2332         "continuous frame interval %d/%d to %d/%d", maxdenom, maxnum, denom,
2333         num);
2334
2335     gst_value_set_fraction_range_full (&rates, maxdenom, maxnum, denom, num);
2336   } else {
2337     goto unknown_type;
2338   }
2339
2340 return_data:
2341   s = gst_structure_copy (template);
2342   gst_structure_set (s, "width", G_TYPE_INT, (gint) width,
2343       "height", G_TYPE_INT, (gint) height, NULL);
2344   gst_v4l2_object_add_aspect_ratio (v4l2object, s);
2345   gst_v4l2_object_add_interlace_mode (v4l2object, s, width, height,
2346       pixelformat);
2347   gst_v4l2_object_add_colorspace (v4l2object, s, width, height, pixelformat);
2348
2349   if (G_IS_VALUE (&rates)) {
2350     gst_v4l2src_value_simplify (&rates);
2351     /* only change the framerate on the template when we have a valid probed new
2352      * value */
2353     gst_structure_take_value (s, "framerate", &rates);
2354   } else if (v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE ||
2355       v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE_MPLANE) {
2356     gst_structure_set (s, "framerate", GST_TYPE_FRACTION_RANGE, 0, 1, G_MAXINT,
2357         1, NULL);
2358   }
2359   return s;
2360
2361   /* ERRORS */
2362 enum_frameintervals_failed:
2363   {
2364     GST_DEBUG_OBJECT (v4l2object->element,
2365         "Unable to enumerate intervals for %" GST_FOURCC_FORMAT "@%ux%u",
2366         GST_FOURCC_ARGS (pixelformat), width, height);
2367     goto return_data;
2368   }
2369 unknown_type:
2370   {
2371     /* I don't see how this is actually an error, we ignore the format then */
2372     GST_WARNING_OBJECT (v4l2object->element,
2373         "Unknown frame interval type at %" GST_FOURCC_FORMAT "@%ux%u: %u",
2374         GST_FOURCC_ARGS (pixelformat), width, height, ival.type);
2375     return NULL;
2376   }
2377 }
2378
2379 static gint
2380 sort_by_frame_size (GstStructure * s1, GstStructure * s2)
2381 {
2382   int w1, h1, w2, h2;
2383
2384   gst_structure_get_int (s1, "width", &w1);
2385   gst_structure_get_int (s1, "height", &h1);
2386   gst_structure_get_int (s2, "width", &w2);
2387   gst_structure_get_int (s2, "height", &h2);
2388
2389   /* I think it's safe to assume that this won't overflow for a while */
2390   return ((w2 * h2) - (w1 * h1));
2391 }
2392
2393 static void
2394 gst_v4l2_object_update_and_append (GstV4l2Object * v4l2object,
2395     guint32 format, GstCaps * caps, GstStructure * s)
2396 {
2397   GstStructure *alt_s = NULL;
2398
2399   /* Encoded stream on output buffer need to be parsed */
2400   if (v4l2object->type == V4L2_BUF_TYPE_VIDEO_OUTPUT ||
2401       v4l2object->type == V4L2_BUF_TYPE_VIDEO_OUTPUT_MPLANE) {
2402     gint i = 0;
2403
2404     for (; i < GST_V4L2_FORMAT_COUNT; i++) {
2405       if (format == gst_v4l2_formats[i].format &&
2406           gst_v4l2_formats[i].flags & GST_V4L2_CODEC &&
2407           !(gst_v4l2_formats[i].flags & GST_V4L2_NO_PARSE)) {
2408         gst_structure_set (s, "parsed", G_TYPE_BOOLEAN, TRUE, NULL);
2409         break;
2410       }
2411     }
2412   }
2413
2414   if (v4l2object->has_alpha_component &&
2415       (v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE ||
2416           v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE_MPLANE)) {
2417     switch (format) {
2418       case V4L2_PIX_FMT_RGB32:
2419         alt_s = gst_structure_copy (s);
2420         gst_structure_set (alt_s, "format", G_TYPE_STRING, "ARGB", NULL);
2421         break;
2422       case V4L2_PIX_FMT_BGR32:
2423         alt_s = gst_structure_copy (s);
2424         gst_structure_set (alt_s, "format", G_TYPE_STRING, "BGRA", NULL);
2425         break;
2426       default:
2427         break;
2428     }
2429   }
2430
2431   gst_caps_append_structure (caps, s);
2432
2433   if (alt_s)
2434     gst_caps_append_structure (caps, alt_s);
2435 }
2436
2437 static GstCaps *
2438 gst_v4l2_object_probe_caps_for_format (GstV4l2Object * v4l2object,
2439     guint32 pixelformat, const GstStructure * template)
2440 {
2441   GstCaps *ret = gst_caps_new_empty ();
2442   GstStructure *tmp;
2443   gint fd = v4l2object->video_fd;
2444   struct v4l2_frmsizeenum size;
2445   GList *results = NULL;
2446   guint32 w, h;
2447
2448   if (pixelformat == GST_MAKE_FOURCC ('M', 'P', 'E', 'G')) {
2449     gst_caps_append_structure (ret, gst_structure_copy (template));
2450     return ret;
2451   }
2452
2453   memset (&size, 0, sizeof (struct v4l2_frmsizeenum));
2454   size.index = 0;
2455   size.pixel_format = pixelformat;
2456
2457   GST_DEBUG_OBJECT (v4l2object->element,
2458       "Enumerating frame sizes for %" GST_FOURCC_FORMAT,
2459       GST_FOURCC_ARGS (pixelformat));
2460
2461   if (v4l2_ioctl (fd, VIDIOC_ENUM_FRAMESIZES, &size) < 0)
2462     goto enum_framesizes_failed;
2463
2464   if (size.type == V4L2_FRMSIZE_TYPE_DISCRETE) {
2465     do {
2466       GST_LOG_OBJECT (v4l2object->element, "got discrete frame size %dx%d",
2467           size.discrete.width, size.discrete.height);
2468
2469       w = MIN (size.discrete.width, G_MAXINT);
2470       h = MIN (size.discrete.height, G_MAXINT);
2471
2472       if (w && h) {
2473         tmp =
2474             gst_v4l2_object_probe_caps_for_format_and_size (v4l2object,
2475             pixelformat, w, h, template);
2476
2477         if (tmp)
2478           results = g_list_prepend (results, tmp);
2479       }
2480
2481       size.index++;
2482     } while (v4l2_ioctl (fd, VIDIOC_ENUM_FRAMESIZES, &size) >= 0);
2483     GST_DEBUG_OBJECT (v4l2object->element,
2484         "done iterating discrete frame sizes");
2485   } else if (size.type == V4L2_FRMSIZE_TYPE_STEPWISE) {
2486     guint32 maxw, maxh, step_w, step_h;
2487
2488     GST_DEBUG_OBJECT (v4l2object->element, "we have stepwise frame sizes:");
2489     GST_DEBUG_OBJECT (v4l2object->element, "min width:   %d",
2490         size.stepwise.min_width);
2491     GST_DEBUG_OBJECT (v4l2object->element, "min height:  %d",
2492         size.stepwise.min_height);
2493     GST_DEBUG_OBJECT (v4l2object->element, "max width:   %d",
2494         size.stepwise.max_width);
2495     GST_DEBUG_OBJECT (v4l2object->element, "min height:  %d",
2496         size.stepwise.max_height);
2497     GST_DEBUG_OBJECT (v4l2object->element, "step width:  %d",
2498         size.stepwise.step_width);
2499     GST_DEBUG_OBJECT (v4l2object->element, "step height: %d",
2500         size.stepwise.step_height);
2501
2502     w = MAX (size.stepwise.min_width, 1);
2503     h = MAX (size.stepwise.min_height, 1);
2504     maxw = MIN (size.stepwise.max_width, G_MAXINT);
2505     maxh = MIN (size.stepwise.max_height, G_MAXINT);
2506
2507     step_w = MAX (size.stepwise.step_width, 1);
2508     step_h = MAX (size.stepwise.step_height, 1);
2509
2510     /* FIXME: check for sanity and that min/max are multiples of the steps */
2511
2512     /* we only query details for the max width/height since it's likely the
2513      * most restricted if there are any resolution-dependent restrictions */
2514     tmp = gst_v4l2_object_probe_caps_for_format_and_size (v4l2object,
2515         pixelformat, maxw, maxh, template);
2516
2517     if (tmp) {
2518       GValue step_range = G_VALUE_INIT;
2519
2520       g_value_init (&step_range, GST_TYPE_INT_RANGE);
2521       gst_value_set_int_range_step (&step_range, w, maxw, step_w);
2522       gst_structure_set_value (tmp, "width", &step_range);
2523
2524       gst_value_set_int_range_step (&step_range, h, maxh, step_h);
2525       gst_structure_take_value (tmp, "height", &step_range);
2526
2527       /* no point using the results list here, since there's only one struct */
2528       gst_v4l2_object_update_and_append (v4l2object, pixelformat, ret, tmp);
2529     }
2530   } else if (size.type == V4L2_FRMSIZE_TYPE_CONTINUOUS) {
2531     guint32 maxw, maxh;
2532
2533     GST_DEBUG_OBJECT (v4l2object->element, "we have continuous frame sizes:");
2534     GST_DEBUG_OBJECT (v4l2object->element, "min width:   %d",
2535         size.stepwise.min_width);
2536     GST_DEBUG_OBJECT (v4l2object->element, "min height:  %d",
2537         size.stepwise.min_height);
2538     GST_DEBUG_OBJECT (v4l2object->element, "max width:   %d",
2539         size.stepwise.max_width);
2540     GST_DEBUG_OBJECT (v4l2object->element, "min height:  %d",
2541         size.stepwise.max_height);
2542
2543     w = MAX (size.stepwise.min_width, 1);
2544     h = MAX (size.stepwise.min_height, 1);
2545     maxw = MIN (size.stepwise.max_width, G_MAXINT);
2546     maxh = MIN (size.stepwise.max_height, G_MAXINT);
2547
2548     tmp =
2549         gst_v4l2_object_probe_caps_for_format_and_size (v4l2object, pixelformat,
2550         w, h, template);
2551     if (tmp) {
2552       gst_structure_set (tmp, "width", GST_TYPE_INT_RANGE, (gint) w,
2553           (gint) maxw, "height", GST_TYPE_INT_RANGE, (gint) h, (gint) maxh,
2554           NULL);
2555
2556       /* no point using the results list here, since there's only one struct */
2557       gst_v4l2_object_update_and_append (v4l2object, pixelformat, ret, tmp);
2558     }
2559   } else {
2560     goto unknown_type;
2561   }
2562
2563   /* we use an intermediary list to store and then sort the results of the
2564    * probing because we can't make any assumptions about the order in which
2565    * the driver will give us the sizes, but we want the final caps to contain
2566    * the results starting with the highest resolution and having the lowest
2567    * resolution last, since order in caps matters for things like fixation. */
2568   results = g_list_sort (results, (GCompareFunc) sort_by_frame_size);
2569   while (results != NULL) {
2570     gst_v4l2_object_update_and_append (v4l2object, pixelformat, ret,
2571         results->data);
2572     results = g_list_delete_link (results, results);
2573   }
2574
2575   if (gst_caps_is_empty (ret))
2576     goto enum_framesizes_no_results;
2577
2578   return ret;
2579
2580   /* ERRORS */
2581 enum_framesizes_failed:
2582   {
2583     /* I don't see how this is actually an error */
2584     GST_DEBUG_OBJECT (v4l2object->element,
2585         "Failed to enumerate frame sizes for pixelformat %" GST_FOURCC_FORMAT
2586         " (%s)", GST_FOURCC_ARGS (pixelformat), g_strerror (errno));
2587     goto default_frame_sizes;
2588   }
2589 enum_framesizes_no_results:
2590   {
2591     /* it's possible that VIDIOC_ENUM_FRAMESIZES is defined but the driver in
2592      * question doesn't actually support it yet */
2593     GST_DEBUG_OBJECT (v4l2object->element,
2594         "No results for pixelformat %" GST_FOURCC_FORMAT
2595         " enumerating frame sizes, trying fallback",
2596         GST_FOURCC_ARGS (pixelformat));
2597     goto default_frame_sizes;
2598   }
2599 unknown_type:
2600   {
2601     GST_WARNING_OBJECT (v4l2object->element,
2602         "Unknown frame sizeenum type for pixelformat %" GST_FOURCC_FORMAT
2603         ": %u", GST_FOURCC_ARGS (pixelformat), size.type);
2604     goto default_frame_sizes;
2605   }
2606
2607 default_frame_sizes:
2608   {
2609     gint min_w, max_w, min_h, max_h, fix_num = 0, fix_denom = 0;
2610
2611     /* This code is for Linux < 2.6.19 */
2612     min_w = min_h = 1;
2613     max_w = max_h = GST_V4L2_MAX_SIZE;
2614     if (!gst_v4l2_object_get_nearest_size (v4l2object, pixelformat, &min_w,
2615             &min_h)) {
2616       GST_WARNING_OBJECT (v4l2object->element,
2617           "Could not probe minimum capture size for pixelformat %"
2618           GST_FOURCC_FORMAT, GST_FOURCC_ARGS (pixelformat));
2619     }
2620     if (!gst_v4l2_object_get_nearest_size (v4l2object, pixelformat, &max_w,
2621             &max_h)) {
2622       GST_WARNING_OBJECT (v4l2object->element,
2623           "Could not probe maximum capture size for pixelformat %"
2624           GST_FOURCC_FORMAT, GST_FOURCC_ARGS (pixelformat));
2625     }
2626
2627     /* Since we can't get framerate directly, try to use the current norm */
2628     if (v4l2object->tv_norm && v4l2object->norms) {
2629       GList *norms;
2630       GstTunerNorm *norm = NULL;
2631       GstTunerNorm *current =
2632           gst_v4l2_tuner_get_norm_by_std_id (v4l2object, v4l2object->tv_norm);
2633
2634       for (norms = v4l2object->norms; norms != NULL; norms = norms->next) {
2635         norm = (GstTunerNorm *) norms->data;
2636         if (!strcmp (norm->label, current->label))
2637           break;
2638       }
2639       /* If it's possible, set framerate to that (discrete) value */
2640       if (norm) {
2641         fix_num = gst_value_get_fraction_numerator (&norm->framerate);
2642         fix_denom = gst_value_get_fraction_denominator (&norm->framerate);
2643       }
2644     }
2645
2646     tmp = gst_structure_copy (template);
2647     if (fix_num) {
2648       gst_structure_set (tmp, "framerate", GST_TYPE_FRACTION, fix_num,
2649           fix_denom, NULL);
2650     } else if (v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE ||
2651         v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE_MPLANE) {
2652       /* if norm can't be used, copy the template framerate */
2653       gst_structure_set (tmp, "framerate", GST_TYPE_FRACTION_RANGE, 0, 1,
2654           G_MAXINT, 1, NULL);
2655     }
2656
2657     if (min_w == max_w)
2658       gst_structure_set (tmp, "width", G_TYPE_INT, max_w, NULL);
2659     else
2660       gst_structure_set (tmp, "width", GST_TYPE_INT_RANGE, min_w, max_w, NULL);
2661
2662     if (min_h == max_h)
2663       gst_structure_set (tmp, "height", G_TYPE_INT, max_h, NULL);
2664     else
2665       gst_structure_set (tmp, "height", GST_TYPE_INT_RANGE, min_h, max_h, NULL);
2666
2667     /* We could consider setting interlace mode from min and max. */
2668     gst_v4l2_object_add_interlace_mode (v4l2object, tmp, max_w, max_h,
2669         pixelformat);
2670     gst_v4l2_object_add_aspect_ratio (v4l2object, tmp);
2671     /* We could consider to check colorspace for min too, in case it depends on
2672      * the size. But in this case, min and max could not be enough */
2673     gst_v4l2_object_add_colorspace (v4l2object, tmp, max_w, max_h, pixelformat);
2674
2675     gst_v4l2_object_update_and_append (v4l2object, pixelformat, ret, tmp);
2676     return ret;
2677   }
2678 }
2679
2680 static gboolean
2681 gst_v4l2_object_get_nearest_size (GstV4l2Object * v4l2object,
2682     guint32 pixelformat, gint * width, gint * height)
2683 {
2684   struct v4l2_format fmt;
2685   gboolean ret = FALSE;
2686   GstVideoInterlaceMode interlace_mode;
2687
2688   g_return_val_if_fail (width != NULL, FALSE);
2689   g_return_val_if_fail (height != NULL, FALSE);
2690
2691   GST_LOG_OBJECT (v4l2object->element,
2692       "getting nearest size to %dx%d with format %" GST_FOURCC_FORMAT,
2693       *width, *height, GST_FOURCC_ARGS (pixelformat));
2694
2695   memset (&fmt, 0, sizeof (struct v4l2_format));
2696
2697   /* get size delimiters */
2698   memset (&fmt, 0, sizeof (fmt));
2699   fmt.type = v4l2object->type;
2700   fmt.fmt.pix.width = *width;
2701   fmt.fmt.pix.height = *height;
2702   fmt.fmt.pix.pixelformat = pixelformat;
2703   fmt.fmt.pix.field = V4L2_FIELD_ANY;
2704
2705   if (gst_v4l2_object_try_fmt (v4l2object, &fmt) < 0)
2706     goto error;
2707
2708   GST_LOG_OBJECT (v4l2object->element,
2709       "got nearest size %dx%d", fmt.fmt.pix.width, fmt.fmt.pix.height);
2710
2711   *width = fmt.fmt.pix.width;
2712   *height = fmt.fmt.pix.height;
2713
2714   if (!gst_v4l2_object_get_interlace_mode (fmt.fmt.pix.field, &interlace_mode)) {
2715     GST_WARNING_OBJECT (v4l2object->element,
2716         "Unsupported field type for %" GST_FOURCC_FORMAT "@%ux%u: %u",
2717         GST_FOURCC_ARGS (pixelformat), *width, *height, fmt.fmt.pix.field);
2718     goto error;
2719   }
2720
2721   ret = TRUE;
2722
2723 error:
2724   if (!ret) {
2725     GST_WARNING_OBJECT (v4l2object->element,
2726         "Unable to try format: %s", g_strerror (errno));
2727   }
2728
2729   return ret;
2730 }
2731
2732 static gboolean
2733 gst_v4l2_object_setup_pool (GstV4l2Object * v4l2object, GstCaps * caps)
2734 {
2735   GstV4l2IOMode mode;
2736
2737   GST_DEBUG_OBJECT (v4l2object->element, "initializing the %s system",
2738       V4L2_TYPE_IS_OUTPUT (v4l2object->type) ? "output" : "capture");
2739
2740   GST_V4L2_CHECK_OPEN (v4l2object);
2741   GST_V4L2_CHECK_NOT_ACTIVE (v4l2object);
2742
2743   /* find transport */
2744   mode = v4l2object->req_mode;
2745
2746   if (v4l2object->vcap.capabilities & V4L2_CAP_READWRITE) {
2747     if (v4l2object->req_mode == GST_V4L2_IO_AUTO)
2748       mode = GST_V4L2_IO_RW;
2749   } else if (v4l2object->req_mode == GST_V4L2_IO_RW)
2750     goto method_not_supported;
2751
2752   if (v4l2object->vcap.capabilities & V4L2_CAP_STREAMING) {
2753     if (v4l2object->req_mode == GST_V4L2_IO_AUTO)
2754       mode = GST_V4L2_IO_MMAP;
2755   } else if (v4l2object->req_mode == GST_V4L2_IO_MMAP)
2756     goto method_not_supported;
2757
2758   /* if still no transport selected, error out */
2759   if (mode == GST_V4L2_IO_AUTO)
2760     goto no_supported_capture_method;
2761
2762   GST_INFO_OBJECT (v4l2object->element, "accessing buffers via mode %d", mode);
2763   v4l2object->mode = mode;
2764
2765   /* If min_buffers is not set, the driver either does not support the control or
2766      it has not been asked yet via propose_allocation/decide_allocation. */
2767   if (!v4l2object->min_buffers)
2768     gst_v4l2_get_driver_min_buffers (v4l2object);
2769
2770   /* Map the buffers */
2771   GST_LOG_OBJECT (v4l2object->element, "initiating buffer pool");
2772
2773   if (!(v4l2object->pool = gst_v4l2_buffer_pool_new (v4l2object, caps)))
2774     goto buffer_pool_new_failed;
2775
2776   GST_V4L2_SET_ACTIVE (v4l2object);
2777
2778   return TRUE;
2779
2780   /* ERRORS */
2781 buffer_pool_new_failed:
2782   {
2783     GST_ELEMENT_ERROR (v4l2object->element, RESOURCE, READ,
2784         (_("Could not map buffers from device '%s'"),
2785             v4l2object->videodev),
2786         ("Failed to create buffer pool: %s", g_strerror (errno)));
2787     return FALSE;
2788   }
2789 method_not_supported:
2790   {
2791     GST_ELEMENT_ERROR (v4l2object->element, RESOURCE, READ,
2792         (_("The driver of device '%s' does not support the IO method %d"),
2793             v4l2object->videodev, mode), (NULL));
2794     return FALSE;
2795   }
2796 no_supported_capture_method:
2797   {
2798     GST_ELEMENT_ERROR (v4l2object->element, RESOURCE, READ,
2799         (_("The driver of device '%s' does not support any known IO "
2800                 "method."), v4l2object->videodev), (NULL));
2801     return FALSE;
2802   }
2803 }
2804
2805 static void
2806 gst_v4l2_object_set_stride (GstVideoInfo * info, GstVideoAlignment * align,
2807     gint plane, gint stride)
2808 {
2809   const GstVideoFormatInfo *finfo = info->finfo;
2810
2811   if (GST_VIDEO_FORMAT_INFO_IS_TILED (finfo)) {
2812     gint x_tiles, y_tiles, ws, hs, tile_height, padded_height;
2813
2814
2815     ws = GST_VIDEO_FORMAT_INFO_TILE_WS (finfo);
2816     hs = GST_VIDEO_FORMAT_INFO_TILE_HS (finfo);
2817     tile_height = 1 << hs;
2818
2819     padded_height = GST_VIDEO_FORMAT_INFO_SCALE_HEIGHT (finfo, plane,
2820         info->height + align->padding_top + align->padding_bottom);
2821     padded_height = GST_ROUND_UP_N (padded_height, tile_height);
2822
2823     x_tiles = stride >> ws;
2824     y_tiles = padded_height >> hs;
2825     info->stride[plane] = GST_VIDEO_TILE_MAKE_STRIDE (x_tiles, y_tiles);
2826   } else {
2827     info->stride[plane] = stride;
2828   }
2829 }
2830
2831 static void
2832 gst_v4l2_object_extrapolate_info (GstV4l2Object * v4l2object,
2833     GstVideoInfo * info, GstVideoAlignment * align, gint stride)
2834 {
2835   const GstVideoFormatInfo *finfo = info->finfo;
2836   gint i, estride, padded_height;
2837   gsize offs = 0;
2838
2839   g_return_if_fail (v4l2object->n_v4l2_planes == 1);
2840
2841   padded_height = info->height + align->padding_top + align->padding_bottom;
2842
2843   for (i = 0; i < finfo->n_planes; i++) {
2844     estride = gst_v4l2_object_extrapolate_stride (finfo, i, stride);
2845
2846     gst_v4l2_object_set_stride (info, align, i, estride);
2847
2848     info->offset[i] = offs;
2849     offs += estride *
2850         GST_VIDEO_FORMAT_INFO_SCALE_HEIGHT (finfo, i, padded_height);
2851
2852     GST_DEBUG_OBJECT (v4l2object->element,
2853         "Extrapolated for plane %d with base stride %d: "
2854         "stride %d, offset %" G_GSIZE_FORMAT, i, stride, info->stride[i],
2855         info->offset[i]);
2856   }
2857 }
2858
2859 static void
2860 gst_v4l2_object_save_format (GstV4l2Object * v4l2object,
2861     struct v4l2_fmtdesc *fmtdesc, struct v4l2_format *format,
2862     GstVideoInfo * info, GstVideoAlignment * align)
2863 {
2864   const GstVideoFormatInfo *finfo = info->finfo;
2865   gboolean standard_stride = TRUE;
2866   gint stride, padded_width, padded_height, i;
2867
2868   if (GST_VIDEO_INFO_FORMAT (info) == GST_VIDEO_FORMAT_ENCODED) {
2869     v4l2object->n_v4l2_planes = 1;
2870     info->size = format->fmt.pix.sizeimage;
2871     goto store_info;
2872   }
2873
2874   /* adjust right padding */
2875   if (V4L2_TYPE_IS_MULTIPLANAR (v4l2object->type))
2876     stride = format->fmt.pix_mp.plane_fmt[0].bytesperline;
2877   else
2878     stride = format->fmt.pix.bytesperline;
2879
2880   padded_width = stride / GST_VIDEO_FORMAT_INFO_PSTRIDE (finfo, 0);
2881
2882   if (padded_width < format->fmt.pix.width)
2883     GST_WARNING_OBJECT (v4l2object->element,
2884         "Driver bug detected, stride is too small for the width");
2885
2886   align->padding_right = padded_width - info->width - align->padding_left;
2887
2888   /* adjust bottom padding */
2889   padded_height = format->fmt.pix.height;
2890
2891   if (GST_VIDEO_FORMAT_INFO_IS_TILED (finfo)) {
2892     guint hs, tile_height;
2893
2894     hs = GST_VIDEO_FORMAT_INFO_TILE_HS (finfo);
2895     tile_height = 1 << hs;
2896
2897     padded_height = GST_ROUND_UP_N (padded_height, tile_height);
2898   }
2899
2900   align->padding_bottom = padded_height - info->height - align->padding_top;
2901
2902   /* setup the strides and offset */
2903   if (V4L2_TYPE_IS_MULTIPLANAR (v4l2object->type)) {
2904     struct v4l2_pix_format_mplane *pix_mp = &format->fmt.pix_mp;
2905
2906     /* figure out the frame layout */
2907     v4l2object->n_v4l2_planes = MAX (1, pix_mp->num_planes);
2908     info->size = 0;
2909     for (i = 0; i < v4l2object->n_v4l2_planes; i++) {
2910       stride = pix_mp->plane_fmt[i].bytesperline;
2911
2912       if (info->stride[i] != stride)
2913         standard_stride = FALSE;
2914
2915       gst_v4l2_object_set_stride (info, align, i, stride);
2916       info->offset[i] = info->size;
2917       info->size += pix_mp->plane_fmt[i].sizeimage;
2918     }
2919
2920     /* Extrapolate stride if planar format are being set in 1 v4l2 plane */
2921     if (v4l2object->n_v4l2_planes < finfo->n_planes) {
2922       stride = format->fmt.pix_mp.plane_fmt[0].bytesperline;
2923       gst_v4l2_object_extrapolate_info (v4l2object, info, align, stride);
2924     }
2925   } else {
2926     /* only one plane in non-MPLANE mode */
2927     v4l2object->n_v4l2_planes = 1;
2928     info->size = format->fmt.pix.sizeimage;
2929     stride = format->fmt.pix.bytesperline;
2930
2931     if (info->stride[0] != stride)
2932       standard_stride = FALSE;
2933
2934     gst_v4l2_object_extrapolate_info (v4l2object, info, align, stride);
2935   }
2936
2937   /* adjust the offset to take into account left and top */
2938   if (GST_VIDEO_FORMAT_INFO_IS_TILED (finfo)) {
2939     if ((align->padding_left + align->padding_top) > 0)
2940       GST_WARNING_OBJECT (v4l2object->element,
2941           "Left and top padding is not permitted for tiled formats");
2942   } else {
2943     for (i = 0; i < finfo->n_planes; i++) {
2944       gint vedge, hedge;
2945
2946       /* FIXME we assume plane as component as this is true for all supported
2947        * format we support. */
2948
2949       hedge = GST_VIDEO_FORMAT_INFO_SCALE_WIDTH (finfo, i, align->padding_left);
2950       vedge = GST_VIDEO_FORMAT_INFO_SCALE_HEIGHT (finfo, i, align->padding_top);
2951
2952       info->offset[i] += (vedge * info->stride[i]) +
2953           (hedge * GST_VIDEO_INFO_COMP_PSTRIDE (info, i));
2954     }
2955   }
2956
2957 store_info:
2958   GST_DEBUG_OBJECT (v4l2object->element, "Got sizeimage %" G_GSIZE_FORMAT,
2959       info->size);
2960
2961   /* to avoid copies we need video meta if top or left padding */
2962   v4l2object->need_video_meta =
2963       ((align->padding_top + align->padding_left) != 0);
2964
2965   /* ... or if stride is non "standard" */
2966   if (!standard_stride)
2967     v4l2object->need_video_meta = TRUE;
2968
2969   /* ... or also video meta if we use multiple, non-contiguous, planes */
2970   if (v4l2object->n_v4l2_planes > 1)
2971     v4l2object->need_video_meta = TRUE;
2972
2973   v4l2object->info = *info;
2974   v4l2object->align = *align;
2975   v4l2object->format = *format;
2976   v4l2object->fmtdesc = fmtdesc;
2977
2978   /* if we have a framerate pre-calculate duration */
2979   if (info->fps_n > 0 && info->fps_d > 0) {
2980     v4l2object->duration = gst_util_uint64_scale_int (GST_SECOND, info->fps_d,
2981         info->fps_n);
2982   } else {
2983     v4l2object->duration = GST_CLOCK_TIME_NONE;
2984   }
2985 }
2986
2987 gint
2988 gst_v4l2_object_extrapolate_stride (const GstVideoFormatInfo * finfo,
2989     gint plane, gint stride)
2990 {
2991   gint estride;
2992
2993   switch (finfo->format) {
2994     case GST_VIDEO_FORMAT_NV12:
2995     case GST_VIDEO_FORMAT_NV12_64Z32:
2996     case GST_VIDEO_FORMAT_NV21:
2997     case GST_VIDEO_FORMAT_NV16:
2998     case GST_VIDEO_FORMAT_NV61:
2999     case GST_VIDEO_FORMAT_NV24:
3000       estride = (plane == 0 ? 1 : 2) *
3001           GST_VIDEO_FORMAT_INFO_SCALE_WIDTH (finfo, plane, stride);
3002       break;
3003     default:
3004       estride = GST_VIDEO_FORMAT_INFO_SCALE_WIDTH (finfo, plane, stride);
3005       break;
3006   }
3007
3008   return estride;
3009 }
3010
3011 static gboolean
3012 gst_v4l2_object_set_format_full (GstV4l2Object * v4l2object, GstCaps * caps,
3013     gboolean try_only)
3014 {
3015   gint fd = v4l2object->video_fd;
3016   struct v4l2_format format;
3017   struct v4l2_streamparm streamparm;
3018   enum v4l2_field field;
3019   guint32 pixelformat;
3020   struct v4l2_fmtdesc *fmtdesc;
3021   GstVideoInfo info;
3022   GstVideoAlignment align;
3023   gint width, height, fps_n, fps_d;
3024   gint n_v4l_planes;
3025   gint i = 0;
3026   gboolean is_mplane;
3027   enum v4l2_colorspace colorspace = 0;
3028   enum v4l2_quantization range = 0;
3029   enum v4l2_ycbcr_encoding matrix = 0;
3030   enum v4l2_xfer_func transfer = 0;
3031
3032   GST_V4L2_CHECK_OPEN (v4l2object);
3033   if (!try_only)
3034     GST_V4L2_CHECK_NOT_ACTIVE (v4l2object);
3035
3036   is_mplane = V4L2_TYPE_IS_MULTIPLANAR (v4l2object->type);
3037
3038   gst_video_info_init (&info);
3039   gst_video_alignment_reset (&align);
3040
3041   if (!gst_v4l2_object_get_caps_info (v4l2object, caps, &fmtdesc, &info))
3042     goto invalid_caps;
3043
3044   pixelformat = fmtdesc->pixelformat;
3045   width = GST_VIDEO_INFO_WIDTH (&info);
3046   height = GST_VIDEO_INFO_HEIGHT (&info);
3047   fps_n = GST_VIDEO_INFO_FPS_N (&info);
3048   fps_d = GST_VIDEO_INFO_FPS_D (&info);
3049
3050   /* if encoded format (GST_VIDEO_INFO_N_PLANES return 0)
3051    * or if contiguous is prefered */
3052   n_v4l_planes = GST_VIDEO_INFO_N_PLANES (&info);
3053   if (!n_v4l_planes || !v4l2object->prefered_non_contiguous)
3054     n_v4l_planes = 1;
3055
3056   if (GST_VIDEO_INFO_IS_INTERLACED (&info)) {
3057     GST_DEBUG_OBJECT (v4l2object->element, "interlaced video");
3058     /* ideally we would differentiate between types of interlaced video
3059      * but there is not sufficient information in the caps..
3060      */
3061     field = V4L2_FIELD_INTERLACED;
3062   } else {
3063     GST_DEBUG_OBJECT (v4l2object->element, "progressive video");
3064     field = V4L2_FIELD_NONE;
3065   }
3066
3067   if (V4L2_TYPE_IS_OUTPUT (v4l2object->type)) {
3068     /* We first pick th main colorspace from the primaries */
3069     switch (info.colorimetry.primaries) {
3070       case GST_VIDEO_COLOR_PRIMARIES_BT709:
3071         /* There is two colorspaces using these primaries, use the range to
3072          * differentiate */
3073         if (info.colorimetry.range == GST_VIDEO_COLOR_RANGE_16_235)
3074           colorspace = V4L2_COLORSPACE_REC709;
3075         else
3076           colorspace = V4L2_COLORSPACE_SRGB;
3077         break;
3078       case GST_VIDEO_COLOR_PRIMARIES_BT470M:
3079         colorspace = V4L2_COLORSPACE_470_SYSTEM_M;
3080         break;
3081       case GST_VIDEO_COLOR_PRIMARIES_BT470BG:
3082         colorspace = V4L2_COLORSPACE_470_SYSTEM_BG;
3083         break;
3084       case GST_VIDEO_COLOR_PRIMARIES_SMPTE170M:
3085         colorspace = V4L2_COLORSPACE_SMPTE170M;
3086         break;
3087       case GST_VIDEO_COLOR_PRIMARIES_SMPTE240M:
3088         colorspace = V4L2_COLORSPACE_SMPTE240M;
3089         break;
3090
3091       case GST_VIDEO_COLOR_PRIMARIES_FILM:
3092       case GST_VIDEO_COLOR_PRIMARIES_UNKNOWN:
3093         /* We don't know, we will guess */
3094         break;
3095
3096       default:
3097         GST_WARNING_OBJECT (v4l2object->element,
3098             "Unknown colorimetry primaries %d", info.colorimetry.primaries);
3099         break;
3100     }
3101
3102     switch (info.colorimetry.range) {
3103       case GST_VIDEO_COLOR_RANGE_0_255:
3104         range = V4L2_QUANTIZATION_FULL_RANGE;
3105         break;
3106       case GST_VIDEO_COLOR_RANGE_16_235:
3107         range = V4L2_QUANTIZATION_LIM_RANGE;
3108         break;
3109       case GST_VIDEO_COLOR_RANGE_UNKNOWN:
3110         /* We let the driver pick a default one */
3111         break;
3112       default:
3113         GST_WARNING_OBJECT (v4l2object->element,
3114             "Unknown colorimetry range %d", info.colorimetry.range);
3115         break;
3116     }
3117
3118     switch (info.colorimetry.matrix) {
3119       case GST_VIDEO_COLOR_MATRIX_RGB:
3120         /* Unspecified, leave to default */
3121         break;
3122         /* FCC is about the same as BT601 with less digit */
3123       case GST_VIDEO_COLOR_MATRIX_FCC:
3124       case GST_VIDEO_COLOR_MATRIX_BT601:
3125         matrix = V4L2_YCBCR_ENC_601;
3126         break;
3127       case GST_VIDEO_COLOR_MATRIX_BT709:
3128         matrix = V4L2_YCBCR_ENC_709;
3129         break;
3130       case GST_VIDEO_COLOR_MATRIX_SMPTE240M:
3131         matrix = V4L2_YCBCR_ENC_SMPTE240M;
3132         break;
3133       case GST_VIDEO_COLOR_MATRIX_BT2020:
3134         matrix = V4L2_YCBCR_ENC_BT2020;
3135         break;
3136       case GST_VIDEO_COLOR_MATRIX_UNKNOWN:
3137         /* We let the driver pick a default one */
3138         break;
3139       default:
3140         GST_WARNING_OBJECT (v4l2object->element,
3141             "Unknown colorimetry matrix %d", info.colorimetry.matrix);
3142         break;
3143     }
3144
3145     switch (info.colorimetry.transfer) {
3146       case GST_VIDEO_TRANSFER_GAMMA18:
3147       case GST_VIDEO_TRANSFER_GAMMA20:
3148       case GST_VIDEO_TRANSFER_GAMMA22:
3149       case GST_VIDEO_TRANSFER_GAMMA28:
3150         GST_WARNING_OBJECT (v4l2object->element,
3151             "GAMMA 18, 20, 22, 28 transfer functions not supported");
3152         /* fallthrough */
3153       case GST_VIDEO_TRANSFER_GAMMA10:
3154         transfer = V4L2_XFER_FUNC_NONE;
3155         break;
3156       case GST_VIDEO_TRANSFER_BT709:
3157         transfer = V4L2_XFER_FUNC_709;
3158         break;
3159       case GST_VIDEO_TRANSFER_SMPTE240M:
3160         transfer = V4L2_XFER_FUNC_SMPTE240M;
3161         break;
3162       case GST_VIDEO_TRANSFER_SRGB:
3163         transfer = V4L2_XFER_FUNC_SRGB;
3164         break;
3165       case GST_VIDEO_TRANSFER_LOG100:
3166       case GST_VIDEO_TRANSFER_LOG316:
3167         GST_WARNING_OBJECT (v4l2object->element,
3168             "LOG 100, 316 transfer functions not supported");
3169         /* FIXME No known sensible default, maybe AdobeRGB ? */
3170         break;
3171       case GST_VIDEO_TRANSFER_UNKNOWN:
3172         /* We let the driver pick a default one */
3173         break;
3174       default:
3175         GST_WARNING_OBJECT (v4l2object->element,
3176             "Unknown colorimetry tranfer %d", info.colorimetry.transfer);
3177         break;
3178     }
3179
3180     if (colorspace == 0) {
3181       /* Try to guess colorspace according to pixelformat and size */
3182       if (GST_VIDEO_INFO_IS_YUV (&info)) {
3183         /* SD streams likely use SMPTE170M and HD streams REC709 */
3184         if (width <= 720 && height <= 576)
3185           colorspace = V4L2_COLORSPACE_SMPTE170M;
3186         else
3187           colorspace = V4L2_COLORSPACE_REC709;
3188       } else if (GST_VIDEO_INFO_IS_RGB (&info)) {
3189         colorspace = V4L2_COLORSPACE_SRGB;
3190         transfer = V4L2_XFER_FUNC_NONE;
3191       }
3192     }
3193   }
3194
3195   GST_DEBUG_OBJECT (v4l2object->element, "Desired format %dx%d, format "
3196       "%" GST_FOURCC_FORMAT " stride: %d", width, height,
3197       GST_FOURCC_ARGS (pixelformat), GST_VIDEO_INFO_PLANE_STRIDE (&info, 0));
3198
3199   memset (&format, 0x00, sizeof (struct v4l2_format));
3200   format.type = v4l2object->type;
3201
3202   if (is_mplane) {
3203     format.type = v4l2object->type;
3204     format.fmt.pix_mp.pixelformat = pixelformat;
3205     format.fmt.pix_mp.width = width;
3206     format.fmt.pix_mp.height = height;
3207     format.fmt.pix_mp.field = field;
3208     format.fmt.pix_mp.num_planes = n_v4l_planes;
3209
3210     /* try to ask our prefered stride but it's not a failure if not
3211      * accepted */
3212     for (i = 0; i < n_v4l_planes; i++) {
3213       gint stride = GST_VIDEO_INFO_PLANE_STRIDE (&info, i);
3214
3215       if (GST_VIDEO_FORMAT_INFO_IS_TILED (info.finfo))
3216         stride = GST_VIDEO_TILE_X_TILES (stride) <<
3217             GST_VIDEO_FORMAT_INFO_TILE_WS (info.finfo);
3218
3219       format.fmt.pix_mp.plane_fmt[i].bytesperline = stride;
3220     }
3221
3222     if (GST_VIDEO_INFO_FORMAT (&info) == GST_VIDEO_FORMAT_ENCODED)
3223       format.fmt.pix_mp.plane_fmt[0].sizeimage = ENCODED_BUFFER_SIZE;
3224   } else {
3225     gint stride = GST_VIDEO_INFO_PLANE_STRIDE (&info, 0);
3226
3227     format.type = v4l2object->type;
3228     format.fmt.pix.width = width;
3229     format.fmt.pix.height = height;
3230     format.fmt.pix.pixelformat = pixelformat;
3231     format.fmt.pix.field = field;
3232
3233     if (GST_VIDEO_FORMAT_INFO_IS_TILED (info.finfo))
3234       stride = GST_VIDEO_TILE_X_TILES (stride) <<
3235           GST_VIDEO_FORMAT_INFO_TILE_WS (info.finfo);
3236
3237     /* try to ask our prefered stride */
3238     format.fmt.pix.bytesperline = stride;
3239
3240     if (GST_VIDEO_INFO_FORMAT (&info) == GST_VIDEO_FORMAT_ENCODED)
3241       format.fmt.pix.sizeimage = ENCODED_BUFFER_SIZE;
3242   }
3243
3244   GST_DEBUG_OBJECT (v4l2object->element, "Desired format is %dx%d, format "
3245       "%" GST_FOURCC_FORMAT ", nb planes %d", format.fmt.pix.width,
3246       format.fmt.pix_mp.height,
3247       GST_FOURCC_ARGS (format.fmt.pix.pixelformat),
3248       is_mplane ? format.fmt.pix_mp.num_planes : 1);
3249
3250 #ifndef GST_DISABLE_GST_DEBUG
3251   if (is_mplane) {
3252     for (i = 0; i < format.fmt.pix_mp.num_planes; i++)
3253       GST_DEBUG_OBJECT (v4l2object->element, "  stride %d",
3254           format.fmt.pix_mp.plane_fmt[i].bytesperline);
3255   } else {
3256     GST_DEBUG_OBJECT (v4l2object->element, "  stride %d",
3257         format.fmt.pix.bytesperline);
3258   }
3259 #endif
3260
3261   if (V4L2_TYPE_IS_OUTPUT (v4l2object->type)) {
3262     if (is_mplane) {
3263       format.fmt.pix_mp.colorspace = colorspace;
3264       format.fmt.pix_mp.quantization = range;
3265       format.fmt.pix_mp.ycbcr_enc = matrix;
3266       format.fmt.pix_mp.xfer_func = transfer;
3267     } else {
3268       format.fmt.pix.colorspace = colorspace;
3269       format.fmt.pix.quantization = range;
3270       format.fmt.pix.ycbcr_enc = matrix;
3271       format.fmt.pix.xfer_func = transfer;
3272     }
3273
3274     GST_DEBUG_OBJECT (v4l2object->element, "Desired colorspace is %d:%d:%d:%d",
3275         colorspace, range, matrix, transfer);
3276   }
3277
3278   if (try_only) {
3279     if (v4l2_ioctl (fd, VIDIOC_TRY_FMT, &format) < 0)
3280       goto try_fmt_failed;
3281   } else {
3282     if (v4l2_ioctl (fd, VIDIOC_S_FMT, &format) < 0)
3283       goto set_fmt_failed;
3284   }
3285
3286   GST_DEBUG_OBJECT (v4l2object->element, "Got format of %dx%d, format "
3287       "%" GST_FOURCC_FORMAT ", nb planes %d, colorspace %d",
3288       format.fmt.pix.width, format.fmt.pix_mp.height,
3289       GST_FOURCC_ARGS (format.fmt.pix.pixelformat),
3290       is_mplane ? format.fmt.pix_mp.num_planes : 1,
3291       is_mplane ? format.fmt.pix_mp.colorspace : format.fmt.pix.colorspace);
3292
3293 #ifndef GST_DISABLE_GST_DEBUG
3294   if (is_mplane) {
3295     for (i = 0; i < format.fmt.pix_mp.num_planes; i++)
3296       GST_DEBUG_OBJECT (v4l2object->element, "  stride %d, sizeimage %d",
3297           format.fmt.pix_mp.plane_fmt[i].bytesperline,
3298           format.fmt.pix_mp.plane_fmt[i].sizeimage);
3299   } else {
3300     GST_DEBUG_OBJECT (v4l2object->element, "  stride %d, sizeimage %d",
3301         format.fmt.pix.bytesperline, format.fmt.pix.sizeimage);
3302   }
3303 #endif
3304
3305   if (format.fmt.pix.pixelformat != pixelformat)
3306     goto invalid_pixelformat;
3307
3308   /* Only negotiate size with raw data.
3309    * For some codecs the dimensions are *not* in the bitstream, IIRC VC1
3310    * in ASF mode for example, there is also not reason for a driver to
3311    * change the size. */
3312   if (info.finfo->format != GST_VIDEO_FORMAT_ENCODED) {
3313     /* We can crop larger images */
3314     if (format.fmt.pix.width < width || format.fmt.pix.height < height)
3315       goto invalid_dimensions;
3316
3317     /* Note, this will be adjusted if upstream has non-centered cropping. */
3318     align.padding_top = 0;
3319     align.padding_bottom = format.fmt.pix.height - height;
3320     align.padding_left = 0;
3321     align.padding_right = format.fmt.pix.width - width;
3322   }
3323
3324   if (is_mplane && format.fmt.pix_mp.num_planes != n_v4l_planes)
3325     goto invalid_planes;
3326
3327   if (try_only)                 /* good enough for trying only */
3328     return TRUE;
3329
3330   if (GST_VIDEO_INFO_HAS_ALPHA (&info)) {
3331     struct v4l2_control ctl = { 0, };
3332     ctl.id = V4L2_CID_ALPHA_COMPONENT;
3333     ctl.value = 0xff;
3334
3335     if (v4l2_ioctl (fd, VIDIOC_S_CTRL, &ctl) < 0)
3336       GST_WARNING_OBJECT (v4l2object->element,
3337           "Failed to set alpha component value");
3338   }
3339
3340   /* Is there a reason we require the caller to always specify a framerate? */
3341   GST_DEBUG_OBJECT (v4l2object->element, "Desired framerate: %u/%u", fps_n,
3342       fps_d);
3343
3344   memset (&streamparm, 0x00, sizeof (struct v4l2_streamparm));
3345   streamparm.type = v4l2object->type;
3346
3347   if (v4l2_ioctl (fd, VIDIOC_G_PARM, &streamparm) < 0)
3348     goto get_parm_failed;
3349
3350   GST_VIDEO_INFO_FPS_N (&info) =
3351       streamparm.parm.capture.timeperframe.denominator;
3352   GST_VIDEO_INFO_FPS_D (&info) = streamparm.parm.capture.timeperframe.numerator;
3353
3354   if (v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE
3355       || v4l2object->type == V4L2_BUF_TYPE_VIDEO_CAPTURE_MPLANE) {
3356     GST_DEBUG_OBJECT (v4l2object->element, "Got framerate: %u/%u",
3357         streamparm.parm.capture.timeperframe.denominator,
3358         streamparm.parm.capture.timeperframe.numerator);
3359
3360     /* We used to skip frame rate setup if the camera was already setup
3361      * with the requested frame rate. This breaks some cameras though,
3362      * causing them to not output data (several models of Thinkpad cameras
3363      * have this problem at least).
3364      * So, don't skip. */
3365     GST_LOG_OBJECT (v4l2object->element, "Setting framerate to %u/%u", fps_n,
3366         fps_d);
3367     /* We want to change the frame rate, so check whether we can. Some cheap USB
3368      * cameras don't have the capability */
3369     if ((streamparm.parm.capture.capability & V4L2_CAP_TIMEPERFRAME) == 0) {
3370       GST_DEBUG_OBJECT (v4l2object->element,
3371           "Not setting framerate (not supported)");
3372       goto done;
3373     }
3374
3375     /* Note: V4L2 wants the frame interval, we have the frame rate */
3376     streamparm.parm.capture.timeperframe.numerator = fps_d;
3377     streamparm.parm.capture.timeperframe.denominator = fps_n;
3378
3379     /* some cheap USB cam's won't accept any change */
3380     if (v4l2_ioctl (fd, VIDIOC_S_PARM, &streamparm) < 0)
3381       goto set_parm_failed;
3382
3383     if (streamparm.parm.capture.timeperframe.numerator > 0 &&
3384         streamparm.parm.capture.timeperframe.denominator > 0) {
3385       /* get new values */
3386       fps_d = streamparm.parm.capture.timeperframe.numerator;
3387       fps_n = streamparm.parm.capture.timeperframe.denominator;
3388
3389       GST_INFO_OBJECT (v4l2object->element, "Set framerate to %u/%u", fps_n,
3390           fps_d);
3391     } else {
3392       /* fix v4l2 capture driver to provide framerate values */
3393       GST_WARNING_OBJECT (v4l2object->element,
3394           "Reuse caps framerate %u/%u - fix v4l2 capture driver", fps_n, fps_d);
3395     }
3396
3397     GST_VIDEO_INFO_FPS_N (&info) = fps_n;
3398     GST_VIDEO_INFO_FPS_D (&info) = fps_d;
3399   }
3400
3401 done:
3402   /* add boolean return, so we can fail on drivers bugs */
3403   gst_v4l2_object_save_format (v4l2object, fmtdesc, &format, &info, &align);
3404
3405   /* now configure the pool */
3406   if (!gst_v4l2_object_setup_pool (v4l2object, caps))
3407     goto pool_failed;
3408
3409   return TRUE;
3410
3411   /* ERRORS */
3412 invalid_caps:
3413   {
3414     GST_DEBUG_OBJECT (v4l2object->element, "can't parse caps %" GST_PTR_FORMAT,
3415         caps);
3416     return FALSE;
3417   }
3418 try_fmt_failed:
3419   {
3420     if (errno == EBUSY) {
3421       GST_ELEMENT_WARNING (v4l2object->element, RESOURCE, BUSY,
3422           (_("Device '%s' is busy"), v4l2object->videodev),
3423           ("Call to TRY_FMT failed for %" GST_FOURCC_FORMAT " @ %dx%d: %s",
3424               GST_FOURCC_ARGS (pixelformat), width, height,
3425               g_strerror (errno)));
3426     }
3427     return FALSE;
3428   }
3429 set_fmt_failed:
3430   {
3431     if (errno == EBUSY) {
3432       GST_ELEMENT_ERROR (v4l2object->element, RESOURCE, BUSY,
3433           (_("Device '%s' is busy"), v4l2object->videodev),
3434           ("Call to S_FMT failed for %" GST_FOURCC_FORMAT " @ %dx%d: %s",
3435               GST_FOURCC_ARGS (pixelformat), width, height,
3436               g_strerror (errno)));
3437     } else {
3438       GST_ELEMENT_ERROR (v4l2object->element, RESOURCE, SETTINGS,
3439           (_("Device '%s' cannot capture at %dx%d"),
3440               v4l2object->videodev, width, height),
3441           ("Call to S_FMT failed for %" GST_FOURCC_FORMAT " @ %dx%d: %s",
3442               GST_FOURCC_ARGS (pixelformat), width, height,
3443               g_strerror (errno)));
3444     }
3445     return FALSE;
3446   }
3447 invalid_dimensions:
3448   {
3449     if (!try_only) {
3450       GST_ELEMENT_ERROR (v4l2object->element, RESOURCE, SETTINGS,
3451           (_("Device '%s' cannot capture at %dx%d"),
3452               v4l2object->videodev, width, height),
3453           ("Tried to capture at %dx%d, but device returned size %dx%d",
3454               width, height, format.fmt.pix.width, format.fmt.pix.height));
3455     }
3456     return FALSE;
3457   }
3458 invalid_pixelformat:
3459   {
3460     if (!try_only) {
3461       GST_ELEMENT_ERROR (v4l2object->element, RESOURCE, SETTINGS,
3462           (_("Device '%s' cannot capture in the specified format"),
3463               v4l2object->videodev),
3464           ("Tried to capture in %" GST_FOURCC_FORMAT
3465               ", but device returned format" " %" GST_FOURCC_FORMAT,
3466               GST_FOURCC_ARGS (pixelformat),
3467               GST_FOURCC_ARGS (format.fmt.pix.pixelformat)));
3468     }
3469     return FALSE;
3470   }
3471 invalid_planes:
3472   {
3473     if (!try_only) {
3474       GST_ELEMENT_ERROR (v4l2object->element, RESOURCE, SETTINGS,
3475           (_("Device '%s' does support non-contiguous planes"),
3476               v4l2object->videodev),
3477           ("Device wants %d planes", format.fmt.pix_mp.num_planes));
3478     }
3479     return FALSE;
3480   }
3481 get_parm_failed:
3482   {
3483     /* it's possible that this call is not supported */
3484     if (errno != EINVAL && errno != ENOTTY) {
3485       GST_ELEMENT_WARNING (v4l2object->element, RESOURCE, SETTINGS,
3486           (_("Could not get parameters on device '%s'"),
3487               v4l2object->videodev), GST_ERROR_SYSTEM);
3488     }
3489     goto done;
3490   }
3491 set_parm_failed:
3492   {
3493     GST_ELEMENT_WARNING (v4l2object->element, RESOURCE, SETTINGS,
3494         (_("Video device did not accept new frame rate setting.")),
3495         GST_ERROR_SYSTEM);
3496     goto done;
3497   }
3498 pool_failed:
3499   {
3500     /* setup_pool already send the error */
3501     return FALSE;
3502   }
3503 }
3504
3505 gboolean
3506 gst_v4l2_object_set_format (GstV4l2Object * v4l2object, GstCaps * caps)
3507 {
3508   return gst_v4l2_object_set_format_full (v4l2object, caps, FALSE);
3509 }
3510
3511 gboolean
3512 gst_v4l2_object_try_format (GstV4l2Object * v4l2object, GstCaps * caps)
3513 {
3514   return gst_v4l2_object_set_format_full (v4l2object, caps, TRUE);
3515 }
3516
3517 /**
3518  * gst_v4l2_object_acquire_format:
3519  * @v4l2object the object
3520  * @info a GstVideoInfo to be filled
3521  *
3522  * Acquire the driver choosen format. This is useful in decoder or encoder elements where
3523  * the output format is choosen by the HW.
3524  *
3525  * Returns: %TRUE on success, %FALSE on failure.
3526  */
3527 gboolean
3528 gst_v4l2_object_acquire_format (GstV4l2Object * v4l2object, GstVideoInfo * info)
3529 {
3530   struct v4l2_fmtdesc *fmtdesc;
3531   struct v4l2_format fmt;
3532   struct v4l2_crop crop;
3533   GstVideoFormat format;
3534   guint width, height;
3535   GstVideoAlignment align;
3536
3537   gst_video_info_init (info);
3538   gst_video_alignment_reset (&align);
3539
3540   memset (&fmt, 0x00, sizeof (struct v4l2_format));
3541   fmt.type = v4l2object->type;
3542   if (v4l2_ioctl (v4l2object->video_fd, VIDIOC_G_FMT, &fmt) < 0)
3543     goto get_fmt_failed;
3544
3545   fmtdesc = gst_v4l2_object_get_format_from_fourcc (v4l2object,
3546       fmt.fmt.pix.pixelformat);
3547   if (fmtdesc == NULL)
3548     goto unsupported_format;
3549
3550   /* No need to care about mplane, the four first params are the same */
3551   format = gst_v4l2_object_v4l2fourcc_to_video_format (fmt.fmt.pix.pixelformat);
3552
3553   /* fails if we do no translate the fmt.pix.pixelformat to GstVideoFormat */
3554   if (format == GST_VIDEO_FORMAT_UNKNOWN)
3555     goto unsupported_format;
3556
3557   if (fmt.fmt.pix.width == 0 || fmt.fmt.pix.height == 0)
3558     goto invalid_dimensions;
3559
3560   width = fmt.fmt.pix.width;
3561   height = fmt.fmt.pix.height;
3562
3563   memset (&crop, 0, sizeof (struct v4l2_crop));
3564   crop.type = v4l2object->type;
3565   if (v4l2_ioctl (v4l2object->video_fd, VIDIOC_G_CROP, &crop) >= 0) {
3566     align.padding_left = crop.c.left;
3567     align.padding_top = crop.c.top;
3568     align.padding_right = width - crop.c.width - crop.c.left;
3569     align.padding_bottom = height - crop.c.height - crop.c.top;
3570     width = crop.c.width;
3571     height = crop.c.height;
3572   }
3573
3574   gst_video_info_set_format (info, format, width, height);
3575
3576   switch (fmt.fmt.pix.field) {
3577     case V4L2_FIELD_ANY:
3578     case V4L2_FIELD_NONE:
3579       info->interlace_mode = GST_VIDEO_INTERLACE_MODE_PROGRESSIVE;
3580       break;
3581     case V4L2_FIELD_INTERLACED:
3582     case V4L2_FIELD_INTERLACED_TB:
3583     case V4L2_FIELD_INTERLACED_BT:
3584       info->interlace_mode = GST_VIDEO_INTERLACE_MODE_INTERLEAVED;
3585       break;
3586     default:
3587       goto unsupported_field;
3588   }
3589
3590   gst_v4l2_object_save_format (v4l2object, fmtdesc, &fmt, info, &align);
3591
3592   /* Shall we setup the pool ? */
3593
3594   return TRUE;
3595
3596 get_fmt_failed:
3597   {
3598     GST_ELEMENT_WARNING (v4l2object->element, RESOURCE, SETTINGS,
3599         (_("Video device did not provide output format.")), GST_ERROR_SYSTEM);
3600     return FALSE;
3601   }
3602 invalid_dimensions:
3603   {
3604     GST_ELEMENT_WARNING (v4l2object->element, RESOURCE, SETTINGS,
3605         (_("Video device returned invalid dimensions.")),
3606         ("Expected non 0 dimensions, got %dx%d", fmt.fmt.pix.width,
3607             fmt.fmt.pix.height));
3608     return FALSE;
3609   }
3610 unsupported_field:
3611   {
3612     GST_ELEMENT_ERROR (v4l2object->element, RESOURCE, SETTINGS,
3613         (_("Video devices uses an unsupported interlacing method.")),
3614         ("V4L2 field type %d not supported", fmt.fmt.pix.field));
3615     return FALSE;
3616   }
3617 unsupported_format:
3618   {
3619     GST_ELEMENT_ERROR (v4l2object->element, RESOURCE, SETTINGS,
3620         (_("Video devices uses an unsupported pixel format.")),
3621         ("V4L2 format %" GST_FOURCC_FORMAT " not supported",
3622             GST_FOURCC_ARGS (fmt.fmt.pix.pixelformat)));
3623     return FALSE;
3624   }
3625 }
3626
3627 gboolean
3628 gst_v4l2_object_set_crop (GstV4l2Object * obj)
3629 {
3630   struct v4l2_crop crop = { 0 };
3631
3632   crop.type = obj->type;
3633   crop.c.left = obj->align.padding_left;
3634   crop.c.top = obj->align.padding_top;
3635   crop.c.width = obj->info.width;
3636   crop.c.height = obj->info.height;
3637
3638   if (obj->align.padding_left + obj->align.padding_top +
3639       obj->align.padding_right + obj->align.padding_bottom == 0) {
3640     GST_DEBUG_OBJECT (obj->element, "no cropping needed");
3641     return TRUE;
3642   }
3643
3644   GST_DEBUG_OBJECT (obj->element,
3645       "Desired cropping left %u, top %u, size %ux%u", crop.c.left, crop.c.top,
3646       crop.c.width, crop.c.height);
3647
3648   if (v4l2_ioctl (obj->video_fd, VIDIOC_S_CROP, &crop) < 0) {
3649     GST_WARNING_OBJECT (obj->element, "VIDIOC_S_CROP failed");
3650     return FALSE;
3651   }
3652
3653   if (v4l2_ioctl (obj->video_fd, VIDIOC_G_CROP, &crop) < 0) {
3654     GST_WARNING_OBJECT (obj->element, "VIDIOC_G_CROP failed");
3655     return FALSE;
3656   }
3657
3658   GST_DEBUG_OBJECT (obj->element,
3659       "Got cropping left %u, top %u, size %ux%u", crop.c.left, crop.c.top,
3660       crop.c.width, crop.c.height);
3661
3662   return TRUE;
3663 }
3664
3665 gboolean
3666 gst_v4l2_object_caps_equal (GstV4l2Object * v4l2object, GstCaps * caps)
3667 {
3668   GstStructure *config;
3669   GstCaps *oldcaps;
3670   gboolean ret;
3671
3672   if (!v4l2object->pool)
3673     return FALSE;
3674
3675   config = gst_buffer_pool_get_config (v4l2object->pool);
3676   gst_buffer_pool_config_get_params (config, &oldcaps, NULL, NULL, NULL);
3677
3678   ret = oldcaps && gst_caps_is_equal (caps, oldcaps);
3679
3680   gst_structure_free (config);
3681
3682   return ret;
3683 }
3684
3685 gboolean
3686 gst_v4l2_object_unlock (GstV4l2Object * v4l2object)
3687 {
3688   gboolean ret = TRUE;
3689
3690   GST_LOG_OBJECT (v4l2object->element, "start flushing");
3691
3692   if (v4l2object->pool && gst_buffer_pool_is_active (v4l2object->pool))
3693     gst_buffer_pool_set_flushing (v4l2object->pool, TRUE);
3694
3695   return ret;
3696 }
3697
3698 gboolean
3699 gst_v4l2_object_unlock_stop (GstV4l2Object * v4l2object)
3700 {
3701   gboolean ret = TRUE;
3702
3703   GST_LOG_OBJECT (v4l2object->element, "stop flushing");
3704
3705   if (v4l2object->pool && gst_buffer_pool_is_active (v4l2object->pool))
3706     gst_buffer_pool_set_flushing (v4l2object->pool, FALSE);
3707
3708   return ret;
3709 }
3710
3711 gboolean
3712 gst_v4l2_object_stop (GstV4l2Object * v4l2object)
3713 {
3714   GST_DEBUG_OBJECT (v4l2object->element, "stopping");
3715
3716   if (!GST_V4L2_IS_OPEN (v4l2object))
3717     goto done;
3718   if (!GST_V4L2_IS_ACTIVE (v4l2object))
3719     goto done;
3720
3721   if (v4l2object->pool) {
3722     GST_DEBUG_OBJECT (v4l2object->element, "deactivating pool");
3723     gst_buffer_pool_set_active (v4l2object->pool, FALSE);
3724     gst_object_unref (v4l2object->pool);
3725     v4l2object->pool = NULL;
3726   }
3727
3728   GST_V4L2_SET_INACTIVE (v4l2object);
3729
3730 done:
3731   return TRUE;
3732 }
3733
3734 GstCaps *
3735 gst_v4l2_object_probe_caps (GstV4l2Object * v4l2object, GstCaps * filter)
3736 {
3737   GstCaps *ret;
3738   GSList *walk;
3739   GSList *formats;
3740
3741   formats = gst_v4l2_object_get_format_list (v4l2object);
3742
3743   ret = gst_caps_new_empty ();
3744
3745   for (walk = formats; walk; walk = walk->next) {
3746     struct v4l2_fmtdesc *format;
3747     GstStructure *template;
3748
3749     format = (struct v4l2_fmtdesc *) walk->data;
3750
3751     template = gst_v4l2_object_v4l2fourcc_to_bare_struct (format->pixelformat);
3752
3753     if (template) {
3754       GstCaps *tmp;
3755
3756       tmp = gst_v4l2_object_probe_caps_for_format (v4l2object,
3757           format->pixelformat, template);
3758       if (tmp)
3759         gst_caps_append (ret, tmp);
3760
3761       gst_structure_free (template);
3762     } else {
3763       GST_DEBUG_OBJECT (v4l2object->element, "unknown format %u",
3764           format->pixelformat);
3765     }
3766   }
3767
3768   if (filter) {
3769     ret = gst_caps_intersect_full (filter, ret, GST_CAPS_INTERSECT_FIRST);
3770   } else {
3771     ret = gst_caps_ref (ret);
3772   }
3773
3774   return ret;
3775 }
3776
3777 GstCaps *
3778 gst_v4l2_object_get_caps (GstV4l2Object * v4l2object, GstCaps * filter)
3779 {
3780   GstCaps *ret;
3781
3782   if (v4l2object->probed_caps == NULL)
3783     v4l2object->probed_caps = gst_v4l2_object_probe_caps (v4l2object, NULL);
3784
3785   if (filter) {
3786     ret = gst_caps_intersect_full (filter, v4l2object->probed_caps,
3787         GST_CAPS_INTERSECT_FIRST);
3788   } else {
3789     ret = gst_caps_ref (v4l2object->probed_caps);
3790   }
3791
3792   GST_INFO_OBJECT (v4l2object->element, "probed caps: %" GST_PTR_FORMAT, ret);
3793   LOG_CAPS (v4l2object->element, ret);
3794
3795   return ret;
3796 }
3797
3798 gboolean
3799 gst_v4l2_object_decide_allocation (GstV4l2Object * obj, GstQuery * query)
3800 {
3801   GstCaps *caps;
3802   GstBufferPool *pool = NULL, *other_pool = NULL;
3803   GstStructure *config;
3804   guint size, min, max, own_min = 0;
3805   gboolean update;
3806   gboolean has_video_meta;
3807   gboolean can_share_own_pool, pushing_from_our_pool = FALSE;
3808   GstAllocator *allocator = NULL;
3809   GstAllocationParams params = { 0 };
3810
3811   GST_DEBUG_OBJECT (obj->element, "decide allocation");
3812
3813   g_return_val_if_fail (obj->type == V4L2_BUF_TYPE_VIDEO_CAPTURE ||
3814       obj->type == V4L2_BUF_TYPE_VIDEO_CAPTURE_MPLANE, FALSE);
3815
3816   gst_query_parse_allocation (query, &caps, NULL);
3817
3818   if (obj->pool == NULL) {
3819     if (!gst_v4l2_object_setup_pool (obj, caps))
3820       goto pool_failed;
3821   }
3822
3823   if (gst_query_get_n_allocation_params (query) > 0)
3824     gst_query_parse_nth_allocation_param (query, 0, &allocator, &params);
3825
3826   if (gst_query_get_n_allocation_pools (query) > 0) {
3827     gst_query_parse_nth_allocation_pool (query, 0, &pool, &size, &min, &max);
3828     update = TRUE;
3829   } else {
3830     pool = NULL;
3831     min = max = 0;
3832     size = 0;
3833     update = FALSE;
3834   }
3835
3836   GST_DEBUG_OBJECT (obj->element, "allocation: size:%u min:%u max:%u pool:%"
3837       GST_PTR_FORMAT, size, min, max, pool);
3838
3839   has_video_meta =
3840       gst_query_find_allocation_meta (query, GST_VIDEO_META_API_TYPE, NULL);
3841
3842   can_share_own_pool = (has_video_meta || !obj->need_video_meta);
3843
3844   gst_v4l2_get_driver_min_buffers (obj);
3845   /* We can't share our own pool, if it exceed V4L2 capacity */
3846   if (min + obj->min_buffers + 1 > VIDEO_MAX_FRAME)
3847     can_share_own_pool = FALSE;
3848
3849   /* select a pool */
3850   switch (obj->mode) {
3851     case GST_V4L2_IO_RW:
3852       if (pool) {
3853         /* in READ/WRITE mode, prefer a downstream pool because our own pool
3854          * doesn't help much, we have to write to it as well */
3855         GST_DEBUG_OBJECT (obj->element,
3856             "read/write mode: using downstream pool");
3857         /* use the bigest size, when we use our own pool we can't really do any
3858          * other size than what the hardware gives us but for downstream pools
3859          * we can try */
3860         size = MAX (size, obj->info.size);
3861       } else if (can_share_own_pool) {
3862         /* no downstream pool, use our own then */
3863         GST_DEBUG_OBJECT (obj->element,
3864             "read/write mode: no downstream pool, using our own");
3865         pool = gst_object_ref (obj->pool);
3866         size = obj->info.size;
3867         pushing_from_our_pool = TRUE;
3868       }
3869       break;
3870
3871     case GST_V4L2_IO_USERPTR:
3872     case GST_V4L2_IO_DMABUF_IMPORT:
3873       /* in importing mode, prefer our own pool, and pass the other pool to
3874        * our own, so it can serve itself */
3875       if (pool == NULL)
3876         goto no_downstream_pool;
3877       gst_v4l2_buffer_pool_set_other_pool (GST_V4L2_BUFFER_POOL (obj->pool),
3878           pool);
3879       other_pool = pool;
3880       gst_object_unref (pool);
3881       pool = gst_object_ref (obj->pool);
3882       size = obj->info.size;
3883       break;
3884
3885     case GST_V4L2_IO_MMAP:
3886     case GST_V4L2_IO_DMABUF:
3887       /* in streaming mode, prefer our own pool */
3888       /* Check if we can use it ... */
3889       if (can_share_own_pool) {
3890         if (pool)
3891           gst_object_unref (pool);
3892         pool = gst_object_ref (obj->pool);
3893         size = obj->info.size;
3894         GST_DEBUG_OBJECT (obj->element,
3895             "streaming mode: using our own pool %" GST_PTR_FORMAT, pool);
3896         pushing_from_our_pool = TRUE;
3897       } else if (pool) {
3898         GST_DEBUG_OBJECT (obj->element,
3899             "streaming mode: copying to downstream pool %" GST_PTR_FORMAT,
3900             pool);
3901       } else {
3902         GST_DEBUG_OBJECT (obj->element,
3903             "streaming mode: no usable pool, copying to generic pool");
3904         size = MAX (size, obj->info.size);
3905       }
3906       break;
3907     case GST_V4L2_IO_AUTO:
3908     default:
3909       GST_WARNING_OBJECT (obj->element, "unhandled mode");
3910       break;
3911   }
3912
3913   if (size == 0)
3914     goto no_size;
3915
3916   /* If pushing from our own pool, configure it with queried minimum,
3917    * otherwise use the minimum required */
3918   if (pushing_from_our_pool) {
3919     /* When pushing from our own pool, we need what downstream one, to be able
3920      * to fill the pipeline, the minimum required to decoder according to the
3921      * driver and 1 more, so we don't endup up with everything downstream or
3922      * held by the decoder. */
3923     own_min = min + obj->min_buffers + 1;
3924
3925     /* If no allocation parameters where provided, allow for a little more
3926      * buffers and enable copy threshold */
3927     if (!update) {
3928       own_min += 3;
3929       gst_v4l2_buffer_pool_copy_at_threshold (GST_V4L2_BUFFER_POOL (pool),
3930           TRUE);
3931     } else {
3932       gst_v4l2_buffer_pool_copy_at_threshold (GST_V4L2_BUFFER_POOL (pool),
3933           FALSE);
3934     }
3935
3936   } else {
3937     /* In this case we'll have to configure two buffer pool. For our buffer
3938      * pool, we'll need what the driver one, and one more, so we can dequeu */
3939     own_min = obj->min_buffers + 1;
3940     own_min = MAX (own_min, GST_V4L2_MIN_BUFFERS);
3941
3942     /* for the downstream pool, we keep what downstream wants, though ensure
3943      * at least a minimum if downstream didn't suggest anything (we are
3944      * expecting the base class to create a default one for the context) */
3945     min = MAX (min, GST_V4L2_MIN_BUFFERS);
3946
3947     /* To import we need the other pool to hold at least own_min */
3948     if (obj->pool == pool)
3949       min += own_min;
3950   }
3951
3952   /* Request a bigger max, if one was suggested but it's too small */
3953   if (max != 0)
3954     max = MAX (min, max);
3955
3956   /* First step, configure our own pool */
3957   config = gst_buffer_pool_get_config (obj->pool);
3958
3959   if (obj->need_video_meta || has_video_meta) {
3960     GST_DEBUG_OBJECT (obj->element, "activate Video Meta");
3961     gst_buffer_pool_config_add_option (config,
3962         GST_BUFFER_POOL_OPTION_VIDEO_META);
3963   }
3964
3965   gst_buffer_pool_config_set_allocator (config, allocator, &params);
3966   gst_buffer_pool_config_set_params (config, caps, size, own_min, 0);
3967
3968   GST_DEBUG_OBJECT (obj->element, "setting own pool config to %"
3969       GST_PTR_FORMAT, config);
3970
3971   /* Our pool often need to adjust the value */
3972   if (!gst_buffer_pool_set_config (obj->pool, config)) {
3973     config = gst_buffer_pool_get_config (obj->pool);
3974
3975     GST_DEBUG_OBJECT (obj->element, "own pool config changed to %"
3976         GST_PTR_FORMAT, config);
3977
3978     /* our pool will adjust the maximum buffer, which we are fine with */
3979     if (!gst_buffer_pool_set_config (obj->pool, config))
3980       goto config_failed;
3981   }
3982
3983   /* Now configure the other pool if different */
3984   if (obj->pool != pool)
3985     other_pool = pool;
3986
3987   if (other_pool) {
3988     config = gst_buffer_pool_get_config (other_pool);
3989     gst_buffer_pool_config_set_allocator (config, allocator, &params);
3990     gst_buffer_pool_config_set_params (config, caps, size, min, max);
3991
3992     GST_DEBUG_OBJECT (obj->element, "setting other pool config to %"
3993         GST_PTR_FORMAT, config);
3994
3995     /* if downstream supports video metadata, add this to the pool config */
3996     if (has_video_meta) {
3997       GST_DEBUG_OBJECT (obj->element, "activate Video Meta");
3998       gst_buffer_pool_config_add_option (config,
3999           GST_BUFFER_POOL_OPTION_VIDEO_META);
4000     }
4001
4002     if (!gst_buffer_pool_set_config (other_pool, config)) {
4003       config = gst_buffer_pool_get_config (other_pool);
4004
4005       if (!gst_buffer_pool_config_validate_params (config, caps, size, min,
4006               max)) {
4007         gst_structure_free (config);
4008         goto config_failed;
4009       }
4010
4011       if (!gst_buffer_pool_set_config (other_pool, config))
4012         goto config_failed;
4013     }
4014   }
4015
4016   if (pool) {
4017     /* For simplicity, simply read back the active configuration, so our base
4018      * class get the right information */
4019     config = gst_buffer_pool_get_config (pool);
4020     gst_buffer_pool_config_get_params (config, NULL, &size, &min, &max);
4021     gst_structure_free (config);
4022   }
4023
4024   if (update)
4025     gst_query_set_nth_allocation_pool (query, 0, pool, size, min, max);
4026   else
4027     gst_query_add_allocation_pool (query, pool, size, min, max);
4028
4029   if (allocator)
4030     gst_object_unref (allocator);
4031
4032   if (pool)
4033     gst_object_unref (pool);
4034
4035   return TRUE;
4036
4037 pool_failed:
4038   {
4039     /* setup_pool already send the error */
4040     goto cleanup;
4041   }
4042 config_failed:
4043   {
4044     GST_ELEMENT_ERROR (obj->element, RESOURCE, SETTINGS,
4045         (_("Failed to configure internal buffer pool.")), (NULL));
4046     goto cleanup;
4047   }
4048 no_size:
4049   {
4050     GST_ELEMENT_ERROR (obj->element, RESOURCE, SETTINGS,
4051         (_("Video device did not suggest any buffer size.")), (NULL));
4052     goto cleanup;
4053   }
4054 cleanup:
4055   {
4056     if (allocator)
4057       gst_object_unref (allocator);
4058
4059     if (pool)
4060       gst_object_unref (pool);
4061     return FALSE;
4062   }
4063 no_downstream_pool:
4064   {
4065     GST_ELEMENT_ERROR (obj->element, RESOURCE, SETTINGS,
4066         (_("No downstream pool to import from.")),
4067         ("When importing DMABUF or USERPTR, we need a pool to import from"));
4068     return FALSE;
4069   }
4070 }
4071
4072 gboolean
4073 gst_v4l2_object_propose_allocation (GstV4l2Object * obj, GstQuery * query)
4074 {
4075   GstBufferPool *pool;
4076   /* we need at least 2 buffers to operate */
4077   guint size, min, max;
4078   GstCaps *caps;
4079   gboolean need_pool;
4080
4081   /* Set defaults allocation parameters */
4082   size = obj->info.size;
4083   min = GST_V4L2_MIN_BUFFERS;
4084   max = VIDEO_MAX_FRAME;
4085
4086   gst_query_parse_allocation (query, &caps, &need_pool);
4087
4088   if (caps == NULL)
4089     goto no_caps;
4090
4091   if ((pool = obj->pool))
4092     gst_object_ref (pool);
4093
4094   if (pool != NULL) {
4095     GstCaps *pcaps;
4096     GstStructure *config;
4097
4098     /* we had a pool, check caps */
4099     config = gst_buffer_pool_get_config (pool);
4100     gst_buffer_pool_config_get_params (config, &pcaps, NULL, NULL, NULL);
4101
4102     GST_DEBUG_OBJECT (obj->element,
4103         "we had a pool with caps %" GST_PTR_FORMAT, pcaps);
4104     if (!gst_caps_is_equal (caps, pcaps)) {
4105       gst_structure_free (config);
4106       gst_object_unref (pool);
4107       goto different_caps;
4108     }
4109     gst_structure_free (config);
4110   }
4111   gst_v4l2_get_driver_min_buffers (obj);
4112
4113   min = MAX (obj->min_buffers, GST_V4L2_MIN_BUFFERS);
4114
4115   gst_query_add_allocation_pool (query, pool, size, min, max);
4116
4117   /* we also support various metadata */
4118   gst_query_add_allocation_meta (query, GST_VIDEO_META_API_TYPE, NULL);
4119
4120   if (pool)
4121     gst_object_unref (pool);
4122
4123   return TRUE;
4124
4125   /* ERRORS */
4126 no_caps:
4127   {
4128     GST_DEBUG_OBJECT (obj->element, "no caps specified");
4129     return FALSE;
4130   }
4131 different_caps:
4132   {
4133     /* different caps, we can't use this pool */
4134     GST_DEBUG_OBJECT (obj->element, "pool has different caps");
4135     return FALSE;
4136   }
4137 }