993132969f87295ac3a4fb0e4b09fe426fe5125f
[platform/upstream/gst-plugins-good.git] / sys / v4l2 / gstv4l2videoenc.c
1 /*
2  * Copyright (C) 2014-2017 SUMOMO Computer Association
3  *     Authors Ayaka <ayaka@soulik.info>
4  * Copyright (C) 2017 Collabora Ltd.
5  *     Author: Nicolas Dufresne <nicolas.dufresne@collabora.com>
6  *
7  * This library is free software; you can redistribute it and/or
8  * modify it under the terms of the GNU Library General Public
9  * License as published by the Free Software Foundation; either
10  * version 2 of the License, or (at your option) any later version.
11  *
12  * This library is distributed in the hope that it will be useful,
13  * but WITHOUT ANY WARRANTY; without even the implied warranty of
14  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
15  * Library General Public License for more details.
16  *
17  * You should have received a copy of the GNU Library General Public
18  * License along with this library; if not, write to the
19  * Free Software Foundation, Inc., 51 Franklin St, Fifth Floor,
20  * Boston, MA 02110-1301, USA.
21  *
22  */
23
24 #ifdef HAVE_CONFIG_H
25 #include "config.h"
26 #endif
27
28 #include <sys/stat.h>
29 #include <fcntl.h>
30 #include <errno.h>
31 #include <unistd.h>
32 #include <string.h>
33
34 #include "gstv4l2object.h"
35 #include "gstv4l2videoenc.h"
36
37 #include <string.h>
38 #include <gst/gst-i18n-plugin.h>
39
40 GST_DEBUG_CATEGORY_STATIC (gst_v4l2_video_enc_debug);
41 #define GST_CAT_DEFAULT gst_v4l2_video_enc_debug
42
43 typedef struct
44 {
45   gchar *device;
46   GstCaps *sink_caps;
47   GstCaps *src_caps;
48 } GstV4l2VideoEncCData;
49
50 enum
51 {
52   PROP_0,
53   V4L2_STD_OBJECT_PROPS,
54 };
55
56 #define gst_v4l2_video_enc_parent_class parent_class
57 G_DEFINE_ABSTRACT_TYPE (GstV4l2VideoEnc, gst_v4l2_video_enc,
58     GST_TYPE_VIDEO_ENCODER);
59
60 static void
61 gst_v4l2_video_enc_set_property (GObject * object,
62     guint prop_id, const GValue * value, GParamSpec * pspec)
63 {
64   GstV4l2VideoEnc *self = GST_V4L2_VIDEO_ENC (object);
65
66   switch (prop_id) {
67     case PROP_CAPTURE_IO_MODE:
68       if (!gst_v4l2_object_set_property_helper (self->v4l2capture,
69               prop_id, value, pspec)) {
70         G_OBJECT_WARN_INVALID_PROPERTY_ID (object, prop_id, pspec);
71       }
72       break;
73
74       /* By default, only set on output */
75     default:
76       if (!gst_v4l2_object_set_property_helper (self->v4l2output,
77               prop_id, value, pspec)) {
78         G_OBJECT_WARN_INVALID_PROPERTY_ID (object, prop_id, pspec);
79       }
80       break;
81   }
82 }
83
84 static void
85 gst_v4l2_video_enc_get_property (GObject * object,
86     guint prop_id, GValue * value, GParamSpec * pspec)
87 {
88   GstV4l2VideoEnc *self = GST_V4L2_VIDEO_ENC (object);
89
90   switch (prop_id) {
91     case PROP_CAPTURE_IO_MODE:
92       if (!gst_v4l2_object_get_property_helper (self->v4l2capture,
93               prop_id, value, pspec)) {
94         G_OBJECT_WARN_INVALID_PROPERTY_ID (object, prop_id, pspec);
95       }
96       break;
97
98       /* By default read from output */
99     default:
100       if (!gst_v4l2_object_get_property_helper (self->v4l2output,
101               prop_id, value, pspec)) {
102         G_OBJECT_WARN_INVALID_PROPERTY_ID (object, prop_id, pspec);
103       }
104       break;
105   }
106 }
107
108 static gboolean
109 gst_v4l2_video_enc_open (GstVideoEncoder * encoder)
110 {
111   GstV4l2VideoEnc *self = GST_V4L2_VIDEO_ENC (encoder);
112   GstCaps *codec_caps;
113
114   GST_DEBUG_OBJECT (self, "Opening");
115
116   if (!gst_v4l2_object_open (self->v4l2output))
117     goto failure;
118
119   if (!gst_v4l2_object_open_shared (self->v4l2capture, self->v4l2output))
120     goto failure;
121
122   self->probed_sinkcaps = gst_v4l2_object_probe_caps (self->v4l2output,
123       gst_v4l2_object_get_raw_caps ());
124
125   if (gst_caps_is_empty (self->probed_sinkcaps))
126     goto no_raw_format;
127
128   codec_caps = gst_pad_get_pad_template_caps (encoder->srcpad);
129   self->probed_srccaps = gst_v4l2_object_probe_caps (self->v4l2capture,
130       codec_caps);
131   gst_caps_unref (codec_caps);
132
133   if (gst_caps_is_empty (self->probed_srccaps))
134     goto no_encoded_format;
135
136   return TRUE;
137
138 no_encoded_format:
139   GST_ELEMENT_ERROR (self, RESOURCE, SETTINGS,
140       (_("Encoder on device %s has no supported output format"),
141           self->v4l2output->videodev), (NULL));
142   goto failure;
143
144
145 no_raw_format:
146   GST_ELEMENT_ERROR (self, RESOURCE, SETTINGS,
147       (_("Encoder on device %s has no supported input format"),
148           self->v4l2output->videodev), (NULL));
149   goto failure;
150
151 failure:
152   if (GST_V4L2_IS_OPEN (self->v4l2output))
153     gst_v4l2_object_close (self->v4l2output);
154
155   if (GST_V4L2_IS_OPEN (self->v4l2capture))
156     gst_v4l2_object_close (self->v4l2capture);
157
158   gst_caps_replace (&self->probed_srccaps, NULL);
159   gst_caps_replace (&self->probed_sinkcaps, NULL);
160
161   return FALSE;
162 }
163
164 static gboolean
165 gst_v4l2_video_enc_close (GstVideoEncoder * encoder)
166 {
167   GstV4l2VideoEnc *self = GST_V4L2_VIDEO_ENC (encoder);
168
169   GST_DEBUG_OBJECT (self, "Closing");
170
171   gst_v4l2_object_close (self->v4l2output);
172   gst_v4l2_object_close (self->v4l2capture);
173   gst_caps_replace (&self->probed_srccaps, NULL);
174   gst_caps_replace (&self->probed_sinkcaps, NULL);
175
176   return TRUE;
177 }
178
179 static gboolean
180 gst_v4l2_video_enc_start (GstVideoEncoder * encoder)
181 {
182   GstV4l2VideoEnc *self = GST_V4L2_VIDEO_ENC (encoder);
183
184   GST_DEBUG_OBJECT (self, "Starting");
185
186   gst_v4l2_object_unlock (self->v4l2output);
187   g_atomic_int_set (&self->active, TRUE);
188   self->output_flow = GST_FLOW_OK;
189
190   return TRUE;
191 }
192
193 static gboolean
194 gst_v4l2_video_enc_stop (GstVideoEncoder * encoder)
195 {
196   GstV4l2VideoEnc *self = GST_V4L2_VIDEO_ENC (encoder);
197
198   GST_DEBUG_OBJECT (self, "Stopping");
199
200   gst_v4l2_object_unlock (self->v4l2output);
201   gst_v4l2_object_unlock (self->v4l2capture);
202
203   /* Wait for capture thread to stop */
204   gst_pad_stop_task (encoder->srcpad);
205
206   GST_VIDEO_ENCODER_STREAM_LOCK (encoder);
207   self->output_flow = GST_FLOW_OK;
208   GST_VIDEO_ENCODER_STREAM_UNLOCK (encoder);
209
210   /* Should have been flushed already */
211   g_assert (g_atomic_int_get (&self->active) == FALSE);
212   g_assert (g_atomic_int_get (&self->processing) == FALSE);
213
214   gst_v4l2_object_stop (self->v4l2output);
215   gst_v4l2_object_stop (self->v4l2capture);
216
217   if (self->input_state) {
218     gst_video_codec_state_unref (self->input_state);
219     self->input_state = NULL;
220   }
221
222   GST_DEBUG_OBJECT (self, "Stopped");
223
224   return TRUE;
225 }
226
227 static gboolean
228 gst_v4l2_encoder_cmd (GstV4l2Object * v4l2object, guint cmd, guint flags)
229 {
230   struct v4l2_encoder_cmd ecmd = { 0, };
231
232   GST_DEBUG_OBJECT (v4l2object->element,
233       "sending v4l2 encoder command %u with flags %u", cmd, flags);
234
235   if (!GST_V4L2_IS_OPEN (v4l2object))
236     return FALSE;
237
238   ecmd.cmd = cmd;
239   ecmd.flags = flags;
240   if (v4l2object->ioctl (v4l2object->video_fd, VIDIOC_ENCODER_CMD, &ecmd) < 0)
241     goto ecmd_failed;
242
243   return TRUE;
244
245 ecmd_failed:
246   if (errno == ENOTTY) {
247     GST_INFO_OBJECT (v4l2object->element,
248         "Failed to send encoder command %u with flags %u for '%s'. (%s)",
249         cmd, flags, v4l2object->videodev, g_strerror (errno));
250   } else {
251     GST_ERROR_OBJECT (v4l2object->element,
252         "Failed to send encoder command %u with flags %u for '%s'. (%s)",
253         cmd, flags, v4l2object->videodev, g_strerror (errno));
254   }
255   return FALSE;
256 }
257
258 static GstFlowReturn
259 gst_v4l2_video_enc_finish (GstVideoEncoder * encoder)
260 {
261   GstV4l2VideoEnc *self = GST_V4L2_VIDEO_ENC (encoder);
262   GstFlowReturn ret = GST_FLOW_OK;
263
264   if (gst_pad_get_task_state (encoder->srcpad) != GST_TASK_STARTED)
265     goto done;
266
267   GST_DEBUG_OBJECT (self, "Finishing encoding");
268
269   /* drop the stream lock while draining, so remaining buffers can be
270    * pushed from the src pad task thread */
271   GST_VIDEO_ENCODER_STREAM_UNLOCK (encoder);
272
273   if (gst_v4l2_encoder_cmd (self->v4l2capture, V4L2_ENC_CMD_STOP, 0)) {
274     GstTask *task = encoder->srcpad->task;
275
276     /* Wait for the task to be drained */
277     GST_OBJECT_LOCK (task);
278     while (GST_TASK_STATE (task) == GST_TASK_STARTED)
279       GST_TASK_WAIT (task);
280     GST_OBJECT_UNLOCK (task);
281     ret = GST_FLOW_FLUSHING;
282   }
283
284   /* and ensure the processing thread has stopped in case another error
285    * occured. */
286   gst_v4l2_object_unlock (self->v4l2capture);
287   gst_pad_stop_task (encoder->srcpad);
288   GST_VIDEO_ENCODER_STREAM_LOCK (encoder);
289
290   if (ret == GST_FLOW_FLUSHING)
291     ret = self->output_flow;
292
293   GST_DEBUG_OBJECT (encoder, "Done draining buffers");
294
295 done:
296   return ret;
297 }
298
299 static gboolean
300 gst_v4l2_video_enc_set_format (GstVideoEncoder * encoder,
301     GstVideoCodecState * state)
302 {
303   gboolean ret = TRUE;
304   GstV4l2VideoEnc *self = GST_V4L2_VIDEO_ENC (encoder);
305   GstV4l2Error error = GST_V4L2_ERROR_INIT;
306   GstCaps *outcaps;
307   GstVideoCodecState *output;
308
309   GST_DEBUG_OBJECT (self, "Setting format: %" GST_PTR_FORMAT, state->caps);
310
311   if (self->input_state) {
312     if (gst_v4l2_object_caps_equal (self->v4l2output, state->caps)) {
313       GST_DEBUG_OBJECT (self, "Compatible caps");
314       return TRUE;
315     }
316
317     if (gst_v4l2_video_enc_finish (encoder) != GST_FLOW_OK)
318       return FALSE;
319
320     gst_v4l2_object_stop (self->v4l2output);
321     gst_v4l2_object_stop (self->v4l2capture);
322
323     gst_video_codec_state_unref (self->input_state);
324     self->input_state = NULL;
325   }
326
327   outcaps = gst_pad_get_pad_template_caps (encoder->srcpad);
328   outcaps = gst_caps_make_writable (outcaps);
329   output = gst_video_encoder_set_output_state (encoder, outcaps, state);
330   gst_video_codec_state_unref (output);
331
332   if (!gst_video_encoder_negotiate (encoder))
333     return FALSE;
334
335   if (!gst_v4l2_object_set_format (self->v4l2output, state->caps, &error)) {
336     gst_v4l2_error (self, &error);
337     return FALSE;
338   }
339
340   self->input_state = gst_video_codec_state_ref (state);
341
342   GST_DEBUG_OBJECT (self, "output caps: %" GST_PTR_FORMAT, state->caps);
343
344   return ret;
345 }
346
347 static gboolean
348 gst_v4l2_video_enc_flush (GstVideoEncoder * encoder)
349 {
350   GstV4l2VideoEnc *self = GST_V4L2_VIDEO_ENC (encoder);
351
352   GST_DEBUG_OBJECT (self, "Flushing");
353
354   /* Ensure the processing thread has stopped for the reverse playback
355    * iscount case */
356   if (g_atomic_int_get (&self->processing)) {
357     GST_VIDEO_ENCODER_STREAM_UNLOCK (encoder);
358
359     gst_v4l2_object_unlock_stop (self->v4l2output);
360     gst_v4l2_object_unlock_stop (self->v4l2capture);
361     gst_pad_stop_task (encoder->srcpad);
362
363     GST_VIDEO_ENCODER_STREAM_UNLOCK (encoder);
364
365   }
366
367   self->output_flow = GST_FLOW_OK;
368
369   gst_v4l2_object_unlock_stop (self->v4l2output);
370   gst_v4l2_object_unlock_stop (self->v4l2capture);
371
372   return TRUE;
373 }
374
375 struct ProfileLevelCtx
376 {
377   GstV4l2VideoEnc *self;
378   const gchar *profile;
379   const gchar *level;
380 };
381
382 static gboolean
383 get_string_list (GstStructure * s, const gchar * field, GQueue * queue)
384 {
385   const GValue *value;
386
387   value = gst_structure_get_value (s, field);
388
389   if (!value)
390     return FALSE;
391
392   if (GST_VALUE_HOLDS_LIST (value)) {
393     guint i;
394
395     if (gst_value_list_get_size (value) == 0)
396       return FALSE;
397
398     for (i = 0; i < gst_value_list_get_size (value); i++) {
399       const GValue *item = gst_value_list_get_value (value, i);
400
401       if (G_VALUE_HOLDS_STRING (item))
402         g_queue_push_tail (queue, g_value_dup_string (item));
403     }
404   } else if (G_VALUE_HOLDS_STRING (value)) {
405     g_queue_push_tail (queue, g_value_dup_string (value));
406   }
407
408   return TRUE;
409 }
410
411 static gboolean
412 negotiate_profile_and_level (GstCapsFeatures * features, GstStructure * s,
413     gpointer user_data)
414 {
415   struct ProfileLevelCtx *ctx = user_data;
416   GstV4l2VideoEncClass *klass = GST_V4L2_VIDEO_ENC_GET_CLASS (ctx->self);
417   GstV4l2Object *v4l2object = GST_V4L2_VIDEO_ENC (ctx->self)->v4l2output;
418   GQueue profiles = G_QUEUE_INIT;
419   GQueue levels = G_QUEUE_INIT;
420   gboolean failed = FALSE;
421
422   if (klass->profile_cid && get_string_list (s, "profile", &profiles)) {
423     GList *l;
424
425     for (l = profiles.head; l; l = l->next) {
426       struct v4l2_control control = { 0, };
427       gint v4l2_profile;
428       const gchar *profile = l->data;
429
430       GST_TRACE_OBJECT (ctx->self, "Trying profile %s", profile);
431
432       control.id = klass->profile_cid;
433       control.value = v4l2_profile = klass->profile_from_string (profile);
434
435       if (control.value < 0)
436         continue;
437
438       if (v4l2object->ioctl (v4l2object->video_fd, VIDIOC_S_CTRL, &control) < 0) {
439         GST_WARNING_OBJECT (ctx->self, "Failed to set %s profile: '%s'",
440             klass->codec_name, g_strerror (errno));
441         break;
442       }
443
444       profile = klass->profile_to_string (control.value);
445
446       if (control.value == v4l2_profile) {
447         ctx->profile = profile;
448         break;
449       }
450
451       if (g_list_find_custom (l, profile, g_str_equal)) {
452         ctx->profile = profile;
453         break;
454       }
455     }
456
457     if (profiles.length && !ctx->profile)
458       failed = TRUE;
459
460     g_queue_foreach (&profiles, (GFunc) g_free, NULL);
461     g_queue_clear (&profiles);
462   }
463
464   if (!failed && klass->level_cid && get_string_list (s, "level", &levels)) {
465     GList *l;
466
467     for (l = levels.head; l; l = l->next) {
468       struct v4l2_control control = { 0, };
469       gint v4l2_level;
470       const gchar *level = l->data;
471
472       GST_TRACE_OBJECT (ctx->self, "Trying level %s", level);
473
474       control.id = klass->level_cid;
475       control.value = v4l2_level = klass->level_from_string (level);
476
477       if (control.value < 0)
478         continue;
479
480       if (v4l2object->ioctl (v4l2object->video_fd, VIDIOC_S_CTRL, &control) < 0) {
481         GST_WARNING_OBJECT (ctx->self, "Failed to set %s level: '%s'",
482             klass->codec_name, g_strerror (errno));
483         break;
484       }
485
486       level = klass->level_to_string (control.value);
487
488       if (control.value == v4l2_level) {
489         ctx->level = level;
490         break;
491       }
492
493       if (g_list_find_custom (l, level, g_str_equal)) {
494         ctx->level = level;
495         break;
496       }
497     }
498
499     if (levels.length && !ctx->level)
500       failed = TRUE;
501
502     g_queue_foreach (&levels, (GFunc) g_free, NULL);
503     g_queue_clear (&levels);
504   }
505
506   /* If it failed, we continue */
507   return failed;
508 }
509
510 static gboolean
511 gst_v4l2_video_enc_negotiate (GstVideoEncoder * encoder)
512 {
513   GstV4l2VideoEncClass *klass = GST_V4L2_VIDEO_ENC_GET_CLASS (encoder);
514   GstV4l2VideoEnc *self = GST_V4L2_VIDEO_ENC (encoder);
515   GstV4l2Object *v4l2object = self->v4l2output;
516   GstCaps *allowed_caps;
517   struct ProfileLevelCtx ctx = { self, NULL, NULL };
518   GstVideoCodecState *state;
519   GstStructure *s;
520
521   GST_DEBUG_OBJECT (self, "Negotiating %s profile and level.",
522       klass->codec_name);
523
524   allowed_caps = gst_pad_get_allowed_caps (GST_VIDEO_ENCODER_SRC_PAD (encoder));
525
526   if (allowed_caps) {
527
528     if (gst_caps_is_empty (allowed_caps))
529       goto not_negotiated;
530
531     allowed_caps = gst_caps_make_writable (allowed_caps);
532
533     /* negotiate_profile_and_level() will return TRUE on failure to keep
534      * iterating, if gst_caps_foreach() returns TRUE it means there was no
535      * compatible profile and level in any of the structure */
536     if (gst_caps_foreach (allowed_caps, negotiate_profile_and_level, &ctx)) {
537       goto no_profile_level;
538     }
539   }
540
541   if (klass->profile_cid && !ctx.profile) {
542     struct v4l2_control control = { 0, };
543
544     control.id = klass->profile_cid;
545
546     if (v4l2object->ioctl (v4l2object->video_fd, VIDIOC_G_CTRL, &control) < 0)
547       goto g_ctrl_failed;
548
549     ctx.profile = klass->profile_to_string (control.value);
550   }
551
552   if (klass->level_cid && !ctx.level) {
553     struct v4l2_control control = { 0, };
554
555     control.id = klass->level_cid;
556
557     if (v4l2object->ioctl (v4l2object->video_fd, VIDIOC_G_CTRL, &control) < 0)
558       goto g_ctrl_failed;
559
560     ctx.level = klass->level_to_string (control.value);
561   }
562
563   GST_DEBUG_OBJECT (self, "Selected %s profile %s at level %s",
564       klass->codec_name, ctx.profile, ctx.level);
565
566   state = gst_video_encoder_get_output_state (encoder);
567   s = gst_caps_get_structure (state->caps, 0);
568
569   if (klass->profile_cid)
570     gst_structure_set (s, "profile", G_TYPE_STRING, ctx.profile, NULL);
571
572   if (klass->level_cid)
573     gst_structure_set (s, "level", G_TYPE_STRING, ctx.level, NULL);
574
575   if (!GST_VIDEO_ENCODER_CLASS (parent_class)->negotiate (encoder))
576     return FALSE;
577
578   return TRUE;
579
580 g_ctrl_failed:
581   GST_WARNING_OBJECT (self, "Failed to get %s profile and level: '%s'",
582       klass->codec_name, g_strerror (errno));
583   goto not_negotiated;
584
585 no_profile_level:
586   GST_WARNING_OBJECT (self, "No compatible level and profile in caps: %"
587       GST_PTR_FORMAT, allowed_caps);
588   goto not_negotiated;
589
590 not_negotiated:
591   if (allowed_caps)
592     gst_caps_unref (allowed_caps);
593   return FALSE;
594 }
595
596 static GstVideoCodecFrame *
597 gst_v4l2_video_enc_get_oldest_frame (GstVideoEncoder * encoder)
598 {
599   GstVideoCodecFrame *frame = NULL;
600   GList *frames, *l;
601   gint count = 0;
602
603   frames = gst_video_encoder_get_frames (encoder);
604
605   for (l = frames; l != NULL; l = l->next) {
606     GstVideoCodecFrame *f = l->data;
607
608     if (!frame || frame->pts > f->pts)
609       frame = f;
610
611     count++;
612   }
613
614   if (frame) {
615     GST_LOG_OBJECT (encoder,
616         "Oldest frame is %d %" GST_TIME_FORMAT
617         " and %d frames left",
618         frame->system_frame_number, GST_TIME_ARGS (frame->pts), count - 1);
619     gst_video_codec_frame_ref (frame);
620   }
621
622   g_list_free_full (frames, (GDestroyNotify) gst_video_codec_frame_unref);
623
624   return frame;
625 }
626
627 static void
628 gst_v4l2_video_enc_loop (GstVideoEncoder * encoder)
629 {
630   GstV4l2VideoEnc *self = GST_V4L2_VIDEO_ENC (encoder);
631   GstVideoCodecFrame *frame;
632   GstBuffer *buffer = NULL;
633   GstFlowReturn ret;
634
635   GST_LOG_OBJECT (encoder, "Allocate output buffer");
636
637   buffer = gst_video_encoder_allocate_output_buffer (encoder,
638       self->v4l2capture->info.size);
639
640   if (NULL == buffer) {
641     ret = GST_FLOW_FLUSHING;
642     goto beach;
643   }
644
645
646   /* FIXME Check if buffer isn't the last one here */
647
648   GST_LOG_OBJECT (encoder, "Process output buffer");
649   ret =
650       gst_v4l2_buffer_pool_process (GST_V4L2_BUFFER_POOL
651       (self->v4l2capture->pool), &buffer);
652
653   if (ret != GST_FLOW_OK)
654     goto beach;
655
656   frame = gst_v4l2_video_enc_get_oldest_frame (encoder);
657
658   if (frame) {
659     frame->output_buffer = buffer;
660     buffer = NULL;
661     ret = gst_video_encoder_finish_frame (encoder, frame);
662
663     if (ret != GST_FLOW_OK)
664       goto beach;
665   } else {
666     GST_WARNING_OBJECT (encoder, "Encoder is producing too many buffers");
667     gst_buffer_unref (buffer);
668   }
669
670   return;
671
672 beach:
673   GST_DEBUG_OBJECT (encoder, "Leaving output thread");
674
675   gst_buffer_replace (&buffer, NULL);
676   self->output_flow = ret;
677   g_atomic_int_set (&self->processing, FALSE);
678   gst_v4l2_object_unlock (self->v4l2output);
679   gst_pad_pause_task (encoder->srcpad);
680 }
681
682 static void
683 gst_v4l2_video_enc_loop_stopped (GstV4l2VideoEnc * self)
684 {
685   if (g_atomic_int_get (&self->processing)) {
686     GST_DEBUG_OBJECT (self, "Early stop of encoding thread");
687     self->output_flow = GST_FLOW_FLUSHING;
688     g_atomic_int_set (&self->processing, FALSE);
689   }
690
691   GST_DEBUG_OBJECT (self, "Encoding task destroyed: %s",
692       gst_flow_get_name (self->output_flow));
693
694 }
695
696 static GstFlowReturn
697 gst_v4l2_video_enc_handle_frame (GstVideoEncoder * encoder,
698     GstVideoCodecFrame * frame)
699 {
700   GstV4l2VideoEnc *self = GST_V4L2_VIDEO_ENC (encoder);
701   GstFlowReturn ret = GST_FLOW_OK;
702   GstTaskState task_state;
703
704   GST_DEBUG_OBJECT (self, "Handling frame %d", frame->system_frame_number);
705
706   if (G_UNLIKELY (!g_atomic_int_get (&self->active)))
707     goto flushing;
708
709   task_state = gst_pad_get_task_state (GST_VIDEO_DECODER_SRC_PAD (self));
710   if (task_state == GST_TASK_STOPPED || task_state == GST_TASK_PAUSED) {
711     GstBufferPool *pool = GST_BUFFER_POOL (self->v4l2output->pool);
712
713     /* It possible that the processing thread stopped due to an error */
714     if (self->output_flow != GST_FLOW_OK &&
715         self->output_flow != GST_FLOW_FLUSHING) {
716       GST_DEBUG_OBJECT (self, "Processing loop stopped with error, leaving");
717       ret = self->output_flow;
718       goto drop;
719     }
720
721     /* Ensure input internal pool is active */
722     if (!gst_buffer_pool_is_active (pool)) {
723       GstStructure *config = gst_buffer_pool_get_config (pool);
724       guint min = MAX (self->v4l2output->min_buffers, GST_V4L2_MIN_BUFFERS);
725
726       gst_buffer_pool_config_set_params (config, self->input_state->caps,
727           self->v4l2output->info.size, min, min);
728
729       /* There is no reason to refuse this config */
730       if (!gst_buffer_pool_set_config (pool, config))
731         goto activate_failed;
732
733       if (!gst_buffer_pool_set_active (pool, TRUE))
734         goto activate_failed;
735     }
736
737     if (!gst_buffer_pool_set_active
738         (GST_BUFFER_POOL (self->v4l2capture->pool), TRUE)) {
739       GST_WARNING_OBJECT (self, "Could not activate capture buffer pool.");
740       goto activate_failed;
741     }
742
743     GST_DEBUG_OBJECT (self, "Starting encoding thread");
744
745     /* Start the processing task, when it quits, the task will disable input
746      * processing to unlock input if draining, or prevent potential block */
747     if (!gst_pad_start_task (encoder->srcpad,
748             (GstTaskFunction) gst_v4l2_video_enc_loop, self,
749             (GDestroyNotify) gst_v4l2_video_enc_loop_stopped))
750       goto start_task_failed;
751   }
752
753   if (frame->input_buffer) {
754     GST_VIDEO_ENCODER_STREAM_UNLOCK (encoder);
755     ret =
756         gst_v4l2_buffer_pool_process (GST_V4L2_BUFFER_POOL
757         (self->v4l2output->pool), &frame->input_buffer);
758     GST_VIDEO_ENCODER_STREAM_LOCK (encoder);
759
760     if (ret == GST_FLOW_FLUSHING) {
761       if (gst_pad_get_task_state (GST_VIDEO_DECODER_SRC_PAD (self)) !=
762           GST_TASK_STARTED)
763         ret = self->output_flow;
764       goto drop;
765     } else if (ret != GST_FLOW_OK) {
766       goto process_failed;
767     }
768   }
769
770   gst_video_codec_frame_unref (frame);
771   return ret;
772
773   /* ERRORS */
774 activate_failed:
775   {
776     GST_ELEMENT_ERROR (self, RESOURCE, SETTINGS,
777         (_("Failed to allocate required memory.")),
778         ("Buffer pool activation failed"));
779     return GST_FLOW_ERROR;
780
781   }
782 flushing:
783   {
784     ret = GST_FLOW_FLUSHING;
785     goto drop;
786   }
787 start_task_failed:
788   {
789     GST_ELEMENT_ERROR (self, RESOURCE, FAILED,
790         (_("Failed to start encoding thread.")), (NULL));
791     g_atomic_int_set (&self->processing, FALSE);
792     ret = GST_FLOW_ERROR;
793     goto drop;
794   }
795 process_failed:
796   {
797     GST_ELEMENT_ERROR (self, RESOURCE, FAILED,
798         (_("Failed to process frame.")),
799         ("Maybe be due to not enough memory or failing driver"));
800     ret = GST_FLOW_ERROR;
801     goto drop;
802   }
803 drop:
804   {
805     gst_video_encoder_finish_frame (encoder, frame);
806     return ret;
807   }
808 }
809
810 static gboolean
811 gst_v4l2_video_enc_decide_allocation (GstVideoEncoder *
812     encoder, GstQuery * query)
813 {
814   GstV4l2VideoEnc *self = GST_V4L2_VIDEO_ENC (encoder);
815   GstVideoCodecState *state = gst_video_encoder_get_output_state (encoder);
816   GstV4l2Error error = GST_V4L2_ERROR_INIT;
817   GstClockTime latency;
818   gboolean ret = FALSE;
819
820   /* We need to set the format here, since this is called right after
821    * GstVideoEncoder have set the width, height and framerate into the state
822    * caps. These are needed by the driver to calculate the buffer size and to
823    * implement bitrate adaptation. */
824   if (!gst_v4l2_object_set_format (self->v4l2capture, state->caps, &error)) {
825     gst_v4l2_error (self, &error);
826     ret = FALSE;
827     goto done;
828   }
829
830   if (gst_v4l2_object_decide_allocation (self->v4l2capture, query)) {
831     GstVideoEncoderClass *enc_class = GST_VIDEO_ENCODER_CLASS (parent_class);
832     ret = enc_class->decide_allocation (encoder, query);
833   }
834
835   /* FIXME This may not be entirely correct, as encoder may keep some
836    * observation withouth delaying the encoding. Linux Media API need some
837    * more work to explicitly expressed the decoder / encoder latency. This
838    * value will then become max latency, and the reported driver latency would
839    * become the min latency. */
840   latency = self->v4l2capture->min_buffers * self->v4l2capture->duration;
841   gst_video_encoder_set_latency (encoder, latency, latency);
842
843 done:
844   gst_video_codec_state_unref (state);
845   return ret;
846 }
847
848 static gboolean
849 gst_v4l2_video_enc_propose_allocation (GstVideoEncoder *
850     encoder, GstQuery * query)
851 {
852   GstV4l2VideoEnc *self = GST_V4L2_VIDEO_ENC (encoder);
853   gboolean ret = FALSE;
854
855   GST_DEBUG_OBJECT (self, "called");
856
857   if (query == NULL)
858     ret = TRUE;
859   else
860     ret = gst_v4l2_object_propose_allocation (self->v4l2output, query);
861
862   if (ret)
863     ret = GST_VIDEO_ENCODER_CLASS (parent_class)->propose_allocation (encoder,
864         query);
865
866   return ret;
867 }
868
869 static gboolean
870 gst_v4l2_video_enc_src_query (GstVideoEncoder * encoder, GstQuery * query)
871 {
872   gboolean ret = TRUE;
873   GstV4l2VideoEnc *self = GST_V4L2_VIDEO_ENC (encoder);
874   switch (GST_QUERY_TYPE (query)) {
875     case GST_QUERY_CAPS:{
876       GstCaps *filter, *result = NULL;
877       GstPad *pad = GST_VIDEO_ENCODER_SRC_PAD (encoder);
878
879       gst_query_parse_caps (query, &filter);
880
881       /* FIXME Try and not probe the entire encoder, but only the implement
882        * subclass format */
883       if (self->probed_srccaps) {
884         GstCaps *tmpl = gst_pad_get_pad_template_caps (pad);
885         result = gst_caps_intersect (tmpl, self->probed_srccaps);
886         gst_caps_unref (tmpl);
887       } else
888         result = gst_pad_get_pad_template_caps (pad);
889
890       if (filter) {
891         GstCaps *tmp = result;
892         result =
893             gst_caps_intersect_full (filter, tmp, GST_CAPS_INTERSECT_FIRST);
894         gst_caps_unref (tmp);
895       }
896
897       GST_DEBUG_OBJECT (self, "Returning src caps %" GST_PTR_FORMAT, result);
898
899       gst_query_set_caps_result (query, result);
900       gst_caps_unref (result);
901       break;
902     }
903
904     default:
905       ret = GST_VIDEO_ENCODER_CLASS (parent_class)->src_query (encoder, query);
906       break;
907   }
908
909   return ret;
910 }
911
912 static gboolean
913 gst_v4l2_video_enc_sink_query (GstVideoEncoder * encoder, GstQuery * query)
914 {
915   gboolean ret = TRUE;
916   GstV4l2VideoEnc *self = GST_V4L2_VIDEO_ENC (encoder);
917
918   switch (GST_QUERY_TYPE (query)) {
919     case GST_QUERY_CAPS:{
920       GstCaps *filter, *result = NULL;
921       GstPad *pad = GST_VIDEO_ENCODER_SINK_PAD (encoder);
922
923       gst_query_parse_caps (query, &filter);
924
925       if (self->probed_sinkcaps)
926         result = gst_caps_ref (self->probed_sinkcaps);
927       else
928         result = gst_pad_get_pad_template_caps (pad);
929
930       if (filter) {
931         GstCaps *tmp = result;
932         result =
933             gst_caps_intersect_full (filter, tmp, GST_CAPS_INTERSECT_FIRST);
934         gst_caps_unref (tmp);
935       }
936
937       GST_DEBUG_OBJECT (self, "Returning sink caps %" GST_PTR_FORMAT, result);
938
939       gst_query_set_caps_result (query, result);
940       gst_caps_unref (result);
941       break;
942     }
943
944     default:
945       ret = GST_VIDEO_ENCODER_CLASS (parent_class)->sink_query (encoder, query);
946       break;
947   }
948
949   return ret;
950 }
951
952 static gboolean
953 gst_v4l2_video_enc_sink_event (GstVideoEncoder * encoder, GstEvent * event)
954 {
955   GstV4l2VideoEnc *self = GST_V4L2_VIDEO_ENC (encoder);
956   gboolean ret;
957
958   switch (GST_EVENT_TYPE (event)) {
959     case GST_EVENT_FLUSH_START:
960       GST_DEBUG_OBJECT (self, "flush start");
961       gst_v4l2_object_unlock (self->v4l2output);
962       gst_v4l2_object_unlock (self->v4l2capture);
963       break;
964     default:
965       break;
966   }
967
968   ret = GST_VIDEO_ENCODER_CLASS (parent_class)->sink_event (encoder, event);
969
970   switch (GST_EVENT_TYPE (event)) {
971     case GST_EVENT_FLUSH_START:
972       gst_pad_stop_task (encoder->srcpad);
973       GST_DEBUG_OBJECT (self, "flush start done");
974     default:
975       break;
976   }
977
978   return ret;
979 }
980
981 static GstStateChangeReturn
982 gst_v4l2_video_enc_change_state (GstElement * element,
983     GstStateChange transition)
984 {
985   GstV4l2VideoEnc *self = GST_V4L2_VIDEO_ENC (element);
986
987   if (transition == GST_STATE_CHANGE_PAUSED_TO_READY) {
988     g_atomic_int_set (&self->active, FALSE);
989     gst_v4l2_object_unlock (self->v4l2output);
990     gst_v4l2_object_unlock (self->v4l2capture);
991   }
992
993   return GST_ELEMENT_CLASS (parent_class)->change_state (element, transition);
994 }
995
996
997 static void
998 gst_v4l2_video_enc_dispose (GObject * object)
999 {
1000   GstV4l2VideoEnc *self = GST_V4L2_VIDEO_ENC (object);
1001
1002   gst_caps_replace (&self->probed_sinkcaps, NULL);
1003   gst_caps_replace (&self->probed_srccaps, NULL);
1004
1005   G_OBJECT_CLASS (parent_class)->dispose (object);
1006 }
1007
1008 static void
1009 gst_v4l2_video_enc_finalize (GObject * object)
1010 {
1011   GstV4l2VideoEnc *self = GST_V4L2_VIDEO_ENC (object);
1012
1013   gst_v4l2_object_destroy (self->v4l2capture);
1014   gst_v4l2_object_destroy (self->v4l2output);
1015
1016   G_OBJECT_CLASS (parent_class)->finalize (object);
1017 }
1018
1019
1020 static void
1021 gst_v4l2_video_enc_init (GstV4l2VideoEnc * self)
1022 {
1023   /* V4L2 object are created in subinstance_init */
1024 }
1025
1026 static void
1027 gst_v4l2_video_enc_subinstance_init (GTypeInstance * instance, gpointer g_class)
1028 {
1029   GstV4l2VideoEncClass *klass = GST_V4L2_VIDEO_ENC_CLASS (g_class);
1030   GstV4l2VideoEnc *self = GST_V4L2_VIDEO_ENC (instance);
1031
1032   self->v4l2output = gst_v4l2_object_new (GST_ELEMENT (self),
1033       GST_OBJECT (GST_VIDEO_ENCODER_SINK_PAD (self)),
1034       V4L2_BUF_TYPE_VIDEO_OUTPUT, klass->default_device,
1035       gst_v4l2_get_output, gst_v4l2_set_output, NULL);
1036   self->v4l2output->no_initial_format = TRUE;
1037   self->v4l2output->keep_aspect = FALSE;
1038
1039   self->v4l2capture = gst_v4l2_object_new (GST_ELEMENT (self),
1040       GST_OBJECT (GST_VIDEO_ENCODER_SRC_PAD (self)),
1041       V4L2_BUF_TYPE_VIDEO_CAPTURE, klass->default_device,
1042       gst_v4l2_get_input, gst_v4l2_set_input, NULL);
1043 }
1044
1045 static void
1046 gst_v4l2_video_enc_class_init (GstV4l2VideoEncClass * klass)
1047 {
1048   GstElementClass *element_class;
1049   GObjectClass *gobject_class;
1050   GstVideoEncoderClass *video_encoder_class;
1051
1052   parent_class = g_type_class_peek_parent (klass);
1053
1054   element_class = (GstElementClass *) klass;
1055   gobject_class = (GObjectClass *) klass;
1056   video_encoder_class = (GstVideoEncoderClass *) klass;
1057
1058   GST_DEBUG_CATEGORY_INIT (gst_v4l2_video_enc_debug, "v4l2videoenc", 0,
1059       "V4L2 Video Encoder");
1060
1061   gobject_class->dispose = GST_DEBUG_FUNCPTR (gst_v4l2_video_enc_dispose);
1062   gobject_class->finalize = GST_DEBUG_FUNCPTR (gst_v4l2_video_enc_finalize);
1063   gobject_class->set_property =
1064       GST_DEBUG_FUNCPTR (gst_v4l2_video_enc_set_property);
1065   gobject_class->get_property =
1066       GST_DEBUG_FUNCPTR (gst_v4l2_video_enc_get_property);
1067
1068   video_encoder_class->open = GST_DEBUG_FUNCPTR (gst_v4l2_video_enc_open);
1069   video_encoder_class->close = GST_DEBUG_FUNCPTR (gst_v4l2_video_enc_close);
1070   video_encoder_class->start = GST_DEBUG_FUNCPTR (gst_v4l2_video_enc_start);
1071   video_encoder_class->stop = GST_DEBUG_FUNCPTR (gst_v4l2_video_enc_stop);
1072   video_encoder_class->finish = GST_DEBUG_FUNCPTR (gst_v4l2_video_enc_finish);
1073   video_encoder_class->flush = GST_DEBUG_FUNCPTR (gst_v4l2_video_enc_flush);
1074   video_encoder_class->set_format =
1075       GST_DEBUG_FUNCPTR (gst_v4l2_video_enc_set_format);
1076   video_encoder_class->negotiate =
1077       GST_DEBUG_FUNCPTR (gst_v4l2_video_enc_negotiate);
1078   video_encoder_class->decide_allocation =
1079       GST_DEBUG_FUNCPTR (gst_v4l2_video_enc_decide_allocation);
1080   video_encoder_class->propose_allocation =
1081       GST_DEBUG_FUNCPTR (gst_v4l2_video_enc_propose_allocation);
1082   video_encoder_class->sink_query =
1083       GST_DEBUG_FUNCPTR (gst_v4l2_video_enc_sink_query);
1084   video_encoder_class->src_query =
1085       GST_DEBUG_FUNCPTR (gst_v4l2_video_enc_src_query);
1086   video_encoder_class->sink_event =
1087       GST_DEBUG_FUNCPTR (gst_v4l2_video_enc_sink_event);
1088   video_encoder_class->handle_frame =
1089       GST_DEBUG_FUNCPTR (gst_v4l2_video_enc_handle_frame);
1090
1091   element_class->change_state =
1092       GST_DEBUG_FUNCPTR (gst_v4l2_video_enc_change_state);
1093
1094   gst_v4l2_object_install_m2m_properties_helper (gobject_class);
1095 }
1096
1097 static void
1098 gst_v4l2_video_enc_subclass_init (gpointer g_class, gpointer data)
1099 {
1100   GstV4l2VideoEncClass *klass = GST_V4L2_VIDEO_ENC_CLASS (g_class);
1101   GstElementClass *element_class = GST_ELEMENT_CLASS (g_class);
1102   GstV4l2VideoEncCData *cdata = data;
1103
1104   klass->default_device = cdata->device;
1105
1106   /* Note: gst_pad_template_new() take the floating ref from the caps */
1107   gst_element_class_add_pad_template (element_class,
1108       gst_pad_template_new ("sink", GST_PAD_SINK, GST_PAD_ALWAYS,
1109           cdata->sink_caps));
1110   gst_element_class_add_pad_template (element_class,
1111       gst_pad_template_new ("src", GST_PAD_SRC, GST_PAD_ALWAYS,
1112           cdata->src_caps));
1113
1114   gst_caps_unref (cdata->sink_caps);
1115   gst_caps_unref (cdata->src_caps);
1116   g_free (cdata);
1117 }
1118
1119 /* Probing functions */
1120 gboolean
1121 gst_v4l2_is_video_enc (GstCaps * sink_caps, GstCaps * src_caps,
1122     GstCaps * codec_caps)
1123 {
1124   gboolean ret = FALSE;
1125   gboolean (*check_caps) (const GstCaps *, const GstCaps *);
1126
1127   if (codec_caps) {
1128     check_caps = gst_caps_can_intersect;
1129   } else {
1130     codec_caps = gst_v4l2_object_get_codec_caps ();
1131     check_caps = gst_caps_is_subset;
1132   }
1133
1134   if (gst_caps_is_subset (sink_caps, gst_v4l2_object_get_raw_caps ())
1135       && check_caps (src_caps, codec_caps))
1136     ret = TRUE;
1137
1138   return ret;
1139 }
1140
1141 void
1142 gst_v4l2_video_enc_register (GstPlugin * plugin, GType type,
1143     const char *codec, const gchar * basename, const gchar * device_path,
1144     GstCaps * sink_caps, GstCaps * codec_caps, GstCaps * src_caps)
1145 {
1146   GstCaps *filtered_caps;
1147   GTypeQuery type_query;
1148   GTypeInfo type_info = { 0, };
1149   GType subtype;
1150   gchar *type_name;
1151   GstV4l2VideoEncCData *cdata;
1152
1153   filtered_caps = gst_caps_intersect (src_caps, codec_caps);
1154
1155   cdata = g_new0 (GstV4l2VideoEncCData, 1);
1156   cdata->device = g_strdup (device_path);
1157   cdata->sink_caps = gst_caps_ref (sink_caps);
1158   cdata->src_caps = gst_caps_ref (filtered_caps);
1159
1160   g_type_query (type, &type_query);
1161   memset (&type_info, 0, sizeof (type_info));
1162   type_info.class_size = type_query.class_size;
1163   type_info.instance_size = type_query.instance_size;
1164   type_info.class_init = gst_v4l2_video_enc_subclass_init;
1165   type_info.class_data = cdata;
1166   type_info.instance_init = gst_v4l2_video_enc_subinstance_init;
1167
1168   /* The first encoder to be registered should use a constant name, like
1169    * v4l2h264enc, for any additional encoders, we create unique names. Encoder
1170    * names may change between boots, so this should help gain stable names for
1171    * the most common use cases. */
1172   type_name = g_strdup_printf ("v4l2%senc", codec);
1173
1174   if (g_type_from_name (type_name) != 0) {
1175     g_free (type_name);
1176     type_name = g_strdup_printf ("v4l2%s%senc", basename, codec);
1177   }
1178
1179   subtype = g_type_register_static (type, type_name, &type_info, 0);
1180
1181   if (!gst_element_register (plugin, type_name, GST_RANK_PRIMARY + 1, subtype))
1182     GST_WARNING ("Failed to register plugin '%s'", type_name);
1183
1184   g_free (type_name);
1185 }