First THREADED backport attempt, focusing on adding locks and making sure the API...
[platform/upstream/gstreamer.git] / plugins / elements / gstqueue.c
1 /* GStreamer
2  * Copyright (C) 1999,2000 Erik Walthinsen <omega@cse.ogi.edu>
3  *                    2000 Wim Taymans <wtay@chello.be>
4  *                    2003 Colin Walters <cwalters@gnome.org>
5  *
6  * gstqueue.c:
7  *
8  * This library is free software; you can redistribute it and/or
9  * modify it under the terms of the GNU Library General Public
10  * License as published by the Free Software Foundation; either
11  * version 2 of the License, or (at your option) any later version.
12  *
13  * This library is distributed in the hope that it will be useful,
14  * but WITHOUT ANY WARRANTY; without even the implied warranty of
15  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
16  * Library General Public License for more details.
17  *
18  * You should have received a copy of the GNU Library General Public
19  * License along with this library; if not, write to the
20  * Free Software Foundation, Inc., 59 Temple Place - Suite 330,
21  * Boston, MA 02111-1307, USA.
22  */
23
24
25 #include "gst_private.h"
26
27 #include "gstqueue.h"
28 #include "gstscheduler.h"
29 #include "gstevent.h"
30 #include "gstinfo.h"
31 #include "gsterror.h"
32
33 static GstStaticPadTemplate sinktemplate = GST_STATIC_PAD_TEMPLATE ("sink",
34     GST_PAD_SINK,
35     GST_PAD_ALWAYS,
36     GST_STATIC_CAPS_ANY);
37
38 static GstStaticPadTemplate srctemplate = GST_STATIC_PAD_TEMPLATE ("src",
39     GST_PAD_SRC,
40     GST_PAD_ALWAYS,
41     GST_STATIC_CAPS_ANY);
42
43 GST_DEBUG_CATEGORY_STATIC (queue_dataflow);
44 #define GST_CAT_DEFAULT (queue_dataflow)
45
46 #define STATUS(queue, msg) \
47   GST_CAT_LOG_OBJECT (queue_dataflow, queue, \
48                       "(%s:%s) " msg ": %u of %u-%u buffers, %u of %u-%u " \
49                       "bytes, %" G_GUINT64_FORMAT " of %" G_GUINT64_FORMAT \
50                       "-%" G_GUINT64_FORMAT " ns, %u elements", \
51                       GST_DEBUG_PAD_NAME (pad), \
52                       queue->cur_level.buffers, \
53                       queue->min_threshold.buffers, \
54                       queue->max_size.buffers, \
55                       queue->cur_level.bytes, \
56                       queue->min_threshold.bytes, \
57                       queue->max_size.bytes, \
58                       queue->cur_level.time, \
59                       queue->min_threshold.time, \
60                       queue->max_size.time, \
61                       queue->queue->length)
62
63 static GstElementDetails gst_queue_details = GST_ELEMENT_DETAILS ("Queue",
64     "Generic",
65     "Simple data queue",
66     "Erik Walthinsen <omega@cse.ogi.edu>");
67
68
69 /* Queue signals and args */
70 enum
71 {
72   SIGNAL_UNDERRUN,
73   SIGNAL_RUNNING,
74   SIGNAL_OVERRUN,
75   LAST_SIGNAL
76 };
77
78 enum
79 {
80   ARG_0,
81   /* FIXME: don't we have another way of doing this
82    * "Gstreamer format" (frame/byte/time) queries? */
83   ARG_CUR_LEVEL_BUFFERS,
84   ARG_CUR_LEVEL_BYTES,
85   ARG_CUR_LEVEL_TIME,
86   ARG_MAX_SIZE_BUFFERS,
87   ARG_MAX_SIZE_BYTES,
88   ARG_MAX_SIZE_TIME,
89   ARG_MIN_THRESHOLD_BUFFERS,
90   ARG_MIN_THRESHOLD_BYTES,
91   ARG_MIN_THRESHOLD_TIME,
92   ARG_LEAKY,
93   ARG_MAY_DEADLOCK,
94   ARG_BLOCK_TIMEOUT
95       /* FILL ME */
96 };
97
98 #define GST_QUEUE_MUTEX_LOCK G_STMT_START {                             \
99   GST_CAT_LOG_OBJECT (queue_dataflow, queue,                            \
100       "locking qlock from thread %p",                                   \
101       g_thread_self ());                                                \
102   g_mutex_lock (queue->qlock);                                          \
103   GST_CAT_LOG_OBJECT (queue_dataflow, queue,                            \
104       "locked qlock from thread %p",                                    \
105       g_thread_self ());                                                \
106 } G_STMT_END
107
108 #define GST_QUEUE_MUTEX_UNLOCK G_STMT_START {                           \
109   GST_CAT_LOG_OBJECT (queue_dataflow, queue,                            \
110       "unlocking qlock from thread %p",                                 \
111       g_thread_self ());                                                \
112   g_mutex_unlock (queue->qlock);                                        \
113 } G_STMT_END
114
115
116 typedef struct _GstQueueEventResponse
117 {
118   GstEvent *event;
119   gboolean ret, handled;
120 }
121 GstQueueEventResponse;
122
123 static void gst_queue_base_init (GstQueueClass * klass);
124 static void gst_queue_class_init (GstQueueClass * klass);
125 static void gst_queue_init (GstQueue * queue);
126 static void gst_queue_finalize (GObject * object);
127
128 static void gst_queue_set_property (GObject * object,
129     guint prop_id, const GValue * value, GParamSpec * pspec);
130 static void gst_queue_get_property (GObject * object,
131     guint prop_id, GValue * value, GParamSpec * pspec);
132
133 static void gst_queue_chain (GstPad * pad, GstData * data);
134 static GstData *gst_queue_get (GstPad * pad);
135
136 static gboolean gst_queue_handle_src_event (GstPad * pad, GstEvent * event);
137 static gboolean gst_queue_handle_src_query (GstPad * pad,
138     GstQueryType type, GstFormat * fmt, gint64 * value);
139
140 static GstCaps *gst_queue_getcaps (GstPad * pad);
141 static GstPadLinkReturn
142 gst_queue_link_sink (GstPad * pad, const GstCaps * caps);
143 static GstPadLinkReturn gst_queue_link_src (GstPad * pad, const GstCaps * caps);
144 static void gst_queue_locked_flush (GstQueue * queue);
145
146 static GstElementStateReturn gst_queue_change_state (GstElement * element);
147 static gboolean gst_queue_release_locks (GstElement * element);
148
149
150 #define GST_TYPE_QUEUE_LEAKY (queue_leaky_get_type ())
151
152 static GType
153 queue_leaky_get_type (void)
154 {
155   static GType queue_leaky_type = 0;
156   static GEnumValue queue_leaky[] = {
157     {GST_QUEUE_NO_LEAK, "0", "Not Leaky"},
158     {GST_QUEUE_LEAK_UPSTREAM, "1", "Leaky on Upstream"},
159     {GST_QUEUE_LEAK_DOWNSTREAM, "2", "Leaky on Downstream"},
160     {0, NULL, NULL},
161   };
162
163   if (!queue_leaky_type) {
164     queue_leaky_type = g_enum_register_static ("GstQueueLeaky", queue_leaky);
165   }
166   return queue_leaky_type;
167 }
168
169 static GstElementClass *parent_class = NULL;
170 static guint gst_queue_signals[LAST_SIGNAL] = { 0 };
171
172 GType
173 gst_queue_get_type (void)
174 {
175   static GType queue_type = 0;
176
177   if (!queue_type) {
178     static const GTypeInfo queue_info = {
179       sizeof (GstQueueClass),
180       (GBaseInitFunc) gst_queue_base_init,
181       NULL,
182       (GClassInitFunc) gst_queue_class_init,
183       NULL,
184       NULL,
185       sizeof (GstQueue),
186       0,
187       (GInstanceInitFunc) gst_queue_init,
188       NULL
189     };
190
191     queue_type = g_type_register_static (GST_TYPE_ELEMENT,
192         "GstQueue", &queue_info, 0);
193     GST_DEBUG_CATEGORY_INIT (queue_dataflow, "queue_dataflow", 0,
194         "dataflow inside the queue element");
195   }
196
197   return queue_type;
198 }
199
200 static void
201 gst_queue_base_init (GstQueueClass * klass)
202 {
203   GstElementClass *gstelement_class = GST_ELEMENT_CLASS (klass);
204
205   gst_element_class_add_pad_template (gstelement_class,
206       gst_static_pad_template_get (&srctemplate));
207   gst_element_class_add_pad_template (gstelement_class,
208       gst_static_pad_template_get (&sinktemplate));
209   gst_element_class_set_details (gstelement_class, &gst_queue_details);
210 }
211
212 static void
213 gst_queue_class_init (GstQueueClass * klass)
214 {
215   GObjectClass *gobject_class = G_OBJECT_CLASS (klass);
216   GstElementClass *gstelement_class = GST_ELEMENT_CLASS (klass);
217
218   parent_class = g_type_class_peek_parent (klass);
219
220   /* signals */
221   gst_queue_signals[SIGNAL_UNDERRUN] =
222       g_signal_new ("underrun", G_TYPE_FROM_CLASS (klass), G_SIGNAL_RUN_FIRST,
223       G_STRUCT_OFFSET (GstQueueClass, underrun), NULL, NULL,
224       g_cclosure_marshal_VOID__VOID, G_TYPE_NONE, 0);
225   gst_queue_signals[SIGNAL_RUNNING] =
226       g_signal_new ("running", G_TYPE_FROM_CLASS (klass), G_SIGNAL_RUN_FIRST,
227       G_STRUCT_OFFSET (GstQueueClass, running), NULL, NULL,
228       g_cclosure_marshal_VOID__VOID, G_TYPE_NONE, 0);
229   gst_queue_signals[SIGNAL_OVERRUN] =
230       g_signal_new ("overrun", G_TYPE_FROM_CLASS (klass), G_SIGNAL_RUN_FIRST,
231       G_STRUCT_OFFSET (GstQueueClass, overrun), NULL, NULL,
232       g_cclosure_marshal_VOID__VOID, G_TYPE_NONE, 0);
233
234   /* properties */
235   g_object_class_install_property (gobject_class, ARG_CUR_LEVEL_BYTES,
236       g_param_spec_uint ("current-level-bytes", "Current level (kB)",
237           "Current amount of data in the queue (bytes)",
238           0, G_MAXUINT, 0, G_PARAM_READABLE));
239   g_object_class_install_property (gobject_class, ARG_CUR_LEVEL_BUFFERS,
240       g_param_spec_uint ("current-level-buffers", "Current level (buffers)",
241           "Current number of buffers in the queue",
242           0, G_MAXUINT, 0, G_PARAM_READABLE));
243   g_object_class_install_property (gobject_class, ARG_CUR_LEVEL_TIME,
244       g_param_spec_uint64 ("current-level-time", "Current level (ns)",
245           "Current amount of data in the queue (in ns)",
246           0, G_MAXUINT64, 0, G_PARAM_READABLE));
247
248   g_object_class_install_property (gobject_class, ARG_MAX_SIZE_BYTES,
249       g_param_spec_uint ("max-size-bytes", "Max. size (kB)",
250           "Max. amount of data in the queue (bytes, 0=disable)",
251           0, G_MAXUINT, 0, G_PARAM_READWRITE));
252   g_object_class_install_property (gobject_class, ARG_MAX_SIZE_BUFFERS,
253       g_param_spec_uint ("max-size-buffers", "Max. size (buffers)",
254           "Max. number of buffers in the queue (0=disable)",
255           0, G_MAXUINT, 0, G_PARAM_READWRITE));
256   g_object_class_install_property (gobject_class, ARG_MAX_SIZE_TIME,
257       g_param_spec_uint64 ("max-size-time", "Max. size (ns)",
258           "Max. amount of data in the queue (in ns, 0=disable)",
259           0, G_MAXUINT64, 0, G_PARAM_READWRITE));
260
261   g_object_class_install_property (gobject_class, ARG_MIN_THRESHOLD_BYTES,
262       g_param_spec_uint ("min-threshold-bytes", "Min. threshold (kB)",
263           "Min. amount of data in the queue to allow reading (bytes, 0=disable)",
264           0, G_MAXUINT, 0, G_PARAM_READWRITE));
265   g_object_class_install_property (gobject_class, ARG_MIN_THRESHOLD_BUFFERS,
266       g_param_spec_uint ("min-threshold-buffers", "Min. threshold (buffers)",
267           "Min. number of buffers in the queue to allow reading (0=disable)",
268           0, G_MAXUINT, 0, G_PARAM_READWRITE));
269   g_object_class_install_property (gobject_class, ARG_MIN_THRESHOLD_TIME,
270       g_param_spec_uint64 ("min-threshold-time", "Min. threshold (ns)",
271           "Min. amount of data in the queue to allow reading (in ns, 0=disable)",
272           0, G_MAXUINT64, 0, G_PARAM_READWRITE));
273
274   g_object_class_install_property (gobject_class, ARG_LEAKY,
275       g_param_spec_enum ("leaky", "Leaky",
276           "Where the queue leaks, if at all",
277           GST_TYPE_QUEUE_LEAKY, GST_QUEUE_NO_LEAK, G_PARAM_READWRITE));
278   g_object_class_install_property (gobject_class, ARG_MAY_DEADLOCK,
279       g_param_spec_boolean ("may_deadlock", "May Deadlock",
280           "The queue may deadlock if it's full and not PLAYING",
281           TRUE, G_PARAM_READWRITE));
282   g_object_class_install_property (gobject_class, ARG_BLOCK_TIMEOUT,
283       g_param_spec_uint64 ("block_timeout", "Timeout for Block",
284           "Nanoseconds until blocked queue times out and returns filler event. "
285           "Value of -1 disables timeout",
286           0, G_MAXUINT64, -1, G_PARAM_READWRITE));
287
288   /* set several parent class virtual functions */
289   gobject_class->finalize = GST_DEBUG_FUNCPTR (gst_queue_finalize);
290   gobject_class->set_property = GST_DEBUG_FUNCPTR (gst_queue_set_property);
291   gobject_class->get_property = GST_DEBUG_FUNCPTR (gst_queue_get_property);
292
293   gstelement_class->change_state = GST_DEBUG_FUNCPTR (gst_queue_change_state);
294   gstelement_class->release_locks = GST_DEBUG_FUNCPTR (gst_queue_release_locks);
295 }
296
297 static void
298 gst_queue_init (GstQueue * queue)
299 {
300   /* scheduling on this kind of element is, well, interesting */
301   GST_FLAG_SET (queue, GST_ELEMENT_DECOUPLED);
302   GST_FLAG_SET (queue, GST_ELEMENT_EVENT_AWARE);
303
304   queue->sinkpad =
305       gst_pad_new_from_template (gst_static_pad_template_get (&sinktemplate),
306       "sink");
307   gst_pad_set_chain_function (queue->sinkpad,
308       GST_DEBUG_FUNCPTR (gst_queue_chain));
309   gst_element_add_pad (GST_ELEMENT (queue), queue->sinkpad);
310   gst_pad_set_link_function (queue->sinkpad,
311       GST_DEBUG_FUNCPTR (gst_queue_link_sink));
312   gst_pad_set_getcaps_function (queue->sinkpad,
313       GST_DEBUG_FUNCPTR (gst_queue_getcaps));
314   gst_pad_set_active (queue->sinkpad, TRUE);
315
316   queue->srcpad =
317       gst_pad_new_from_template (gst_static_pad_template_get (&srctemplate),
318       "src");
319   gst_pad_set_get_function (queue->srcpad, GST_DEBUG_FUNCPTR (gst_queue_get));
320   gst_element_add_pad (GST_ELEMENT (queue), queue->srcpad);
321   gst_pad_set_link_function (queue->srcpad,
322       GST_DEBUG_FUNCPTR (gst_queue_link_src));
323   gst_pad_set_getcaps_function (queue->srcpad,
324       GST_DEBUG_FUNCPTR (gst_queue_getcaps));
325   gst_pad_set_event_function (queue->srcpad,
326       GST_DEBUG_FUNCPTR (gst_queue_handle_src_event));
327   gst_pad_set_query_function (queue->srcpad,
328       GST_DEBUG_FUNCPTR (gst_queue_handle_src_query));
329   gst_pad_set_active (queue->srcpad, TRUE);
330
331   queue->cur_level.buffers = 0; /* no content */
332   queue->cur_level.bytes = 0;   /* no content */
333   queue->cur_level.time = 0;    /* no content */
334   queue->max_size.buffers = 100;        /* 100 buffers */
335   queue->max_size.bytes = 10 * 1024 * 1024;     /* 10 MB */
336   queue->max_size.time = GST_SECOND;    /* 1 s. */
337   queue->min_threshold.buffers = 0;     /* no threshold */
338   queue->min_threshold.bytes = 0;       /* no threshold */
339   queue->min_threshold.time = 0;        /* no threshold */
340
341   queue->leaky = GST_QUEUE_NO_LEAK;
342   queue->may_deadlock = TRUE;
343   queue->block_timeout = GST_CLOCK_TIME_NONE;
344   queue->interrupt = FALSE;
345   queue->flush = FALSE;
346
347   queue->qlock = g_mutex_new ();
348   queue->item_add = g_cond_new ();
349   queue->item_del = g_cond_new ();
350   queue->event_done = g_cond_new ();
351   queue->events = g_queue_new ();
352   queue->event_lock = g_mutex_new ();
353   queue->queue = g_queue_new ();
354
355   GST_CAT_DEBUG_OBJECT (GST_CAT_THREAD, queue,
356       "initialized queue's not_empty & not_full conditions");
357 }
358
359 /* called only once, as opposed to dispose */
360 static void
361 gst_queue_finalize (GObject * object)
362 {
363   GstQueue *queue = GST_QUEUE (object);
364
365   GST_DEBUG_OBJECT (queue, "finalizing queue");
366
367   while (!g_queue_is_empty (queue->queue)) {
368     GstData *data = g_queue_pop_head (queue->queue);
369
370     gst_data_unref (data);
371   }
372   g_queue_free (queue->queue);
373   g_mutex_free (queue->qlock);
374   g_cond_free (queue->item_add);
375   g_cond_free (queue->item_del);
376   g_cond_free (queue->event_done);
377   g_mutex_lock (queue->event_lock);
378   while (!g_queue_is_empty (queue->events)) {
379     GstQueueEventResponse *er = g_queue_pop_head (queue->events);
380
381     gst_event_unref (er->event);
382   }
383   g_mutex_unlock (queue->event_lock);
384   g_mutex_free (queue->event_lock);
385   g_queue_free (queue->events);
386
387   if (G_OBJECT_CLASS (parent_class)->finalize)
388     G_OBJECT_CLASS (parent_class)->finalize (object);
389 }
390
391 static GstCaps *
392 gst_queue_getcaps (GstPad * pad)
393 {
394   GstQueue *queue;
395
396   queue = GST_QUEUE (gst_pad_get_parent (pad));
397
398   if (pad == queue->srcpad && queue->cur_level.bytes > 0) {
399     return gst_caps_copy (queue->negotiated_caps);
400   }
401
402   return gst_pad_proxy_getcaps (pad);
403 }
404
405 static GstPadLinkReturn
406 gst_queue_link_sink (GstPad * pad, const GstCaps * caps)
407 {
408   GstQueue *queue;
409   GstPadLinkReturn link_ret;
410
411   queue = GST_QUEUE (gst_pad_get_parent (pad));
412
413   if (queue->cur_level.bytes > 0) {
414     if (gst_caps_is_equal (caps, queue->negotiated_caps)) {
415       return GST_PAD_LINK_OK;
416     } else if (GST_STATE (queue) != GST_STATE_PLAYING) {
417       return GST_PAD_LINK_DELAYED;
418     }
419
420     /* Wait until the queue is empty before attempting the pad
421        negotiation. */
422     GST_QUEUE_MUTEX_LOCK;
423
424     STATUS (queue, "waiting for queue to get empty");
425     while (queue->cur_level.bytes > 0) {
426       g_cond_wait (queue->item_del, queue->qlock);
427       if (queue->interrupt) {
428         GST_QUEUE_MUTEX_UNLOCK;
429         return GST_PAD_LINK_DELAYED;
430       }
431     }
432     STATUS (queue, "queue is now empty");
433
434     GST_QUEUE_MUTEX_UNLOCK;
435   }
436
437   link_ret = GST_PAD_LINK_OK;
438 #if 0
439   link_ret = gst_pad_proxy_pad_link (pad, caps);
440
441   if (GST_PAD_LINK_SUCCESSFUL (link_ret)) {
442     /* we store an extra copy of the negotiated caps, just in case
443      * the pads become unnegotiated while we have buffers */
444     gst_caps_replace (&queue->negotiated_caps, gst_caps_copy (caps));
445   }
446 #endif
447
448   return link_ret;
449 }
450
451 static GstPadLinkReturn
452 gst_queue_link_src (GstPad * pad, const GstCaps * caps)
453 {
454   GstQueue *queue;
455   GstPadLinkReturn link_ret;
456
457   queue = GST_QUEUE (gst_pad_get_parent (pad));
458
459   if (queue->cur_level.bytes > 0) {
460     if (gst_caps_is_equal (caps, queue->negotiated_caps)) {
461       return GST_PAD_LINK_OK;
462     }
463     return GST_PAD_LINK_REFUSED;
464   }
465 #if 0
466   link_ret = gst_pad_proxy_pad_link (pad, caps);
467 #endif
468   link_ret = GST_PAD_LINK_OK;
469
470   if (GST_PAD_LINK_SUCCESSFUL (link_ret)) {
471     /* we store an extra copy of the negotiated caps, just in case
472      * the pads become unnegotiated while we have buffers */
473     gst_caps_replace (&queue->negotiated_caps, gst_caps_copy (caps));
474   }
475
476   return link_ret;
477 }
478
479 static void
480 gst_queue_locked_flush (GstQueue * queue)
481 {
482   while (!g_queue_is_empty (queue->queue)) {
483     GstData *data = g_queue_pop_head (queue->queue);
484
485     /* First loose the reference we added when putting that data in the queue */
486     gst_data_unref (data);
487     /* Then loose another reference because we are supposed to destroy that
488        data when flushing */
489     gst_data_unref (data);
490   }
491   queue->timeval = NULL;
492   queue->cur_level.buffers = 0;
493   queue->cur_level.bytes = 0;
494   queue->cur_level.time = 0;
495
496   /* make sure any pending buffers to be added are flushed too */
497   queue->flush = TRUE;
498
499   /* we deleted something... */
500   g_cond_signal (queue->item_del);
501 }
502
503 static void
504 gst_queue_handle_pending_events (GstQueue * queue)
505 {
506   /* check for events to send upstream */
507   /* g_queue_get_length is glib 2.4, so don't depend on it yet, use ->length */
508   GST_CAT_DEBUG_OBJECT (queue_dataflow, queue,
509       "handling pending events, events queue of size %d",
510       queue->events->length);
511   g_mutex_lock (queue->event_lock);
512   while (!g_queue_is_empty (queue->events)) {
513     GstQueueEventResponse *er;
514
515     er = g_queue_pop_head (queue->events);
516
517     GST_CAT_DEBUG_OBJECT (queue_dataflow, queue,
518         "sending event %p (%d) from event response %p upstream",
519         er->event, GST_EVENT_TYPE (er->event), er);
520     if (er->handled) {
521       /* change this to an assert when this file gets reviewed properly. */
522       GST_ELEMENT_ERROR (queue, CORE, EVENT, (NULL),
523           ("already handled event %p (%d) from event response %p upstream",
524               er->event, GST_EVENT_TYPE (er->event), er));
525       break;
526     }
527     g_mutex_unlock (queue->event_lock);
528     er->ret = gst_pad_event_default (queue->srcpad, er->event);
529     er->handled = TRUE;
530     g_cond_signal (queue->event_done);
531     g_mutex_lock (queue->event_lock);
532     GST_CAT_DEBUG_OBJECT (queue_dataflow, queue, "event sent");
533   }
534   g_mutex_unlock (queue->event_lock);
535 }
536
537 static void
538 gst_queue_chain (GstPad * pad, GstData * data)
539 {
540   GstQueue *queue;
541
542   g_return_if_fail (pad != NULL);
543   g_return_if_fail (GST_IS_PAD (pad));
544   g_return_if_fail (data != NULL);
545
546   queue = GST_QUEUE (GST_OBJECT_PARENT (pad));
547
548 restart:
549   /* we have to lock the queue since we span threads */
550   GST_QUEUE_MUTEX_LOCK;
551
552   gst_queue_handle_pending_events (queue);
553
554   /* assume don't need to flush this buffer when the queue is filled */
555   queue->flush = FALSE;
556
557   if (GST_IS_EVENT (data)) {
558     switch (GST_EVENT_TYPE (data)) {
559       case GST_EVENT_FLUSH:
560         STATUS (queue, "received flush event");
561         gst_queue_locked_flush (queue);
562         STATUS (queue, "after flush");
563         break;
564       case GST_EVENT_EOS:
565         STATUS (queue, "received EOS");
566         break;
567       default:
568         /* we put the event in the queue, we don't have to act ourselves */
569         GST_CAT_LOG_OBJECT (queue_dataflow, queue,
570             "adding event %p of type %d", data, GST_EVENT_TYPE (data));
571         break;
572     }
573   }
574
575   if (GST_IS_BUFFER (data))
576     GST_CAT_LOG_OBJECT (queue_dataflow, queue,
577         "adding buffer %p of size %d", data, GST_BUFFER_SIZE (data));
578
579   /* We make space available if we're "full" according to whatever
580    * the user defined as "full". Note that this only applies to buffers.
581    * We always handle events and they don't count in our statistics. */
582   if (GST_IS_BUFFER (data) &&
583       ((queue->max_size.buffers > 0 &&
584               queue->cur_level.buffers >= queue->max_size.buffers) ||
585           (queue->max_size.bytes > 0 &&
586               queue->cur_level.bytes >= queue->max_size.bytes) ||
587           (queue->max_size.time > 0 &&
588               queue->cur_level.time >= queue->max_size.time))) {
589     GST_QUEUE_MUTEX_UNLOCK;
590     g_signal_emit (G_OBJECT (queue), gst_queue_signals[SIGNAL_OVERRUN], 0);
591     GST_QUEUE_MUTEX_LOCK;
592
593     /* how are we going to make space for this buffer? */
594     switch (queue->leaky) {
595         /* leak current buffer */
596       case GST_QUEUE_LEAK_UPSTREAM:
597         GST_CAT_DEBUG_OBJECT (queue_dataflow, queue,
598             "queue is full, leaking buffer on upstream end");
599         /* now we can clean up and exit right away */
600         GST_QUEUE_MUTEX_UNLOCK;
601         goto out_unref;
602
603         /* leak first buffer in the queue */
604       case GST_QUEUE_LEAK_DOWNSTREAM:{
605         /* this is a bit hacky. We'll manually iterate the list
606          * and find the first buffer from the head on. We'll
607          * unref that and "fix up" the GQueue object... */
608         GList *item;
609         GstData *leak = NULL;
610
611         GST_CAT_DEBUG_OBJECT (queue_dataflow, queue,
612             "queue is full, leaking buffer on downstream end");
613
614         for (item = queue->queue->head; item != NULL; item = item->next) {
615           if (GST_IS_BUFFER (item->data)) {
616             leak = item->data;
617             break;
618           }
619         }
620
621         /* if we didn't find anything, it means we have no buffers
622          * in here. That cannot happen, since we had >= 1 bufs */
623         g_assert (leak);
624
625         /* Now remove it from the list, fixing up the GQueue
626          * CHECKME: is a queue->head the first or the last item? */
627         item = g_list_delete_link (queue->queue->head, item);
628         queue->queue->head = g_list_first (item);
629         queue->queue->tail = g_list_last (item);
630         queue->queue->length--;
631
632         /* and unref the data at the end. Twice, because we keep a ref
633          * to make things read-only. Also keep our list uptodate. */
634         queue->cur_level.bytes -= GST_BUFFER_SIZE (data);
635         queue->cur_level.buffers--;
636         if (GST_BUFFER_DURATION (data) != GST_CLOCK_TIME_NONE)
637           queue->cur_level.time -= GST_BUFFER_DURATION (data);
638
639         gst_data_unref (data);
640         gst_data_unref (data);
641         break;
642       }
643
644       default:
645         g_warning ("Unknown leaky type, using default");
646         /* fall-through */
647
648         /* don't leak. Instead, wait for space to be available */
649       case GST_QUEUE_NO_LEAK:
650         STATUS (queue, "pre-full wait");
651
652         while ((queue->max_size.buffers > 0 &&
653                 queue->cur_level.buffers >= queue->max_size.buffers) ||
654             (queue->max_size.bytes > 0 &&
655                 queue->cur_level.bytes >= queue->max_size.bytes) ||
656             (queue->max_size.time > 0 &&
657                 queue->cur_level.time >= queue->max_size.time)) {
658           /* if there's a pending state change for this queue
659            * or its manager, switch back to iterator so bottom
660            * half of state change executes */
661           if (queue->interrupt) {
662             GstScheduler *sched;
663
664             GST_CAT_DEBUG_OBJECT (queue_dataflow, queue, "interrupted");
665             queue->interrupt = FALSE;
666             GST_QUEUE_MUTEX_UNLOCK;
667             sched = gst_pad_get_scheduler (queue->sinkpad);
668             if (!sched || gst_scheduler_interrupt (sched, GST_ELEMENT (queue))) {
669               goto out_unref;
670             }
671             /* if we got here because we were unlocked after a
672              * flush, we don't need to add the buffer to the
673              * queue again */
674             if (queue->flush) {
675               GST_CAT_DEBUG_OBJECT (queue_dataflow, queue,
676                   "not adding pending buffer after flush");
677               goto out_unref;
678             }
679             GST_CAT_DEBUG_OBJECT (queue_dataflow, queue,
680                 "adding pending buffer after interrupt");
681             goto restart;
682           }
683
684           if (GST_STATE (queue) != GST_STATE_PLAYING) {
685             /* this means the other end is shut down. Try to
686              * signal to resolve the error */
687             if (!queue->may_deadlock) {
688               GST_QUEUE_MUTEX_UNLOCK;
689               gst_data_unref (data);
690               GST_ELEMENT_ERROR (queue, CORE, THREAD, (NULL),
691                   ("deadlock found, shutting down source pad elements"));
692               /* we don't go to out_unref here, since we want to
693                * unref the buffer *before* calling GST_ELEMENT_ERROR */
694               return;
695             } else {
696               GST_CAT_WARNING_OBJECT (queue_dataflow, queue,
697                   "%s: waiting for the app to restart "
698                   "source pad elements", GST_ELEMENT_NAME (queue));
699             }
700           }
701
702           /* OK, we've got a serious issue here. Imagine the situation
703            * where the puller (next element) is sending an event here,
704            * so it cannot pull events from the queue, and we cannot
705            * push data further because the queue is 'full' and therefore,
706            * we wait here (and do not handle events): deadlock! to solve
707            * that, we handle pending upstream events here, too. */
708           gst_queue_handle_pending_events (queue);
709
710           STATUS (queue, "waiting for item_del signal from thread using qlock");
711           g_cond_wait (queue->item_del, queue->qlock);
712           STATUS (queue, "received item_del signal from thread using qlock");
713         }
714
715         STATUS (queue, "post-full wait");
716         GST_QUEUE_MUTEX_UNLOCK;
717         g_signal_emit (G_OBJECT (queue), gst_queue_signals[SIGNAL_RUNNING], 0);
718         GST_QUEUE_MUTEX_LOCK;
719         break;
720     }
721   }
722
723   /* put the buffer on the tail of the list. We keep a reference,
724    * so that the data is read-only while in here. There's a good
725    * reason to do so: we have a size and time counter, and any
726    * modification to the content could change any of the two. */
727   gst_data_ref (data);
728   g_queue_push_tail (queue->queue, data);
729
730   /* Note that we only add buffers (not events) to the statistics */
731   if (GST_IS_BUFFER (data)) {
732     queue->cur_level.buffers++;
733     queue->cur_level.bytes += GST_BUFFER_SIZE (data);
734     if (GST_BUFFER_DURATION (data) != GST_CLOCK_TIME_NONE)
735       queue->cur_level.time += GST_BUFFER_DURATION (data);
736   }
737
738   STATUS (queue, "+ level");
739
740   GST_CAT_LOG_OBJECT (queue_dataflow, queue, "signalling item_add");
741   g_cond_signal (queue->item_add);
742   GST_QUEUE_MUTEX_UNLOCK;
743
744   return;
745
746 out_unref:
747   gst_data_unref (data);
748   return;
749 }
750
751 static GstData *
752 gst_queue_get (GstPad * pad)
753 {
754   GstQueue *queue;
755   GstData *data;
756
757   g_return_val_if_fail (pad != NULL, NULL);
758   g_return_val_if_fail (GST_IS_PAD (pad), NULL);
759
760   queue = GST_QUEUE (gst_pad_get_parent (pad));
761
762 restart:
763   /* have to lock for thread-safety */
764   GST_QUEUE_MUTEX_LOCK;
765
766   if (queue->queue->length == 0 ||
767       (queue->min_threshold.buffers > 0 &&
768           queue->cur_level.buffers < queue->min_threshold.buffers) ||
769       (queue->min_threshold.bytes > 0 &&
770           queue->cur_level.bytes < queue->min_threshold.bytes) ||
771       (queue->min_threshold.time > 0 &&
772           queue->cur_level.time < queue->min_threshold.time)) {
773     GST_QUEUE_MUTEX_UNLOCK;
774     g_signal_emit (G_OBJECT (queue), gst_queue_signals[SIGNAL_UNDERRUN], 0);
775     GST_QUEUE_MUTEX_LOCK;
776
777     STATUS (queue, "pre-empty wait");
778     while (queue->queue->length == 0 ||
779         (queue->min_threshold.buffers > 0 &&
780             queue->cur_level.buffers < queue->min_threshold.buffers) ||
781         (queue->min_threshold.bytes > 0 &&
782             queue->cur_level.bytes < queue->min_threshold.bytes) ||
783         (queue->min_threshold.time > 0 &&
784             queue->cur_level.time < queue->min_threshold.time)) {
785       /* if there's a pending state change for this queue or its
786        * manager, switch back to iterator so bottom half of state
787        * change executes. */
788       if (queue->interrupt) {
789         GstScheduler *sched;
790
791         GST_CAT_DEBUG_OBJECT (queue_dataflow, queue, "interrupted");
792         queue->interrupt = FALSE;
793         GST_QUEUE_MUTEX_UNLOCK;
794         sched = gst_pad_get_scheduler (queue->srcpad);
795         if (!sched || gst_scheduler_interrupt (sched, GST_ELEMENT (queue)))
796           return GST_DATA (gst_event_new (GST_EVENT_INTERRUPT));
797         goto restart;
798       }
799       if (GST_STATE (queue) != GST_STATE_PLAYING) {
800         /* this means the other end is shut down */
801         if (!queue->may_deadlock) {
802           GST_QUEUE_MUTEX_UNLOCK;
803           GST_ELEMENT_ERROR (queue, CORE, THREAD, (NULL),
804               ("deadlock found, shutting down sink pad elements"));
805           goto restart;
806         } else {
807           GST_CAT_WARNING_OBJECT (queue_dataflow, queue,
808               "%s: waiting for the app to restart "
809               "source pad elements", GST_ELEMENT_NAME (queue));
810         }
811       }
812
813       STATUS (queue, "waiting for item_add");
814
815       if (queue->block_timeout != GST_CLOCK_TIME_NONE) {
816         GTimeVal timeout;
817
818         g_get_current_time (&timeout);
819         g_time_val_add (&timeout, queue->block_timeout / 1000);
820         GST_LOG_OBJECT (queue, "g_cond_time_wait using qlock from thread %p",
821             g_thread_self ());
822         if (!g_cond_timed_wait (queue->item_add, queue->qlock, &timeout)) {
823           GST_QUEUE_MUTEX_UNLOCK;
824           GST_CAT_WARNING_OBJECT (queue_dataflow, queue,
825               "Sending filler event");
826           return GST_DATA (gst_event_new_filler ());
827         }
828       } else {
829         GST_LOG_OBJECT (queue, "doing g_cond_wait using qlock from thread %p",
830             g_thread_self ());
831         g_cond_wait (queue->item_add, queue->qlock);
832         GST_LOG_OBJECT (queue, "done g_cond_wait using qlock from thread %p",
833             g_thread_self ());
834       }
835       STATUS (queue, "got item_add signal");
836     }
837
838     STATUS (queue, "post-empty wait");
839     GST_QUEUE_MUTEX_UNLOCK;
840     g_signal_emit (G_OBJECT (queue), gst_queue_signals[SIGNAL_RUNNING], 0);
841     GST_QUEUE_MUTEX_LOCK;
842   }
843
844   /* There's something in the list now, whatever it is */
845   data = g_queue_pop_head (queue->queue);
846   GST_CAT_LOG_OBJECT (queue_dataflow, queue,
847       "retrieved data %p from queue", data);
848
849   if (data == NULL)
850     return NULL;
851
852   if (GST_IS_BUFFER (data)) {
853     /* Update statistics */
854     queue->cur_level.buffers--;
855     queue->cur_level.bytes -= GST_BUFFER_SIZE (data);
856     if (GST_BUFFER_DURATION (data) != GST_CLOCK_TIME_NONE)
857       queue->cur_level.time -= GST_BUFFER_DURATION (data);
858   }
859
860   /* Now that we're done, we can lose our own reference to
861    * the item, since we're no longer in danger. */
862   gst_data_unref (data);
863
864   STATUS (queue, "after _get()");
865
866   GST_CAT_LOG_OBJECT (queue_dataflow, queue, "signalling item_del");
867   g_cond_signal (queue->item_del);
868   GST_QUEUE_MUTEX_UNLOCK;
869
870   /* FIXME: I suppose this needs to be locked, since the EOS
871    * bit affects the pipeline state. However, that bit is
872    * locked too so it'd cause a deadlock. */
873   if (GST_IS_EVENT (data)) {
874     GstEvent *event = GST_EVENT (data);
875
876     switch (GST_EVENT_TYPE (event)) {
877       case GST_EVENT_EOS:
878         GST_CAT_DEBUG_OBJECT (queue_dataflow, queue,
879             "queue \"%s\" eos", GST_ELEMENT_NAME (queue));
880         gst_element_set_eos (GST_ELEMENT (queue));
881         break;
882       default:
883         break;
884     }
885   }
886
887   return data;
888 }
889
890
891 static gboolean
892 gst_queue_handle_src_event (GstPad * pad, GstEvent * event)
893 {
894   GstQueue *queue = GST_QUEUE (gst_pad_get_parent (pad));
895   gboolean res;
896
897   GST_CAT_DEBUG_OBJECT (queue_dataflow, queue, "got event %p (%d)",
898       event, GST_EVENT_TYPE (event));
899   GST_QUEUE_MUTEX_LOCK;
900
901   if (gst_element_get_state (GST_ELEMENT (queue)) == GST_STATE_PLAYING) {
902     GstQueueEventResponse er;
903
904     /* push the event to the queue and wait for upstream consumption */
905     er.event = event;
906     er.handled = FALSE;
907     g_mutex_lock (queue->event_lock);
908     GST_CAT_DEBUG_OBJECT (queue_dataflow, queue,
909         "putting event %p (%d) on internal queue", event,
910         GST_EVENT_TYPE (event));
911     g_queue_push_tail (queue->events, &er);
912     g_mutex_unlock (queue->event_lock);
913     GST_CAT_WARNING_OBJECT (queue_dataflow, queue,
914         "Preparing for loop for event handler");
915     /* see the chain function on why this is here - it prevents a deadlock */
916     g_cond_signal (queue->item_del);
917     while (!er.handled) {
918       GTimeVal timeout;
919
920       g_get_current_time (&timeout);
921       g_time_val_add (&timeout, 500 * 1000);    /* half a second */
922       GST_LOG_OBJECT (queue, "doing g_cond_wait using qlock from thread %p",
923           g_thread_self ());
924       if (!g_cond_timed_wait (queue->event_done, queue->qlock, &timeout) &&
925           !er.handled) {
926         GST_CAT_WARNING_OBJECT (queue_dataflow, queue,
927             "timeout in upstream event handling, dropping event %p (%d)",
928             er.event, GST_EVENT_TYPE (er.event));
929         g_mutex_lock (queue->event_lock);
930         /* since this queue is for src events (ie upstream), this thread is
931          * the only one that is pushing stuff on it, so we're sure that
932          * it's still the tail element.  FIXME: But in practice, we should use
933          * GList instead of GQueue for this so we can remove any element in
934          * the list. */
935         g_queue_pop_tail (queue->events);
936         g_mutex_unlock (queue->event_lock);
937         gst_event_unref (er.event);
938         res = FALSE;
939         goto handled;
940       }
941     }
942     GST_CAT_WARNING_OBJECT (queue_dataflow, queue, "Event handled");
943     res = er.ret;
944   } else {
945     res = gst_pad_event_default (pad, event);
946
947     switch (GST_EVENT_TYPE (event)) {
948       case GST_EVENT_FLUSH:
949         GST_CAT_DEBUG_OBJECT (queue_dataflow, queue,
950             "FLUSH event, flushing queue\n");
951         gst_queue_locked_flush (queue);
952         break;
953       case GST_EVENT_SEEK:
954         if (GST_EVENT_SEEK_FLAGS (event) & GST_SEEK_FLAG_FLUSH) {
955           gst_queue_locked_flush (queue);
956         }
957       default:
958         break;
959     }
960   }
961 handled:
962   GST_QUEUE_MUTEX_UNLOCK;
963
964   return res;
965 }
966
967 static gboolean
968 gst_queue_handle_src_query (GstPad * pad,
969     GstQueryType type, GstFormat * fmt, gint64 * value)
970 {
971   GstQueue *queue = GST_QUEUE (gst_pad_get_parent (pad));
972   gboolean res;
973
974   if (!GST_PAD_PEER (queue->sinkpad))
975     return FALSE;
976   res = gst_pad_query (GST_PAD_PEER (queue->sinkpad), type, fmt, value);
977   if (!res)
978     return FALSE;
979
980   if (type == GST_QUERY_POSITION) {
981     /* FIXME: this code assumes that there's no discont in the queue */
982     switch (*fmt) {
983       case GST_FORMAT_BYTES:
984         *value -= queue->cur_level.bytes;
985         break;
986       case GST_FORMAT_TIME:
987         *value -= queue->cur_level.time;
988         break;
989       default:
990         /* FIXME */
991         break;
992     }
993   }
994
995   return TRUE;
996 }
997
998 static gboolean
999 gst_queue_release_locks (GstElement * element)
1000 {
1001   GstQueue *queue;
1002
1003   queue = GST_QUEUE (element);
1004
1005   GST_QUEUE_MUTEX_LOCK;
1006   queue->interrupt = TRUE;
1007   g_cond_signal (queue->item_add);
1008   g_cond_signal (queue->item_del);
1009   GST_QUEUE_MUTEX_UNLOCK;
1010
1011   return TRUE;
1012 }
1013
1014 static GstElementStateReturn
1015 gst_queue_change_state (GstElement * element)
1016 {
1017   GstQueue *queue;
1018   GstElementStateReturn ret = GST_STATE_SUCCESS;
1019
1020   queue = GST_QUEUE (element);
1021
1022   GST_CAT_LOG_OBJECT (GST_CAT_STATES, element,
1023       "starting state change 0x%x", GST_STATE_TRANSITION (element));
1024
1025   /* lock the queue so another thread (not in sync with this thread's state)
1026    * can't call this queue's _get (or whatever)
1027    */
1028   GST_QUEUE_MUTEX_LOCK;
1029
1030   switch (GST_STATE_TRANSITION (element)) {
1031     case GST_STATE_NULL_TO_READY:
1032       gst_queue_locked_flush (queue);
1033       break;
1034     case GST_STATE_PAUSED_TO_PLAYING:
1035       if (!GST_PAD_IS_LINKED (queue->sinkpad)) {
1036         GST_CAT_DEBUG_OBJECT (GST_CAT_STATES, queue,
1037             "queue %s is not linked", GST_ELEMENT_NAME (queue));
1038         /* FIXME can this be? */
1039         g_cond_signal (queue->item_add);
1040
1041         ret = GST_STATE_FAILURE;
1042         goto unlock;
1043       } else {
1044         GstScheduler *src_sched, *sink_sched;
1045
1046         src_sched = gst_pad_get_scheduler (GST_PAD (queue->srcpad));
1047         sink_sched = gst_pad_get_scheduler (GST_PAD (queue->sinkpad));
1048
1049         if (src_sched == sink_sched) {
1050           GST_CAT_DEBUG_OBJECT (GST_CAT_STATES, queue,
1051               "queue %s does not connect different schedulers",
1052               GST_ELEMENT_NAME (queue));
1053
1054           g_warning ("queue %s does not connect different schedulers",
1055               GST_ELEMENT_NAME (queue));
1056
1057           ret = GST_STATE_FAILURE;
1058           goto unlock;
1059         }
1060       }
1061       queue->interrupt = FALSE;
1062       break;
1063     case GST_STATE_PAUSED_TO_READY:
1064       gst_queue_locked_flush (queue);
1065       gst_caps_replace (&queue->negotiated_caps, NULL);
1066       break;
1067     default:
1068       break;
1069   }
1070
1071   GST_QUEUE_MUTEX_UNLOCK;
1072
1073   if (GST_ELEMENT_CLASS (parent_class)->change_state)
1074     ret = GST_ELEMENT_CLASS (parent_class)->change_state (element);
1075
1076   /* this is an ugly hack to make sure our pads are always active.
1077    * Reason for this is that pad activation for the queue element
1078    * depends on 2 schedulers (ugh) */
1079   gst_pad_set_active (queue->sinkpad, TRUE);
1080   gst_pad_set_active (queue->srcpad, TRUE);
1081
1082   GST_CAT_LOG_OBJECT (GST_CAT_STATES, element, "done with state change");
1083
1084   return ret;
1085
1086 unlock:
1087   GST_QUEUE_MUTEX_UNLOCK;
1088
1089   GST_CAT_LOG_OBJECT (GST_CAT_STATES, element, "done with state change");
1090
1091   return ret;
1092 }
1093
1094
1095 static void
1096 gst_queue_set_property (GObject * object,
1097     guint prop_id, const GValue * value, GParamSpec * pspec)
1098 {
1099   GstQueue *queue = GST_QUEUE (object);
1100
1101   /* someone could change levels here, and since this
1102    * affects the get/put funcs, we need to lock for safety. */
1103   GST_QUEUE_MUTEX_LOCK;
1104
1105   switch (prop_id) {
1106     case ARG_MAX_SIZE_BYTES:
1107       queue->max_size.bytes = g_value_get_uint (value);
1108       break;
1109     case ARG_MAX_SIZE_BUFFERS:
1110       queue->max_size.buffers = g_value_get_uint (value);
1111       break;
1112     case ARG_MAX_SIZE_TIME:
1113       queue->max_size.time = g_value_get_uint64 (value);
1114       break;
1115     case ARG_MIN_THRESHOLD_BYTES:
1116       queue->min_threshold.bytes = g_value_get_uint (value);
1117       break;
1118     case ARG_MIN_THRESHOLD_BUFFERS:
1119       queue->min_threshold.buffers = g_value_get_uint (value);
1120       break;
1121     case ARG_MIN_THRESHOLD_TIME:
1122       queue->min_threshold.time = g_value_get_uint64 (value);
1123       break;
1124     case ARG_LEAKY:
1125       queue->leaky = g_value_get_enum (value);
1126       break;
1127     case ARG_MAY_DEADLOCK:
1128       queue->may_deadlock = g_value_get_boolean (value);
1129       break;
1130     case ARG_BLOCK_TIMEOUT:
1131       queue->block_timeout = g_value_get_uint64 (value);
1132       break;
1133     default:
1134       G_OBJECT_WARN_INVALID_PROPERTY_ID (object, prop_id, pspec);
1135       break;
1136   }
1137
1138   GST_QUEUE_MUTEX_UNLOCK;
1139 }
1140
1141 static void
1142 gst_queue_get_property (GObject * object,
1143     guint prop_id, GValue * value, GParamSpec * pspec)
1144 {
1145   GstQueue *queue = GST_QUEUE (object);
1146
1147   switch (prop_id) {
1148     case ARG_CUR_LEVEL_BYTES:
1149       g_value_set_uint (value, queue->cur_level.bytes);
1150       break;
1151     case ARG_CUR_LEVEL_BUFFERS:
1152       g_value_set_uint (value, queue->cur_level.buffers);
1153       break;
1154     case ARG_CUR_LEVEL_TIME:
1155       g_value_set_uint64 (value, queue->cur_level.time);
1156       break;
1157     case ARG_MAX_SIZE_BYTES:
1158       g_value_set_uint (value, queue->max_size.bytes);
1159       break;
1160     case ARG_MAX_SIZE_BUFFERS:
1161       g_value_set_uint (value, queue->max_size.buffers);
1162       break;
1163     case ARG_MAX_SIZE_TIME:
1164       g_value_set_uint64 (value, queue->max_size.time);
1165       break;
1166     case ARG_MIN_THRESHOLD_BYTES:
1167       g_value_set_uint (value, queue->min_threshold.bytes);
1168       break;
1169     case ARG_MIN_THRESHOLD_BUFFERS:
1170       g_value_set_uint (value, queue->min_threshold.buffers);
1171       break;
1172     case ARG_MIN_THRESHOLD_TIME:
1173       g_value_set_uint64 (value, queue->min_threshold.time);
1174       break;
1175     case ARG_LEAKY:
1176       g_value_set_enum (value, queue->leaky);
1177       break;
1178     case ARG_MAY_DEADLOCK:
1179       g_value_set_boolean (value, queue->may_deadlock);
1180       break;
1181     case ARG_BLOCK_TIMEOUT:
1182       g_value_set_uint64 (value, queue->block_timeout);
1183       break;
1184     default:
1185       G_OBJECT_WARN_INVALID_PROPERTY_ID (object, prop_id, pspec);
1186       break;
1187   }
1188 }