wasapi: Add a property for trying the AudioClient3 API
[platform/upstream/gstreamer.git] / sys / wasapi / gstwasapisink.c
1 /*
2  * Copyright (C) 2008 Ole André Vadla Ravnås <ole.andre.ravnas@tandberg.com>
3  * Copyright (C) 2013 Collabora Ltd.
4  *   Author: Sebastian Dröge <sebastian.droege@collabora.co.uk>
5  * Copyright (C) 2018 Centricular Ltd.
6  *   Author: Nirbheek Chauhan <nirbheek@centricular.com>
7  *
8  * This library is free software; you can redistribute it and/or
9  * modify it under the terms of the GNU Library General Public
10  * License as published by the Free Software Foundation; either
11  * version 2 of the License, or (at your option) any later version.
12  *
13  * This library is distributed in the hope that it will be useful,
14  * but WITHOUT ANY WARRANTY; without even the implied warranty of
15  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
16  * Library General Public License for more details.
17  *
18  * You should have received a copy of the GNU Library General Public
19  * License along with this library; if not, write to the
20  * Free Software Foundation, Inc., 51 Franklin St, Fifth Floor,
21  * Boston, MA 02110-1301, USA.
22  */
23
24 /**
25  * SECTION:element-wasapisink
26  * @title: wasapisink
27  *
28  * Provides audio playback using the Windows Audio Session API available with
29  * Vista and newer.
30  *
31  * ## Example pipelines
32  * |[
33  * gst-launch-1.0 -v audiotestsrc samplesperbuffer=160 ! wasapisink
34  * ]| Generate 20 ms buffers and render to the default audio device.
35  *
36  */
37 #ifdef HAVE_CONFIG_H
38 #  include <config.h>
39 #endif
40
41 #include "gstwasapisink.h"
42
43 #include <avrt.h>
44
45 GST_DEBUG_CATEGORY_STATIC (gst_wasapi_sink_debug);
46 #define GST_CAT_DEFAULT gst_wasapi_sink_debug
47
48 static GstStaticPadTemplate sink_template = GST_STATIC_PAD_TEMPLATE ("sink",
49     GST_PAD_SINK,
50     GST_PAD_ALWAYS,
51     GST_STATIC_CAPS (GST_WASAPI_STATIC_CAPS));
52
53 #define DEFAULT_ROLE          GST_WASAPI_DEVICE_ROLE_CONSOLE
54 #define DEFAULT_MUTE          FALSE
55 #define DEFAULT_EXCLUSIVE     FALSE
56 #define DEFAULT_LOW_LATENCY   FALSE
57 #define DEFAULT_AUDIOCLIENT3  TRUE
58
59 enum
60 {
61   PROP_0,
62   PROP_ROLE,
63   PROP_MUTE,
64   PROP_DEVICE,
65   PROP_EXCLUSIVE,
66   PROP_LOW_LATENCY,
67   PROP_AUDIOCLIENT3
68 };
69
70 static void gst_wasapi_sink_dispose (GObject * object);
71 static void gst_wasapi_sink_finalize (GObject * object);
72 static void gst_wasapi_sink_set_property (GObject * object, guint prop_id,
73     const GValue * value, GParamSpec * pspec);
74 static void gst_wasapi_sink_get_property (GObject * object, guint prop_id,
75     GValue * value, GParamSpec * pspec);
76
77 static GstCaps *gst_wasapi_sink_get_caps (GstBaseSink * bsink,
78     GstCaps * filter);
79
80 static gboolean gst_wasapi_sink_prepare (GstAudioSink * asink,
81     GstAudioRingBufferSpec * spec);
82 static gboolean gst_wasapi_sink_unprepare (GstAudioSink * asink);
83 static gboolean gst_wasapi_sink_open (GstAudioSink * asink);
84 static gboolean gst_wasapi_sink_close (GstAudioSink * asink);
85 static gint gst_wasapi_sink_write (GstAudioSink * asink,
86     gpointer data, guint length);
87 static guint gst_wasapi_sink_delay (GstAudioSink * asink);
88 static void gst_wasapi_sink_reset (GstAudioSink * asink);
89
90 #define gst_wasapi_sink_parent_class parent_class
91 G_DEFINE_TYPE (GstWasapiSink, gst_wasapi_sink, GST_TYPE_AUDIO_SINK);
92
93 static void
94 gst_wasapi_sink_class_init (GstWasapiSinkClass * klass)
95 {
96   GObjectClass *gobject_class = G_OBJECT_CLASS (klass);
97   GstElementClass *gstelement_class = GST_ELEMENT_CLASS (klass);
98   GstBaseSinkClass *gstbasesink_class = GST_BASE_SINK_CLASS (klass);
99   GstAudioSinkClass *gstaudiosink_class = GST_AUDIO_SINK_CLASS (klass);
100
101   gobject_class->dispose = gst_wasapi_sink_dispose;
102   gobject_class->finalize = gst_wasapi_sink_finalize;
103   gobject_class->set_property = gst_wasapi_sink_set_property;
104   gobject_class->get_property = gst_wasapi_sink_get_property;
105
106   g_object_class_install_property (gobject_class,
107       PROP_ROLE,
108       g_param_spec_enum ("role", "Role",
109           "Role of the device: communications, multimedia, etc",
110           GST_WASAPI_DEVICE_TYPE_ROLE, DEFAULT_ROLE, G_PARAM_READWRITE |
111           G_PARAM_STATIC_STRINGS | GST_PARAM_MUTABLE_READY));
112
113   g_object_class_install_property (gobject_class,
114       PROP_MUTE,
115       g_param_spec_boolean ("mute", "Mute", "Mute state of this stream",
116           DEFAULT_MUTE, G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS |
117           GST_PARAM_MUTABLE_PLAYING));
118
119   g_object_class_install_property (gobject_class,
120       PROP_DEVICE,
121       g_param_spec_string ("device", "Device",
122           "WASAPI playback device as a GUID string",
123           NULL, G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
124
125   g_object_class_install_property (gobject_class,
126       PROP_EXCLUSIVE,
127       g_param_spec_boolean ("exclusive", "Exclusive mode",
128           "Open the device in exclusive mode",
129           DEFAULT_EXCLUSIVE, G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
130
131   g_object_class_install_property (gobject_class,
132       PROP_LOW_LATENCY,
133       g_param_spec_boolean ("low-latency", "Low latency",
134           "Optimize all settings for lowest latency",
135           DEFAULT_LOW_LATENCY, G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
136
137   g_object_class_install_property (gobject_class,
138       PROP_AUDIOCLIENT3,
139       g_param_spec_boolean ("use-audioclient3", "Use the AudioClient3 API",
140           "Use the Windows 10 AudioClient3 API when available",
141           DEFAULT_AUDIOCLIENT3, G_PARAM_READWRITE | G_PARAM_STATIC_STRINGS));
142
143   gst_element_class_add_static_pad_template (gstelement_class, &sink_template);
144   gst_element_class_set_static_metadata (gstelement_class, "WasapiSrc",
145       "Sink/Audio",
146       "Stream audio to an audio capture device through WASAPI",
147       "Ole André Vadla Ravnås <ole.andre.ravnas@tandberg.com>");
148
149   gstbasesink_class->get_caps = GST_DEBUG_FUNCPTR (gst_wasapi_sink_get_caps);
150
151   gstaudiosink_class->prepare = GST_DEBUG_FUNCPTR (gst_wasapi_sink_prepare);
152   gstaudiosink_class->unprepare = GST_DEBUG_FUNCPTR (gst_wasapi_sink_unprepare);
153   gstaudiosink_class->open = GST_DEBUG_FUNCPTR (gst_wasapi_sink_open);
154   gstaudiosink_class->close = GST_DEBUG_FUNCPTR (gst_wasapi_sink_close);
155   gstaudiosink_class->write = GST_DEBUG_FUNCPTR (gst_wasapi_sink_write);
156   gstaudiosink_class->delay = GST_DEBUG_FUNCPTR (gst_wasapi_sink_delay);
157   gstaudiosink_class->reset = GST_DEBUG_FUNCPTR (gst_wasapi_sink_reset);
158
159   GST_DEBUG_CATEGORY_INIT (gst_wasapi_sink_debug, "wasapisink",
160       0, "Windows audio session API sink");
161 }
162
163 static void
164 gst_wasapi_sink_init (GstWasapiSink * self)
165 {
166   self->role = DEFAULT_ROLE;
167   self->mute = DEFAULT_MUTE;
168   self->sharemode = AUDCLNT_SHAREMODE_SHARED;
169   self->low_latency = DEFAULT_LOW_LATENCY;
170   self->try_audioclient3 = DEFAULT_AUDIOCLIENT3;
171   self->event_handle = CreateEvent (NULL, FALSE, FALSE, NULL);
172
173   CoInitialize (NULL);
174 }
175
176 static void
177 gst_wasapi_sink_dispose (GObject * object)
178 {
179   GstWasapiSink *self = GST_WASAPI_SINK (object);
180
181   if (self->event_handle != NULL) {
182     CloseHandle (self->event_handle);
183     self->event_handle = NULL;
184   }
185
186   if (self->client != NULL) {
187     IUnknown_Release (self->client);
188     self->client = NULL;
189   }
190
191   if (self->render_client != NULL) {
192     IUnknown_Release (self->render_client);
193     self->render_client = NULL;
194   }
195
196   G_OBJECT_CLASS (gst_wasapi_sink_parent_class)->dispose (object);
197 }
198
199 static void
200 gst_wasapi_sink_finalize (GObject * object)
201 {
202   GstWasapiSink *self = GST_WASAPI_SINK (object);
203
204   g_clear_pointer (&self->mix_format, CoTaskMemFree);
205
206   CoUninitialize ();
207
208   if (self->cached_caps != NULL) {
209     gst_caps_unref (self->cached_caps);
210     self->cached_caps = NULL;
211   }
212
213   g_clear_pointer (&self->positions, g_free);
214   g_clear_pointer (&self->device_strid, g_free);
215   self->mute = FALSE;
216
217   G_OBJECT_CLASS (gst_wasapi_sink_parent_class)->finalize (object);
218 }
219
220 static void
221 gst_wasapi_sink_set_property (GObject * object, guint prop_id,
222     const GValue * value, GParamSpec * pspec)
223 {
224   GstWasapiSink *self = GST_WASAPI_SINK (object);
225
226   switch (prop_id) {
227     case PROP_ROLE:
228       self->role = gst_wasapi_device_role_to_erole (g_value_get_enum (value));
229       break;
230     case PROP_MUTE:
231       self->mute = g_value_get_boolean (value);
232       break;
233     case PROP_DEVICE:
234     {
235       const gchar *device = g_value_get_string (value);
236       g_free (self->device_strid);
237       self->device_strid =
238           device ? g_utf8_to_utf16 (device, -1, NULL, NULL, NULL) : NULL;
239       break;
240     }
241     case PROP_EXCLUSIVE:
242       self->sharemode = g_value_get_boolean (value)
243           ? AUDCLNT_SHAREMODE_EXCLUSIVE : AUDCLNT_SHAREMODE_SHARED;
244       break;
245     case PROP_LOW_LATENCY:
246       self->low_latency = g_value_get_boolean (value);
247       break;
248     case PROP_AUDIOCLIENT3:
249       self->try_audioclient3 = g_value_get_boolean (value);
250       break;
251     default:
252       G_OBJECT_WARN_INVALID_PROPERTY_ID (object, prop_id, pspec);
253       break;
254   }
255 }
256
257 static void
258 gst_wasapi_sink_get_property (GObject * object, guint prop_id,
259     GValue * value, GParamSpec * pspec)
260 {
261   GstWasapiSink *self = GST_WASAPI_SINK (object);
262
263   switch (prop_id) {
264     case PROP_ROLE:
265       g_value_set_enum (value, gst_wasapi_erole_to_device_role (self->role));
266       break;
267     case PROP_MUTE:
268       g_value_set_boolean (value, self->mute);
269       break;
270     case PROP_DEVICE:
271       g_value_take_string (value, self->device_strid ?
272           g_utf16_to_utf8 (self->device_strid, -1, NULL, NULL, NULL) : NULL);
273       break;
274     case PROP_EXCLUSIVE:
275       g_value_set_boolean (value,
276           self->sharemode == AUDCLNT_SHAREMODE_EXCLUSIVE);
277       break;
278     case PROP_LOW_LATENCY:
279       g_value_set_boolean (value, self->low_latency);
280       break;
281     case PROP_AUDIOCLIENT3:
282       g_value_set_boolean (value, self->try_audioclient3);
283       break;
284     default:
285       G_OBJECT_WARN_INVALID_PROPERTY_ID (object, prop_id, pspec);
286       break;
287   }
288 }
289
290 static gboolean
291 gst_wasapi_sink_can_audioclient3 (GstWasapiSink * self)
292 {
293   if (self->sharemode == AUDCLNT_SHAREMODE_SHARED &&
294       self->try_audioclient3 && gst_wasapi_util_have_audioclient3 ())
295     return TRUE;
296   return FALSE;
297 }
298
299 static GstCaps *
300 gst_wasapi_sink_get_caps (GstBaseSink * bsink, GstCaps * filter)
301 {
302   GstWasapiSink *self = GST_WASAPI_SINK (bsink);
303   WAVEFORMATEX *format = NULL;
304   GstCaps *caps = NULL;
305
306   GST_DEBUG_OBJECT (self, "entering get caps");
307
308   if (self->cached_caps) {
309     caps = gst_caps_ref (self->cached_caps);
310   } else {
311     GstCaps *template_caps;
312     gboolean ret;
313
314     template_caps = gst_pad_get_pad_template_caps (bsink->sinkpad);
315
316     if (!self->client)
317       gst_wasapi_sink_open (GST_AUDIO_SINK (bsink));
318
319     ret = gst_wasapi_util_get_device_format (GST_ELEMENT (self),
320         self->sharemode, self->device, self->client, &format);
321     if (!ret) {
322       GST_ELEMENT_ERROR (self, STREAM, FORMAT, (NULL),
323           ("failed to detect format"));
324       goto out;
325     }
326
327     gst_wasapi_util_parse_waveformatex ((WAVEFORMATEXTENSIBLE *) format,
328         template_caps, &caps, &self->positions);
329     if (caps == NULL) {
330       GST_ELEMENT_ERROR (self, STREAM, FORMAT, (NULL), ("unknown format"));
331       goto out;
332     }
333
334     {
335       gchar *pos_str = gst_audio_channel_positions_to_string (self->positions,
336           format->nChannels);
337       GST_INFO_OBJECT (self, "positions are: %s", pos_str);
338       g_free (pos_str);
339     }
340
341     self->mix_format = format;
342     gst_caps_replace (&self->cached_caps, caps);
343     gst_caps_unref (template_caps);
344   }
345
346   if (filter) {
347     GstCaps *filtered =
348         gst_caps_intersect_full (filter, caps, GST_CAPS_INTERSECT_FIRST);
349     gst_caps_unref (caps);
350     caps = filtered;
351   }
352
353   GST_DEBUG_OBJECT (self, "returning caps %" GST_PTR_FORMAT, caps);
354
355 out:
356   return caps;
357 }
358
359 static gboolean
360 gst_wasapi_sink_open (GstAudioSink * asink)
361 {
362   GstWasapiSink *self = GST_WASAPI_SINK (asink);
363   gboolean res = FALSE;
364   IMMDevice *device = NULL;
365   IAudioClient *client = NULL;
366
367   GST_DEBUG_OBJECT (self, "opening device");
368
369   if (self->client)
370     return TRUE;
371
372   /* FIXME: Switching the default device does not switch the stream to it,
373    * even if the old device was unplugged. We need to handle this somehow.
374    * For example, perhaps we should automatically switch to the new device if
375    * the default device is changed and a device isn't explicitly selected. */
376   if (!gst_wasapi_util_get_device_client (GST_ELEMENT (self), FALSE,
377           self->role, self->device_strid, &device, &client)) {
378     if (!self->device_strid)
379       GST_ELEMENT_ERROR (self, RESOURCE, OPEN_WRITE, (NULL),
380           ("Failed to get default device"));
381     else
382       GST_ELEMENT_ERROR (self, RESOURCE, OPEN_WRITE, (NULL),
383           ("Failed to open device %S", self->device_strid));
384     goto beach;
385   }
386
387   self->client = client;
388   self->device = device;
389   res = TRUE;
390
391 beach:
392
393   return res;
394 }
395
396 static gboolean
397 gst_wasapi_sink_close (GstAudioSink * asink)
398 {
399   GstWasapiSink *self = GST_WASAPI_SINK (asink);
400
401   if (self->device != NULL) {
402     IUnknown_Release (self->device);
403     self->device = NULL;
404   }
405
406   if (self->client != NULL) {
407     IUnknown_Release (self->client);
408     self->client = NULL;
409   }
410
411   return TRUE;
412 }
413
414 /* Get the empty space in the buffer that we have to write to */
415 static gint
416 gst_wasapi_sink_get_can_frames (GstWasapiSink * self)
417 {
418   HRESULT hr;
419   guint n_frames_padding;
420
421   /* There is no padding in exclusive mode since there is no ringbuffer */
422   if (self->sharemode == AUDCLNT_SHAREMODE_EXCLUSIVE) {
423     GST_DEBUG_OBJECT (self, "exclusive mode, can write: %i",
424         self->buffer_frame_count);
425     return self->buffer_frame_count;
426   }
427
428   /* Frames the card hasn't rendered yet */
429   hr = IAudioClient_GetCurrentPadding (self->client, &n_frames_padding);
430   HR_FAILED_RET (hr, IAudioClient::GetCurrentPadding, -1);
431
432   GST_DEBUG_OBJECT (self, "%i unread frames (padding)", n_frames_padding);
433
434   /* We can write out these many frames */
435   return self->buffer_frame_count - n_frames_padding;
436 }
437
438 static gboolean
439 gst_wasapi_sink_prepare (GstAudioSink * asink, GstAudioRingBufferSpec * spec)
440 {
441   GstWasapiSink *self = GST_WASAPI_SINK (asink);
442   gboolean res = FALSE;
443   REFERENCE_TIME latency_rt;
444   guint bpf, rate, devicep_frames;
445   HRESULT hr;
446
447   if (gst_wasapi_sink_can_audioclient3 (self)) {
448     if (!gst_wasapi_util_initialize_audioclient3 (GST_ELEMENT (self), spec,
449             (IAudioClient3 *) self->client, self->mix_format, self->low_latency,
450             &devicep_frames))
451       goto beach;
452   } else {
453     if (!gst_wasapi_util_initialize_audioclient (GST_ELEMENT (self), spec,
454             self->client, self->mix_format, self->sharemode, self->low_latency,
455             &devicep_frames))
456       goto beach;
457   }
458
459   bpf = GST_AUDIO_INFO_BPF (&spec->info);
460   rate = GST_AUDIO_INFO_RATE (&spec->info);
461
462   /* Total size of the allocated buffer that we will write to */
463   hr = IAudioClient_GetBufferSize (self->client, &self->buffer_frame_count);
464   HR_FAILED_GOTO (hr, IAudioClient::GetBufferSize, beach);
465
466   GST_INFO_OBJECT (self, "buffer size is %i frames, device period is %i "
467       "frames, bpf is %i bytes, rate is %i Hz", self->buffer_frame_count,
468       devicep_frames, bpf, rate);
469
470   /* Actual latency-time/buffer-time will be different now */
471   spec->segsize = devicep_frames * bpf;
472
473   /* We need a minimum of 2 segments to ensure glitch-free playback */
474   spec->segtotal = MAX (self->buffer_frame_count * bpf / spec->segsize, 2);
475
476   GST_INFO_OBJECT (self, "segsize is %i, segtotal is %i", spec->segsize,
477       spec->segtotal);
478
479   /* Get latency for logging */
480   hr = IAudioClient_GetStreamLatency (self->client, &latency_rt);
481   HR_FAILED_GOTO (hr, IAudioClient::GetStreamLatency, beach);
482
483   GST_INFO_OBJECT (self, "wasapi stream latency: %" G_GINT64_FORMAT " (%"
484       G_GINT64_FORMAT "ms)", latency_rt, latency_rt / 10000);
485
486   /* Set the event handler which will trigger writes */
487   hr = IAudioClient_SetEventHandle (self->client, self->event_handle);
488   HR_FAILED_GOTO (hr, IAudioClient::SetEventHandle, beach);
489
490   /* Get render sink client and start it up */
491   if (!gst_wasapi_util_get_render_client (GST_ELEMENT (self), self->client,
492           &self->render_client)) {
493     goto beach;
494   }
495
496   GST_INFO_OBJECT (self, "got render client");
497
498   /* To avoid start-up glitches, before starting the streaming, we fill the
499    * buffer with silence as recommended by the documentation:
500    * https://msdn.microsoft.com/en-us/library/windows/desktop/dd370879%28v=vs.85%29.aspx */
501   {
502     gint n_frames, len;
503     gint16 *dst = NULL;
504
505     n_frames = gst_wasapi_sink_get_can_frames (self);
506     if (n_frames < 1) {
507       GST_ELEMENT_ERROR (self, RESOURCE, WRITE, (NULL),
508           ("should have more than %i frames to write", n_frames));
509       goto beach;
510     }
511
512     len = n_frames * self->mix_format->nBlockAlign;
513
514     hr = IAudioRenderClient_GetBuffer (self->render_client, n_frames,
515         (BYTE **) & dst);
516     HR_FAILED_GOTO (hr, IAudioRenderClient::GetBuffer, beach);
517
518     GST_DEBUG_OBJECT (self, "pre-wrote %i bytes of silence", len);
519
520     hr = IAudioRenderClient_ReleaseBuffer (self->render_client, n_frames,
521         AUDCLNT_BUFFERFLAGS_SILENT);
522     HR_FAILED_GOTO (hr, IAudioRenderClient::ReleaseBuffer, beach);
523   }
524
525   hr = IAudioClient_Start (self->client);
526   HR_FAILED_GOTO (hr, IAudioClient::Start, beach);
527
528   gst_audio_ring_buffer_set_channel_positions (GST_AUDIO_BASE_SINK
529       (self)->ringbuffer, self->positions);
530
531   /* Increase the thread priority to reduce glitches */
532   self->thread_priority_handle = gst_wasapi_util_set_thread_characteristics ();
533
534   res = TRUE;
535
536 beach:
537   /* unprepare() is not called if prepare() fails, but we want it to be, so call
538    * it manually when needed */
539   if (!res)
540     gst_wasapi_sink_unprepare (asink);
541
542   return res;
543 }
544
545 static gboolean
546 gst_wasapi_sink_unprepare (GstAudioSink * asink)
547 {
548   GstWasapiSink *self = GST_WASAPI_SINK (asink);
549
550   if (self->sharemode == AUDCLNT_SHAREMODE_EXCLUSIVE &&
551       !gst_wasapi_sink_can_audioclient3 (self))
552     CoUninitialize ();
553
554   if (self->thread_priority_handle != NULL) {
555     gst_wasapi_util_revert_thread_characteristics
556         (self->thread_priority_handle);
557     self->thread_priority_handle = NULL;
558   }
559
560   if (self->client != NULL) {
561     IAudioClient_Stop (self->client);
562   }
563
564   if (self->render_client != NULL) {
565     IUnknown_Release (self->render_client);
566     self->render_client = NULL;
567   }
568
569   return TRUE;
570 }
571
572 static gint
573 gst_wasapi_sink_write (GstAudioSink * asink, gpointer data, guint length)
574 {
575   GstWasapiSink *self = GST_WASAPI_SINK (asink);
576   HRESULT hr;
577   gint16 *dst = NULL;
578   guint pending = length;
579
580   while (pending > 0) {
581     guint can_frames, have_frames, n_frames, write_len;
582
583     WaitForSingleObject (self->event_handle, INFINITE);
584
585     /* We have N frames to be written out */
586     have_frames = pending / (self->mix_format->nBlockAlign);
587     /* We have can_frames space in the output buffer */
588     can_frames = gst_wasapi_sink_get_can_frames (self);
589     /* We will write out these many frames, and this much length */
590     n_frames = MIN (can_frames, have_frames);
591     write_len = n_frames * self->mix_format->nBlockAlign;
592
593     GST_DEBUG_OBJECT (self, "total: %i, have_frames: %i (%i bytes), "
594         "can_frames: %i, will write: %i (%i bytes)", self->buffer_frame_count,
595         have_frames, pending, can_frames, n_frames, write_len);
596
597     hr = IAudioRenderClient_GetBuffer (self->render_client, n_frames,
598         (BYTE **) & dst);
599     HR_FAILED_AND (hr, IAudioRenderClient::GetBuffer, length = 0; goto beach);
600
601     memcpy (dst, data, write_len);
602
603     hr = IAudioRenderClient_ReleaseBuffer (self->render_client, n_frames,
604         self->mute ? AUDCLNT_BUFFERFLAGS_SILENT : 0);
605     HR_FAILED_AND (hr, IAudioRenderClient::ReleaseBuffer, length = 0;
606         goto beach);
607
608     pending -= write_len;
609   }
610
611 beach:
612
613   return length;
614 }
615
616 static guint
617 gst_wasapi_sink_delay (GstAudioSink * asink)
618 {
619   GstWasapiSink *self = GST_WASAPI_SINK (asink);
620   guint delay = 0;
621   HRESULT hr;
622
623   hr = IAudioClient_GetCurrentPadding (self->client, &delay);
624   HR_FAILED_RET (hr, IAudioClient::GetCurrentPadding, 0);
625
626   return delay;
627 }
628
629 static void
630 gst_wasapi_sink_reset (GstAudioSink * asink)
631 {
632   GstWasapiSink *self = GST_WASAPI_SINK (asink);
633   HRESULT hr;
634
635   if (!self->client)
636     return;
637
638   hr = IAudioClient_Stop (self->client);
639   HR_FAILED_RET (hr, IAudioClient::Stop,);
640
641   hr = IAudioClient_Reset (self->client);
642   HR_FAILED_RET (hr, IAudioClient::Reset,);
643 }