AC3 passthrough support
[profile/ivi/pulseaudio.git] / src / pulsecore / sink.c
1 /***
2   This file is part of PulseAudio.
3
4   Copyright 2004-2006 Lennart Poettering
5   Copyright 2006 Pierre Ossman <ossman@cendio.se> for Cendio AB
6
7   PulseAudio is free software; you can redistribute it and/or modify
8   it under the terms of the GNU Lesser General Public License as published
9   by the Free Software Foundation; either version 2.1 of the License,
10   or (at your option) any later version.
11
12   PulseAudio is distributed in the hope that it will be useful, but
13   WITHOUT ANY WARRANTY; without even the implied warranty of
14   MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the GNU
15   General Public License for more details.
16
17   You should have received a copy of the GNU Lesser General Public License
18   along with PulseAudio; if not, write to the Free Software
19   Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307
20   USA.
21 ***/
22
23 #ifdef HAVE_CONFIG_H
24 #include <config.h>
25 #endif
26
27 #include <stdlib.h>
28 #include <string.h>
29 #include <stdio.h>
30
31 #include <pulse/introspect.h>
32 #include <pulse/utf8.h>
33 #include <pulse/xmalloc.h>
34 #include <pulse/timeval.h>
35 #include <pulse/util.h>
36 #include <pulse/i18n.h>
37
38 #include <pulsecore/sink-input.h>
39 #include <pulsecore/namereg.h>
40 #include <pulsecore/core-util.h>
41 #include <pulsecore/sample-util.h>
42 #include <pulsecore/core-subscribe.h>
43 #include <pulsecore/log.h>
44 #include <pulsecore/macro.h>
45 #include <pulsecore/play-memblockq.h>
46
47 #include "sink.h"
48
49 #define MAX_MIX_CHANNELS 32
50 #define MIX_BUFFER_LENGTH (PA_PAGE_SIZE)
51 #define ABSOLUTE_MIN_LATENCY (500)
52 #define ABSOLUTE_MAX_LATENCY (10*PA_USEC_PER_SEC)
53 #define DEFAULT_FIXED_LATENCY (250*PA_USEC_PER_MSEC)
54
55 PA_DEFINE_PUBLIC_CLASS(pa_sink, pa_msgobject);
56
57 static void sink_free(pa_object *s);
58
59 pa_sink_new_data* pa_sink_new_data_init(pa_sink_new_data *data) {
60     pa_assert(data);
61
62     pa_zero(*data);
63     data->proplist = pa_proplist_new();
64
65     return data;
66 }
67
68 void pa_sink_new_data_set_name(pa_sink_new_data *data, const char *name) {
69     pa_assert(data);
70
71     pa_xfree(data->name);
72     data->name = pa_xstrdup(name);
73 }
74
75 void pa_sink_new_data_set_sample_spec(pa_sink_new_data *data, const pa_sample_spec *spec) {
76     pa_assert(data);
77
78     if ((data->sample_spec_is_set = !!spec))
79         data->sample_spec = *spec;
80 }
81
82 void pa_sink_new_data_set_channel_map(pa_sink_new_data *data, const pa_channel_map *map) {
83     pa_assert(data);
84
85     if ((data->channel_map_is_set = !!map))
86         data->channel_map = *map;
87 }
88
89 void pa_sink_new_data_set_volume(pa_sink_new_data *data, const pa_cvolume *volume) {
90     pa_assert(data);
91
92     if ((data->volume_is_set = !!volume))
93         data->volume = *volume;
94 }
95
96 void pa_sink_new_data_set_muted(pa_sink_new_data *data, pa_bool_t mute) {
97     pa_assert(data);
98
99     data->muted_is_set = TRUE;
100     data->muted = !!mute;
101 }
102
103 void pa_sink_new_data_set_port(pa_sink_new_data *data, const char *port) {
104     pa_assert(data);
105
106     pa_xfree(data->active_port);
107     data->active_port = pa_xstrdup(port);
108 }
109
110 void pa_sink_new_data_done(pa_sink_new_data *data) {
111     pa_assert(data);
112
113     pa_proplist_free(data->proplist);
114
115     if (data->ports) {
116         pa_device_port *p;
117
118         while ((p = pa_hashmap_steal_first(data->ports)))
119             pa_device_port_free(p);
120
121         pa_hashmap_free(data->ports, NULL, NULL);
122     }
123
124     pa_xfree(data->name);
125     pa_xfree(data->active_port);
126 }
127
128 pa_device_port *pa_device_port_new(const char *name, const char *description, size_t extra) {
129     pa_device_port *p;
130
131     pa_assert(name);
132
133     p = pa_xmalloc(PA_ALIGN(sizeof(pa_device_port)) + extra);
134     p->name = pa_xstrdup(name);
135     p->description = pa_xstrdup(description);
136
137     p->priority = 0;
138
139     return p;
140 }
141
142 void pa_device_port_free(pa_device_port *p) {
143     pa_assert(p);
144
145     pa_xfree(p->name);
146     pa_xfree(p->description);
147     pa_xfree(p);
148 }
149
150 /* Called from main context */
151 static void reset_callbacks(pa_sink *s) {
152     pa_assert(s);
153
154     s->set_state = NULL;
155     s->get_volume = NULL;
156     s->set_volume = NULL;
157     s->get_mute = NULL;
158     s->set_mute = NULL;
159     s->request_rewind = NULL;
160     s->update_requested_latency = NULL;
161     s->set_port = NULL;
162 }
163
164 /* Called from main context */
165 pa_sink* pa_sink_new(
166         pa_core *core,
167         pa_sink_new_data *data,
168         pa_sink_flags_t flags) {
169
170     pa_sink *s;
171     const char *name;
172     char st[PA_SAMPLE_SPEC_SNPRINT_MAX], cm[PA_CHANNEL_MAP_SNPRINT_MAX];
173     pa_source_new_data source_data;
174     const char *dn;
175     char *pt;
176
177     pa_assert(core);
178     pa_assert(data);
179     pa_assert(data->name);
180     pa_assert_ctl_context();
181
182     s = pa_msgobject_new(pa_sink);
183
184     if (!(name = pa_namereg_register(core, data->name, PA_NAMEREG_SINK, s, data->namereg_fail))) {
185         pa_log_debug("Failed to register name %s.", data->name);
186         pa_xfree(s);
187         return NULL;
188     }
189
190     pa_sink_new_data_set_name(data, name);
191
192     if (pa_hook_fire(&core->hooks[PA_CORE_HOOK_SINK_NEW], data) < 0) {
193         pa_xfree(s);
194         pa_namereg_unregister(core, name);
195         return NULL;
196     }
197
198     /* FIXME, need to free s here on failure */
199
200     pa_return_null_if_fail(!data->driver || pa_utf8_valid(data->driver));
201     pa_return_null_if_fail(data->name && pa_utf8_valid(data->name) && data->name[0]);
202
203     pa_return_null_if_fail(data->sample_spec_is_set && pa_sample_spec_valid(&data->sample_spec));
204
205     if (!data->channel_map_is_set)
206         pa_return_null_if_fail(pa_channel_map_init_auto(&data->channel_map, data->sample_spec.channels, PA_CHANNEL_MAP_DEFAULT));
207
208     pa_return_null_if_fail(pa_channel_map_valid(&data->channel_map));
209     pa_return_null_if_fail(data->channel_map.channels == data->sample_spec.channels);
210
211     if (!data->volume_is_set)
212         pa_cvolume_reset(&data->volume, data->sample_spec.channels);
213
214     pa_return_null_if_fail(pa_cvolume_valid(&data->volume));
215     pa_return_null_if_fail(pa_cvolume_compatible(&data->volume, &data->sample_spec));
216
217     if (!data->muted_is_set)
218         data->muted = FALSE;
219
220     if (data->card)
221         pa_proplist_update(data->proplist, PA_UPDATE_MERGE, data->card->proplist);
222
223     pa_device_init_description(data->proplist);
224     pa_device_init_icon(data->proplist, TRUE);
225     pa_device_init_intended_roles(data->proplist);
226
227     if (pa_hook_fire(&core->hooks[PA_CORE_HOOK_SINK_FIXATE], data) < 0) {
228         pa_xfree(s);
229         pa_namereg_unregister(core, name);
230         return NULL;
231     }
232
233     s->parent.parent.free = sink_free;
234     s->parent.process_msg = pa_sink_process_msg;
235
236     s->core = core;
237     s->state = PA_SINK_INIT;
238     s->flags = flags;
239     s->priority = 0;
240     s->suspend_cause = 0;
241     s->name = pa_xstrdup(name);
242     s->proplist = pa_proplist_copy(data->proplist);
243     s->driver = pa_xstrdup(pa_path_get_filename(data->driver));
244     s->module = data->module;
245     s->card = data->card;
246
247     s->priority = pa_device_init_priority(s->proplist);
248
249     s->sample_spec = data->sample_spec;
250     s->channel_map = data->channel_map;
251
252     s->inputs = pa_idxset_new(NULL, NULL);
253     s->n_corked = 0;
254
255     s->reference_volume = s->real_volume = data->volume;
256     pa_cvolume_reset(&s->soft_volume, s->sample_spec.channels);
257     s->base_volume = PA_VOLUME_NORM;
258     s->n_volume_steps = PA_VOLUME_NORM+1;
259     s->muted = data->muted;
260     s->refresh_volume = s->refresh_muted = FALSE;
261
262     reset_callbacks(s);
263     s->userdata = NULL;
264
265     s->asyncmsgq = NULL;
266
267     /* As a minor optimization we just steal the list instead of
268      * copying it here */
269     s->ports = data->ports;
270     data->ports = NULL;
271
272     s->active_port = NULL;
273     s->save_port = FALSE;
274
275     if (data->active_port && s->ports)
276         if ((s->active_port = pa_hashmap_get(s->ports, data->active_port)))
277             s->save_port = data->save_port;
278
279     if (!s->active_port && s->ports) {
280         void *state;
281         pa_device_port *p;
282
283         PA_HASHMAP_FOREACH(p, s->ports, state)
284             if (!s->active_port || p->priority > s->active_port->priority)
285                 s->active_port = p;
286     }
287
288     s->save_volume = data->save_volume;
289     s->save_muted = data->save_muted;
290
291     pa_silence_memchunk_get(
292             &core->silence_cache,
293             core->mempool,
294             &s->silence,
295             &s->sample_spec,
296             0);
297
298     s->thread_info.rtpoll = NULL;
299     s->thread_info.inputs = pa_hashmap_new(pa_idxset_trivial_hash_func, pa_idxset_trivial_compare_func);
300     s->thread_info.soft_volume =  s->soft_volume;
301     s->thread_info.soft_muted = s->muted;
302     s->thread_info.state = s->state;
303     s->thread_info.rewind_nbytes = 0;
304     s->thread_info.rewind_requested = FALSE;
305     s->thread_info.max_rewind = 0;
306     s->thread_info.max_request = 0;
307     s->thread_info.requested_latency_valid = FALSE;
308     s->thread_info.requested_latency = 0;
309     s->thread_info.min_latency = ABSOLUTE_MIN_LATENCY;
310     s->thread_info.max_latency = ABSOLUTE_MAX_LATENCY;
311     s->thread_info.fixed_latency = flags & PA_SINK_DYNAMIC_LATENCY ? 0 : DEFAULT_FIXED_LATENCY;
312
313     /* FIXME: This should probably be moved to pa_sink_put() */
314     pa_assert_se(pa_idxset_put(core->sinks, s, &s->index) >= 0);
315
316     if (s->card)
317         pa_assert_se(pa_idxset_put(s->card->sinks, s, NULL) >= 0);
318
319     pt = pa_proplist_to_string_sep(s->proplist, "\n    ");
320     pa_log_info("Created sink %u \"%s\" with sample spec %s and channel map %s\n    %s",
321                 s->index,
322                 s->name,
323                 pa_sample_spec_snprint(st, sizeof(st), &s->sample_spec),
324                 pa_channel_map_snprint(cm, sizeof(cm), &s->channel_map),
325                 pt);
326     pa_xfree(pt);
327
328     pa_source_new_data_init(&source_data);
329     pa_source_new_data_set_sample_spec(&source_data, &s->sample_spec);
330     pa_source_new_data_set_channel_map(&source_data, &s->channel_map);
331     source_data.name = pa_sprintf_malloc("%s.monitor", name);
332     source_data.driver = data->driver;
333     source_data.module = data->module;
334     source_data.card = data->card;
335
336     dn = pa_proplist_gets(s->proplist, PA_PROP_DEVICE_DESCRIPTION);
337     pa_proplist_setf(source_data.proplist, PA_PROP_DEVICE_DESCRIPTION, "Monitor of %s", dn ? dn : s->name);
338     pa_proplist_sets(source_data.proplist, PA_PROP_DEVICE_CLASS, "monitor");
339
340     s->monitor_source = pa_source_new(core, &source_data,
341                                       ((flags & PA_SINK_LATENCY) ? PA_SOURCE_LATENCY : 0) |
342                                       ((flags & PA_SINK_DYNAMIC_LATENCY) ? PA_SOURCE_DYNAMIC_LATENCY : 0));
343
344     pa_source_new_data_done(&source_data);
345
346     if (!s->monitor_source) {
347         pa_sink_unlink(s);
348         pa_sink_unref(s);
349         return NULL;
350     }
351
352     s->monitor_source->monitor_of = s;
353
354     pa_source_set_latency_range(s->monitor_source, s->thread_info.min_latency, s->thread_info.max_latency);
355     pa_source_set_fixed_latency(s->monitor_source, s->thread_info.fixed_latency);
356     pa_source_set_max_rewind(s->monitor_source, s->thread_info.max_rewind);
357
358     return s;
359 }
360
361 /* Called from main context */
362 static int sink_set_state(pa_sink *s, pa_sink_state_t state) {
363     int ret;
364     pa_bool_t suspend_change;
365     pa_sink_state_t original_state;
366
367     pa_assert(s);
368     pa_assert_ctl_context();
369
370     if (s->state == state)
371         return 0;
372
373     original_state = s->state;
374
375     suspend_change =
376         (original_state == PA_SINK_SUSPENDED && PA_SINK_IS_OPENED(state)) ||
377         (PA_SINK_IS_OPENED(original_state) && state == PA_SINK_SUSPENDED);
378
379     if (s->set_state)
380         if ((ret = s->set_state(s, state)) < 0)
381             return ret;
382
383     if (s->asyncmsgq)
384         if ((ret = pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SINK_MESSAGE_SET_STATE, PA_UINT_TO_PTR(state), 0, NULL)) < 0) {
385
386             if (s->set_state)
387                 s->set_state(s, original_state);
388
389             return ret;
390         }
391
392     s->state = state;
393
394     if (state != PA_SINK_UNLINKED) { /* if we enter UNLINKED state pa_sink_unlink() will fire the apropriate events */
395         pa_hook_fire(&s->core->hooks[PA_CORE_HOOK_SINK_STATE_CHANGED], s);
396         pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SINK | PA_SUBSCRIPTION_EVENT_CHANGE, s->index);
397     }
398
399     if (suspend_change) {
400         pa_sink_input *i;
401         uint32_t idx;
402
403         /* We're suspending or resuming, tell everyone about it */
404
405         PA_IDXSET_FOREACH(i, s->inputs, idx)
406             if (s->state == PA_SINK_SUSPENDED &&
407                 (i->flags & PA_SINK_INPUT_KILL_ON_SUSPEND))
408                 pa_sink_input_kill(i);
409             else if (i->suspend)
410                 i->suspend(i, state == PA_SINK_SUSPENDED);
411
412         if (s->monitor_source)
413             pa_source_sync_suspend(s->monitor_source);
414     }
415
416     return 0;
417 }
418
419 /* Called from main context */
420 void pa_sink_put(pa_sink* s) {
421     pa_sink_assert_ref(s);
422     pa_assert_ctl_context();
423
424     pa_assert(s->state == PA_SINK_INIT);
425
426     /* The following fields must be initialized properly when calling _put() */
427     pa_assert(s->asyncmsgq);
428     pa_assert(s->thread_info.min_latency <= s->thread_info.max_latency);
429
430     /* Generally, flags should be initialized via pa_sink_new(). As a
431      * special exception we allow volume related flags to be set
432      * between _new() and _put(). */
433
434     if (!(s->flags & PA_SINK_HW_VOLUME_CTRL))
435         s->flags |= PA_SINK_DECIBEL_VOLUME;
436
437     if ((s->flags & PA_SINK_DECIBEL_VOLUME) && s->core->flat_volumes)
438         s->flags |= PA_SINK_FLAT_VOLUME;
439
440     /* We assume that if the sink implementor changed the default
441      * volume he did so in real_volume, because that is the usual
442      * place where he is supposed to place his changes.  */
443     s->reference_volume = s->real_volume;
444
445     s->thread_info.soft_volume = s->soft_volume;
446     s->thread_info.soft_muted = s->muted;
447
448     pa_assert((s->flags & PA_SINK_HW_VOLUME_CTRL) || (s->base_volume == PA_VOLUME_NORM && s->flags & PA_SINK_DECIBEL_VOLUME));
449     pa_assert(!(s->flags & PA_SINK_DECIBEL_VOLUME) || s->n_volume_steps == PA_VOLUME_NORM+1);
450     pa_assert(!(s->flags & PA_SINK_DYNAMIC_LATENCY) == (s->thread_info.fixed_latency != 0));
451     pa_assert(!(s->flags & PA_SINK_LATENCY) == !(s->monitor_source->flags & PA_SOURCE_LATENCY));
452     pa_assert(!(s->flags & PA_SINK_DYNAMIC_LATENCY) == !(s->monitor_source->flags & PA_SOURCE_DYNAMIC_LATENCY));
453
454     pa_assert(s->monitor_source->thread_info.fixed_latency == s->thread_info.fixed_latency);
455     pa_assert(s->monitor_source->thread_info.min_latency == s->thread_info.min_latency);
456     pa_assert(s->monitor_source->thread_info.max_latency == s->thread_info.max_latency);
457
458     pa_assert_se(sink_set_state(s, PA_SINK_IDLE) == 0);
459
460     pa_source_put(s->monitor_source);
461
462     pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SINK | PA_SUBSCRIPTION_EVENT_NEW, s->index);
463     pa_hook_fire(&s->core->hooks[PA_CORE_HOOK_SINK_PUT], s);
464 }
465
466 /* Called from main context */
467 void pa_sink_unlink(pa_sink* s) {
468     pa_bool_t linked;
469     pa_sink_input *i, *j = NULL;
470
471     pa_assert(s);
472     pa_assert_ctl_context();
473
474     /* Please note that pa_sink_unlink() does more than simply
475      * reversing pa_sink_put(). It also undoes the registrations
476      * already done in pa_sink_new()! */
477
478     /* All operations here shall be idempotent, i.e. pa_sink_unlink()
479      * may be called multiple times on the same sink without bad
480      * effects. */
481
482     linked = PA_SINK_IS_LINKED(s->state);
483
484     if (linked)
485         pa_hook_fire(&s->core->hooks[PA_CORE_HOOK_SINK_UNLINK], s);
486
487     if (s->state != PA_SINK_UNLINKED)
488         pa_namereg_unregister(s->core, s->name);
489     pa_idxset_remove_by_data(s->core->sinks, s, NULL);
490
491     if (s->card)
492         pa_idxset_remove_by_data(s->card->sinks, s, NULL);
493
494     while ((i = pa_idxset_first(s->inputs, NULL))) {
495         pa_assert(i != j);
496         pa_sink_input_kill(i);
497         j = i;
498     }
499
500     if (linked)
501         sink_set_state(s, PA_SINK_UNLINKED);
502     else
503         s->state = PA_SINK_UNLINKED;
504
505     reset_callbacks(s);
506
507     if (s->monitor_source)
508         pa_source_unlink(s->monitor_source);
509
510     if (linked) {
511         pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SINK | PA_SUBSCRIPTION_EVENT_REMOVE, s->index);
512         pa_hook_fire(&s->core->hooks[PA_CORE_HOOK_SINK_UNLINK_POST], s);
513     }
514 }
515
516 /* Called from main context */
517 static void sink_free(pa_object *o) {
518     pa_sink *s = PA_SINK(o);
519     pa_sink_input *i;
520
521     pa_assert(s);
522     pa_assert_ctl_context();
523     pa_assert(pa_sink_refcnt(s) == 0);
524
525     if (PA_SINK_IS_LINKED(s->state))
526         pa_sink_unlink(s);
527
528     pa_log_info("Freeing sink %u \"%s\"", s->index, s->name);
529
530     if (s->monitor_source) {
531         pa_source_unref(s->monitor_source);
532         s->monitor_source = NULL;
533     }
534
535     pa_idxset_free(s->inputs, NULL, NULL);
536
537     while ((i = pa_hashmap_steal_first(s->thread_info.inputs)))
538         pa_sink_input_unref(i);
539
540     pa_hashmap_free(s->thread_info.inputs, NULL, NULL);
541
542     if (s->silence.memblock)
543         pa_memblock_unref(s->silence.memblock);
544
545     pa_xfree(s->name);
546     pa_xfree(s->driver);
547
548     if (s->proplist)
549         pa_proplist_free(s->proplist);
550
551     if (s->ports) {
552         pa_device_port *p;
553
554         while ((p = pa_hashmap_steal_first(s->ports)))
555             pa_device_port_free(p);
556
557         pa_hashmap_free(s->ports, NULL, NULL);
558     }
559
560     pa_xfree(s);
561 }
562
563 /* Called from main context, and not while the IO thread is active, please */
564 void pa_sink_set_asyncmsgq(pa_sink *s, pa_asyncmsgq *q) {
565     pa_sink_assert_ref(s);
566     pa_assert_ctl_context();
567
568     s->asyncmsgq = q;
569
570     if (s->monitor_source)
571         pa_source_set_asyncmsgq(s->monitor_source, q);
572 }
573
574 /* Called from main context, and not while the IO thread is active, please */
575 void pa_sink_update_flags(pa_sink *s, pa_sink_flags_t mask, pa_sink_flags_t value) {
576     pa_sink_assert_ref(s);
577     pa_assert_ctl_context();
578
579     if (mask == 0)
580         return;
581
582     /* For now, allow only a minimal set of flags to be changed. */
583     pa_assert((mask & ~(PA_SINK_DYNAMIC_LATENCY|PA_SINK_LATENCY)) == 0);
584
585     s->flags = (s->flags & ~mask) | (value & mask);
586
587     pa_source_update_flags(s->monitor_source,
588                            ((mask & PA_SINK_LATENCY) ? PA_SOURCE_LATENCY : 0) |
589                            ((mask & PA_SINK_DYNAMIC_LATENCY) ? PA_SOURCE_DYNAMIC_LATENCY : 0),
590                            ((value & PA_SINK_LATENCY) ? PA_SOURCE_LATENCY : 0) |
591                            ((value & PA_SINK_DYNAMIC_LATENCY) ? PA_SINK_DYNAMIC_LATENCY : 0));
592 }
593
594 /* Called from IO context, or before _put() from main context */
595 void pa_sink_set_rtpoll(pa_sink *s, pa_rtpoll *p) {
596     pa_sink_assert_ref(s);
597     pa_sink_assert_io_context(s);
598
599     s->thread_info.rtpoll = p;
600
601     if (s->monitor_source)
602         pa_source_set_rtpoll(s->monitor_source, p);
603 }
604
605 /* Called from main context */
606 int pa_sink_update_status(pa_sink*s) {
607     pa_sink_assert_ref(s);
608     pa_assert_ctl_context();
609     pa_assert(PA_SINK_IS_LINKED(s->state));
610
611     if (s->state == PA_SINK_SUSPENDED)
612         return 0;
613
614     return sink_set_state(s, pa_sink_used_by(s) ? PA_SINK_RUNNING : PA_SINK_IDLE);
615 }
616
617 /* Called from main context */
618 int pa_sink_suspend(pa_sink *s, pa_bool_t suspend, pa_suspend_cause_t cause) {
619     pa_sink_assert_ref(s);
620     pa_assert_ctl_context();
621     pa_assert(PA_SINK_IS_LINKED(s->state));
622     pa_assert(cause != 0);
623
624     if (suspend) {
625         s->suspend_cause |= cause;
626         s->monitor_source->suspend_cause |= cause;
627     } else {
628         s->suspend_cause &= ~cause;
629         s->monitor_source->suspend_cause &= ~cause;
630     }
631
632     if ((pa_sink_get_state(s) == PA_SINK_SUSPENDED) == !!s->suspend_cause)
633         return 0;
634
635     pa_log_debug("Suspend cause of sink %s is 0x%04x, %s", s->name, s->suspend_cause, s->suspend_cause ? "suspending" : "resuming");
636
637     if (s->suspend_cause)
638         return sink_set_state(s, PA_SINK_SUSPENDED);
639     else
640         return sink_set_state(s, pa_sink_used_by(s) ? PA_SINK_RUNNING : PA_SINK_IDLE);
641 }
642
643 /* Called from main context */
644 pa_queue *pa_sink_move_all_start(pa_sink *s, pa_queue *q) {
645     pa_sink_input *i, *n;
646     uint32_t idx;
647
648     pa_sink_assert_ref(s);
649     pa_assert_ctl_context();
650     pa_assert(PA_SINK_IS_LINKED(s->state));
651
652     if (!q)
653         q = pa_queue_new();
654
655     for (i = PA_SINK_INPUT(pa_idxset_first(s->inputs, &idx)); i; i = n) {
656         n = PA_SINK_INPUT(pa_idxset_next(s->inputs, &idx));
657
658         pa_sink_input_ref(i);
659
660         if (pa_sink_input_start_move(i) >= 0)
661             pa_queue_push(q, i);
662         else
663             pa_sink_input_unref(i);
664     }
665
666     return q;
667 }
668
669 /* Called from main context */
670 void pa_sink_move_all_finish(pa_sink *s, pa_queue *q, pa_bool_t save) {
671     pa_sink_input *i;
672
673     pa_sink_assert_ref(s);
674     pa_assert_ctl_context();
675     pa_assert(PA_SINK_IS_LINKED(s->state));
676     pa_assert(q);
677
678     while ((i = PA_SINK_INPUT(pa_queue_pop(q)))) {
679         if (pa_sink_input_finish_move(i, s, save) < 0)
680             pa_sink_input_fail_move(i);
681
682         pa_sink_input_unref(i);
683     }
684
685     pa_queue_free(q, NULL, NULL);
686 }
687
688 /* Called from main context */
689 void pa_sink_move_all_fail(pa_queue *q) {
690     pa_sink_input *i;
691
692     pa_assert_ctl_context();
693     pa_assert(q);
694
695     while ((i = PA_SINK_INPUT(pa_queue_pop(q)))) {
696         pa_sink_input_fail_move(i);
697         pa_sink_input_unref(i);
698     }
699
700     pa_queue_free(q, NULL, NULL);
701 }
702
703 /* Called from IO thread context */
704 void pa_sink_process_rewind(pa_sink *s, size_t nbytes) {
705     pa_sink_input *i;
706     void *state = NULL;
707
708     pa_sink_assert_ref(s);
709     pa_sink_assert_io_context(s);
710     pa_assert(PA_SINK_IS_LINKED(s->thread_info.state));
711
712     /* If nobody requested this and this is actually no real rewind
713      * then we can short cut this. Please note that this means that
714      * not all rewind requests triggered upstream will always be
715      * translated in actual requests! */
716     if (!s->thread_info.rewind_requested && nbytes <= 0)
717         return;
718
719     s->thread_info.rewind_nbytes = 0;
720     s->thread_info.rewind_requested = FALSE;
721
722     if (s->thread_info.state == PA_SINK_SUSPENDED)
723         return;
724
725     if (nbytes > 0)
726         pa_log_debug("Processing rewind...");
727
728     PA_HASHMAP_FOREACH(i, s->thread_info.inputs, state) {
729         pa_sink_input_assert_ref(i);
730         pa_sink_input_process_rewind(i, nbytes);
731     }
732
733     if (nbytes > 0)
734         if (s->monitor_source && PA_SOURCE_IS_LINKED(s->monitor_source->thread_info.state))
735             pa_source_process_rewind(s->monitor_source, nbytes);
736 }
737
738 /* Called from IO thread context */
739 static unsigned fill_mix_info(pa_sink *s, size_t *length, pa_mix_info *info, unsigned maxinfo) {
740     pa_sink_input *i;
741     unsigned n = 0;
742     void *state = NULL;
743     size_t mixlength = *length;
744
745     pa_sink_assert_ref(s);
746     pa_sink_assert_io_context(s);
747     pa_assert(info);
748
749     while ((i = pa_hashmap_iterate(s->thread_info.inputs, &state, NULL)) && maxinfo > 0) {
750         pa_sink_input_assert_ref(i);
751
752         pa_sink_input_peek(i, *length, &info->chunk, &info->volume);
753
754         if (mixlength == 0 || info->chunk.length < mixlength)
755             mixlength = info->chunk.length;
756
757         if (pa_memblock_is_silence(info->chunk.memblock)) {
758             pa_memblock_unref(info->chunk.memblock);
759             continue;
760         }
761
762         info->userdata = pa_sink_input_ref(i);
763
764         pa_assert(info->chunk.memblock);
765         pa_assert(info->chunk.length > 0);
766
767         info++;
768         n++;
769         maxinfo--;
770     }
771
772     if (mixlength > 0)
773         *length = mixlength;
774
775     return n;
776 }
777
778 /* Called from IO thread context */
779 static void inputs_drop(pa_sink *s, pa_mix_info *info, unsigned n, pa_memchunk *result) {
780     pa_sink_input *i;
781     void *state;
782     unsigned p = 0;
783     unsigned n_unreffed = 0;
784
785     pa_sink_assert_ref(s);
786     pa_sink_assert_io_context(s);
787     pa_assert(result);
788     pa_assert(result->memblock);
789     pa_assert(result->length > 0);
790
791     /* We optimize for the case where the order of the inputs has not changed */
792
793     PA_HASHMAP_FOREACH(i, s->thread_info.inputs, state) {
794         unsigned j;
795         pa_mix_info* m = NULL;
796
797         pa_sink_input_assert_ref(i);
798
799         /* Let's try to find the matching entry info the pa_mix_info array */
800         for (j = 0; j < n; j ++) {
801
802             if (info[p].userdata == i) {
803                 m = info + p;
804                 break;
805             }
806
807             p++;
808             if (p >= n)
809                 p = 0;
810         }
811
812         /* Drop read data */
813         pa_sink_input_drop(i, result->length);
814
815         if (s->monitor_source && PA_SOURCE_IS_LINKED(s->monitor_source->thread_info.state)) {
816
817             if (pa_hashmap_size(i->thread_info.direct_outputs) > 0) {
818                 void *ostate = NULL;
819                 pa_source_output *o;
820                 pa_memchunk c;
821
822                 if (m && m->chunk.memblock) {
823                     c = m->chunk;
824                     pa_memblock_ref(c.memblock);
825                     pa_assert(result->length <= c.length);
826                     c.length = result->length;
827
828                     pa_memchunk_make_writable(&c, 0);
829                     pa_volume_memchunk(&c, &s->sample_spec, &m->volume);
830                 } else {
831                     c = s->silence;
832                     pa_memblock_ref(c.memblock);
833                     pa_assert(result->length <= c.length);
834                     c.length = result->length;
835                 }
836
837                 while ((o = pa_hashmap_iterate(i->thread_info.direct_outputs, &ostate, NULL))) {
838                     pa_source_output_assert_ref(o);
839                     pa_assert(o->direct_on_input == i);
840                     pa_source_post_direct(s->monitor_source, o, &c);
841                 }
842
843                 pa_memblock_unref(c.memblock);
844             }
845         }
846
847         if (m) {
848             if (m->chunk.memblock)
849                 pa_memblock_unref(m->chunk.memblock);
850                 pa_memchunk_reset(&m->chunk);
851
852             pa_sink_input_unref(m->userdata);
853             m->userdata = NULL;
854
855             n_unreffed += 1;
856         }
857     }
858
859     /* Now drop references to entries that are included in the
860      * pa_mix_info array but don't exist anymore */
861
862     if (n_unreffed < n) {
863         for (; n > 0; info++, n--) {
864             if (info->userdata)
865                 pa_sink_input_unref(info->userdata);
866             if (info->chunk.memblock)
867                 pa_memblock_unref(info->chunk.memblock);
868         }
869     }
870
871     if (s->monitor_source && PA_SOURCE_IS_LINKED(s->monitor_source->thread_info.state))
872         pa_source_post(s->monitor_source, result);
873 }
874
875 /* Called from IO thread context */
876 void pa_sink_render(pa_sink*s, size_t length, pa_memchunk *result) {
877     pa_mix_info info[MAX_MIX_CHANNELS];
878     unsigned n;
879     size_t block_size_max;
880
881     pa_sink_assert_ref(s);
882     pa_sink_assert_io_context(s);
883     pa_assert(PA_SINK_IS_LINKED(s->thread_info.state));
884     pa_assert(pa_frame_aligned(length, &s->sample_spec));
885     pa_assert(result);
886
887     pa_assert(!s->thread_info.rewind_requested);
888     pa_assert(s->thread_info.rewind_nbytes == 0);
889
890     if (s->thread_info.state == PA_SINK_SUSPENDED) {
891         result->memblock = pa_memblock_ref(s->silence.memblock);
892         result->index = s->silence.index;
893         result->length = PA_MIN(s->silence.length, length);
894         return;
895     }
896
897     pa_sink_ref(s);
898
899     if (length <= 0)
900         length = pa_frame_align(MIX_BUFFER_LENGTH, &s->sample_spec);
901
902     block_size_max = pa_mempool_block_size_max(s->core->mempool);
903     if (length > block_size_max)
904         length = pa_frame_align(block_size_max, &s->sample_spec);
905
906     pa_assert(length > 0);
907
908     n = fill_mix_info(s, &length, info, MAX_MIX_CHANNELS);
909
910     if (n == 0) {
911
912         *result = s->silence;
913         pa_memblock_ref(result->memblock);
914
915         if (result->length > length)
916             result->length = length;
917
918     } else if (n == 1) {
919         pa_cvolume volume;
920
921         *result = info[0].chunk;
922         pa_memblock_ref(result->memblock);
923
924         if (result->length > length)
925             result->length = length;
926
927         pa_sw_cvolume_multiply(&volume, &s->thread_info.soft_volume, &info[0].volume);
928
929         if (s->thread_info.soft_muted || pa_cvolume_is_muted(&volume)) {
930             pa_memblock_unref(result->memblock);
931             pa_silence_memchunk_get(&s->core->silence_cache,
932                                     s->core->mempool,
933                                     result,
934                                     &s->sample_spec,
935                                     result->length);
936         } else if (!pa_cvolume_is_norm(&volume)) {
937             pa_memchunk_make_writable(result, 0);
938             pa_volume_memchunk(result, &s->sample_spec, &volume);
939         }
940     } else {
941         void *ptr;
942         result->memblock = pa_memblock_new(s->core->mempool, length);
943
944         ptr = pa_memblock_acquire(result->memblock);
945         result->length = pa_mix(info, n,
946                                 ptr, length,
947                                 &s->sample_spec,
948                                 &s->thread_info.soft_volume,
949                                 s->thread_info.soft_muted);
950         pa_memblock_release(result->memblock);
951
952         result->index = 0;
953     }
954
955     inputs_drop(s, info, n, result);
956
957     pa_sink_unref(s);
958 }
959
960 /* Called from IO thread context */
961 void pa_sink_render_into(pa_sink*s, pa_memchunk *target) {
962     pa_mix_info info[MAX_MIX_CHANNELS];
963     unsigned n;
964     size_t length, block_size_max;
965
966     pa_sink_assert_ref(s);
967     pa_sink_assert_io_context(s);
968     pa_assert(PA_SINK_IS_LINKED(s->thread_info.state));
969     pa_assert(target);
970     pa_assert(target->memblock);
971     pa_assert(target->length > 0);
972     pa_assert(pa_frame_aligned(target->length, &s->sample_spec));
973
974     pa_assert(!s->thread_info.rewind_requested);
975     pa_assert(s->thread_info.rewind_nbytes == 0);
976
977     if (s->thread_info.state == PA_SINK_SUSPENDED) {
978         pa_silence_memchunk(target, &s->sample_spec);
979         return;
980     }
981
982     pa_sink_ref(s);
983
984     length = target->length;
985     block_size_max = pa_mempool_block_size_max(s->core->mempool);
986     if (length > block_size_max)
987         length = pa_frame_align(block_size_max, &s->sample_spec);
988
989     pa_assert(length > 0);
990
991     n = fill_mix_info(s, &length, info, MAX_MIX_CHANNELS);
992
993     if (n == 0) {
994         if (target->length > length)
995             target->length = length;
996
997         pa_silence_memchunk(target, &s->sample_spec);
998     } else if (n == 1) {
999         pa_cvolume volume;
1000
1001         if (target->length > length)
1002             target->length = length;
1003
1004         pa_sw_cvolume_multiply(&volume, &s->thread_info.soft_volume, &info[0].volume);
1005
1006         if (s->thread_info.soft_muted || pa_cvolume_is_muted(&volume))
1007             pa_silence_memchunk(target, &s->sample_spec);
1008         else {
1009             pa_memchunk vchunk;
1010
1011             vchunk = info[0].chunk;
1012             pa_memblock_ref(vchunk.memblock);
1013
1014             if (vchunk.length > length)
1015                 vchunk.length = length;
1016
1017             if (!pa_cvolume_is_norm(&volume)) {
1018                 pa_memchunk_make_writable(&vchunk, 0);
1019                 pa_volume_memchunk(&vchunk, &s->sample_spec, &volume);
1020             }
1021
1022             pa_memchunk_memcpy(target, &vchunk);
1023             pa_memblock_unref(vchunk.memblock);
1024         }
1025
1026     } else {
1027         void *ptr;
1028
1029         ptr = pa_memblock_acquire(target->memblock);
1030
1031         target->length = pa_mix(info, n,
1032                                 (uint8_t*) ptr + target->index, length,
1033                                 &s->sample_spec,
1034                                 &s->thread_info.soft_volume,
1035                                 s->thread_info.soft_muted);
1036
1037         pa_memblock_release(target->memblock);
1038     }
1039
1040     inputs_drop(s, info, n, target);
1041
1042     pa_sink_unref(s);
1043 }
1044
1045 /* Called from IO thread context */
1046 void pa_sink_render_into_full(pa_sink *s, pa_memchunk *target) {
1047     pa_memchunk chunk;
1048     size_t l, d;
1049
1050     pa_sink_assert_ref(s);
1051     pa_sink_assert_io_context(s);
1052     pa_assert(PA_SINK_IS_LINKED(s->thread_info.state));
1053     pa_assert(target);
1054     pa_assert(target->memblock);
1055     pa_assert(target->length > 0);
1056     pa_assert(pa_frame_aligned(target->length, &s->sample_spec));
1057
1058     pa_assert(!s->thread_info.rewind_requested);
1059     pa_assert(s->thread_info.rewind_nbytes == 0);
1060
1061     if (s->thread_info.state == PA_SINK_SUSPENDED) {
1062         pa_silence_memchunk(target, &s->sample_spec);
1063         return;
1064     }
1065
1066     pa_sink_ref(s);
1067
1068     l = target->length;
1069     d = 0;
1070     while (l > 0) {
1071         chunk = *target;
1072         chunk.index += d;
1073         chunk.length -= d;
1074
1075         pa_sink_render_into(s, &chunk);
1076
1077         d += chunk.length;
1078         l -= chunk.length;
1079     }
1080
1081     pa_sink_unref(s);
1082 }
1083
1084 /* Called from IO thread context */
1085 void pa_sink_render_full(pa_sink *s, size_t length, pa_memchunk *result) {
1086     pa_sink_assert_ref(s);
1087     pa_sink_assert_io_context(s);
1088     pa_assert(PA_SINK_IS_LINKED(s->thread_info.state));
1089     pa_assert(length > 0);
1090     pa_assert(pa_frame_aligned(length, &s->sample_spec));
1091     pa_assert(result);
1092
1093     pa_assert(!s->thread_info.rewind_requested);
1094     pa_assert(s->thread_info.rewind_nbytes == 0);
1095
1096     pa_sink_ref(s);
1097
1098     pa_sink_render(s, length, result);
1099
1100     if (result->length < length) {
1101         pa_memchunk chunk;
1102
1103         pa_memchunk_make_writable(result, length);
1104
1105         chunk.memblock = result->memblock;
1106         chunk.index = result->index + result->length;
1107         chunk.length = length - result->length;
1108
1109         pa_sink_render_into_full(s, &chunk);
1110
1111         result->length = length;
1112     }
1113
1114     pa_sink_unref(s);
1115 }
1116
1117 /* Called from main thread */
1118 pa_usec_t pa_sink_get_latency(pa_sink *s) {
1119     pa_usec_t usec = 0;
1120
1121     pa_sink_assert_ref(s);
1122     pa_assert_ctl_context();
1123     pa_assert(PA_SINK_IS_LINKED(s->state));
1124
1125     /* The returned value is supposed to be in the time domain of the sound card! */
1126
1127     if (s->state == PA_SINK_SUSPENDED)
1128         return 0;
1129
1130     if (!(s->flags & PA_SINK_LATENCY))
1131         return 0;
1132
1133     pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SINK_MESSAGE_GET_LATENCY, &usec, 0, NULL) == 0);
1134
1135     return usec;
1136 }
1137
1138 /* Called from IO thread */
1139 pa_usec_t pa_sink_get_latency_within_thread(pa_sink *s) {
1140     pa_usec_t usec = 0;
1141     pa_msgobject *o;
1142
1143     pa_sink_assert_ref(s);
1144     pa_sink_assert_io_context(s);
1145     pa_assert(PA_SINK_IS_LINKED(s->thread_info.state));
1146
1147     /* The returned value is supposed to be in the time domain of the sound card! */
1148
1149     if (s->thread_info.state == PA_SINK_SUSPENDED)
1150         return 0;
1151
1152     if (!(s->flags & PA_SINK_LATENCY))
1153         return 0;
1154
1155     o = PA_MSGOBJECT(s);
1156
1157     /* FIXME: We probably should make this a proper vtable callback instead of going through process_msg() */
1158
1159     if (o->process_msg(o, PA_SINK_MESSAGE_GET_LATENCY, &usec, 0, NULL) < 0)
1160         return -1;
1161
1162     return usec;
1163 }
1164
1165 static pa_cvolume* cvolume_remap_minimal_impact(
1166         pa_cvolume *v,
1167         const pa_cvolume *template,
1168         const pa_channel_map *from,
1169         const pa_channel_map *to) {
1170
1171     pa_cvolume t;
1172
1173     pa_assert(v);
1174     pa_assert(template);
1175     pa_assert(from);
1176     pa_assert(to);
1177
1178     pa_return_val_if_fail(pa_cvolume_compatible_with_channel_map(v, from), NULL);
1179     pa_return_val_if_fail(pa_cvolume_compatible_with_channel_map(template, to), NULL);
1180
1181     /* Much like pa_cvolume_remap(), but tries to minimize impact when
1182      * mapping from sink input to sink volumes:
1183      *
1184      * If template is a possible remapping from v it is used instead
1185      * of remapping anew.
1186      *
1187      * If the channel maps don't match we set an all-channel volume on
1188      * the sink to ensure that changing a volume on one stream has no
1189      * effect that cannot be compensated for in another stream that
1190      * does not have the same channel map as the sink. */
1191
1192     if (pa_channel_map_equal(from, to))
1193         return v;
1194
1195     t = *template;
1196     if (pa_cvolume_equal(pa_cvolume_remap(&t, to, from), v)) {
1197         *v = *template;
1198         return v;
1199     }
1200
1201     pa_cvolume_set(v, to->channels, pa_cvolume_max(v));
1202     return v;
1203 }
1204
1205 /* Called from main context */
1206 static void compute_reference_ratios(pa_sink *s) {
1207     uint32_t idx;
1208     pa_sink_input *i;
1209
1210     pa_sink_assert_ref(s);
1211     pa_assert_ctl_context();
1212     pa_assert(PA_SINK_IS_LINKED(s->state));
1213     pa_assert(s->flags & PA_SINK_FLAT_VOLUME);
1214
1215     PA_IDXSET_FOREACH(i, s->inputs, idx) {
1216         unsigned c;
1217         pa_cvolume remapped;
1218
1219         /*
1220          * Calculates the reference volume from the sink's reference
1221          * volume. This basically calculates:
1222          *
1223          * i->reference_ratio = i->volume / s->reference_volume
1224          */
1225
1226         remapped = s->reference_volume;
1227         pa_cvolume_remap(&remapped, &s->channel_map, &i->channel_map);
1228
1229         i->reference_ratio.channels = i->sample_spec.channels;
1230
1231         for (c = 0; c < i->sample_spec.channels; c++) {
1232
1233             /* We don't update when the sink volume is 0 anyway */
1234             if (remapped.values[c] <= PA_VOLUME_MUTED)
1235                 continue;
1236
1237             /* Don't update the reference ratio unless necessary */
1238             if (pa_sw_volume_multiply(
1239                         i->reference_ratio.values[c],
1240                         remapped.values[c]) == i->volume.values[c])
1241                 continue;
1242
1243             i->reference_ratio.values[c] = pa_sw_volume_divide(
1244                     i->volume.values[c],
1245                     remapped.values[c]);
1246         }
1247     }
1248 }
1249
1250 /* Called from main context */
1251 static void compute_real_ratios(pa_sink *s) {
1252     pa_sink_input *i;
1253     uint32_t idx;
1254
1255     pa_sink_assert_ref(s);
1256     pa_assert_ctl_context();
1257     pa_assert(PA_SINK_IS_LINKED(s->state));
1258     pa_assert(s->flags & PA_SINK_FLAT_VOLUME);
1259
1260     PA_IDXSET_FOREACH(i, s->inputs, idx) {
1261         unsigned c;
1262         pa_cvolume remapped;
1263
1264         /*
1265          * This basically calculates:
1266          *
1267          * i->real_ratio := i->volume / s->real_volume
1268          * i->soft_volume := i->real_ratio * i->volume_factor
1269          */
1270
1271         remapped = s->real_volume;
1272         pa_cvolume_remap(&remapped, &s->channel_map, &i->channel_map);
1273
1274         i->real_ratio.channels = i->sample_spec.channels;
1275         i->soft_volume.channels = i->sample_spec.channels;
1276
1277         for (c = 0; c < i->sample_spec.channels; c++) {
1278
1279             if (remapped.values[c] <= PA_VOLUME_MUTED) {
1280                 /* We leave i->real_ratio untouched */
1281                 i->soft_volume.values[c] = PA_VOLUME_MUTED;
1282                 continue;
1283             }
1284
1285             /* Don't lose accuracy unless necessary */
1286             if (pa_sw_volume_multiply(
1287                         i->real_ratio.values[c],
1288                         remapped.values[c]) != i->volume.values[c])
1289
1290                 i->real_ratio.values[c] = pa_sw_volume_divide(
1291                         i->volume.values[c],
1292                         remapped.values[c]);
1293
1294             i->soft_volume.values[c] = pa_sw_volume_multiply(
1295                     i->real_ratio.values[c],
1296                     i->volume_factor.values[c]);
1297         }
1298
1299         /* We don't copy the soft_volume to the thread_info data
1300          * here. That must be done by the caller */
1301     }
1302 }
1303
1304 /* Called from main thread */
1305 static void compute_real_volume(pa_sink *s) {
1306     pa_sink_input *i;
1307     uint32_t idx;
1308
1309     pa_sink_assert_ref(s);
1310     pa_assert_ctl_context();
1311     pa_assert(PA_SINK_IS_LINKED(s->state));
1312     pa_assert(s->flags & PA_SINK_FLAT_VOLUME);
1313
1314     /* This determines the maximum volume of all streams and sets
1315      * s->real_volume accordingly. */
1316
1317     if (pa_idxset_isempty(s->inputs)) {
1318         /* In the special case that we have no sink input we leave the
1319          * volume unmodified. */
1320         s->real_volume = s->reference_volume;
1321         return;
1322     }
1323
1324     pa_cvolume_mute(&s->real_volume, s->channel_map.channels);
1325
1326     /* First let's determine the new maximum volume of all inputs
1327      * connected to this sink */
1328     PA_IDXSET_FOREACH(i, s->inputs, idx) {
1329         pa_cvolume remapped;
1330
1331         remapped = i->volume;
1332         cvolume_remap_minimal_impact(&remapped, &s->real_volume, &i->channel_map, &s->channel_map);
1333         pa_cvolume_merge(&s->real_volume, &s->real_volume, &remapped);
1334     }
1335
1336     /* Then, let's update the real ratios/soft volumes of all inputs
1337      * connected to this sink */
1338     compute_real_ratios(s);
1339 }
1340
1341 /* Called from main thread */
1342 static void propagate_reference_volume(pa_sink *s) {
1343     pa_sink_input *i;
1344     uint32_t idx;
1345
1346     pa_sink_assert_ref(s);
1347     pa_assert_ctl_context();
1348     pa_assert(PA_SINK_IS_LINKED(s->state));
1349     pa_assert(s->flags & PA_SINK_FLAT_VOLUME);
1350
1351     /* This is called whenever the sink volume changes that is not
1352      * caused by a sink input volume change. We need to fix up the
1353      * sink input volumes accordingly */
1354
1355     PA_IDXSET_FOREACH(i, s->inputs, idx) {
1356         pa_cvolume old_volume, remapped;
1357
1358         old_volume = i->volume;
1359
1360         /* This basically calculates:
1361          *
1362          * i->volume := s->reference_volume * i->reference_ratio  */
1363
1364         remapped = s->reference_volume;
1365         pa_cvolume_remap(&remapped, &s->channel_map, &i->channel_map);
1366         pa_sw_cvolume_multiply(&i->volume, &remapped, &i->reference_ratio);
1367
1368         /* The volume changed, let's tell people so */
1369         if (!pa_cvolume_equal(&old_volume, &i->volume)) {
1370
1371             if (i->volume_changed)
1372                 i->volume_changed(i);
1373
1374             pa_subscription_post(i->core, PA_SUBSCRIPTION_EVENT_SINK_INPUT|PA_SUBSCRIPTION_EVENT_CHANGE, i->index);
1375         }
1376     }
1377 }
1378
1379 /* Called from main thread */
1380 void pa_sink_set_volume(
1381         pa_sink *s,
1382         const pa_cvolume *volume,
1383         pa_bool_t send_msg,
1384         pa_bool_t save) {
1385
1386     pa_cvolume old_reference_volume;
1387     pa_bool_t reference_changed;
1388
1389     pa_sink_assert_ref(s);
1390     pa_assert_ctl_context();
1391     pa_assert(PA_SINK_IS_LINKED(s->state));
1392     pa_assert(!volume || pa_cvolume_valid(volume));
1393     pa_assert(volume || (s->flags & PA_SINK_FLAT_VOLUME));
1394     pa_assert(!volume || volume->channels == 1 || pa_cvolume_compatible(volume, &s->sample_spec));
1395
1396     /* make sure we don't change the volume when a PASSTHROUGH input is connected */
1397     if (s->flags & PA_SINK_PASSTHROUGH) {
1398         pa_sink_input *alt_i;
1399         uint32_t idx;
1400
1401         /* one and only one PASSTHROUGH input can possibly be connected */
1402         if (pa_idxset_size(s->inputs) == 1) {
1403
1404             alt_i = pa_idxset_first(s->inputs, &idx);
1405
1406             if (alt_i->flags & PA_SINK_INPUT_PASSTHROUGH) {
1407                 /* FIXME: Need to notify client that volume control is disabled */
1408                 pa_log_warn("Cannot change volume, Sink is connected to PASSTHROUGH input");
1409                 return;
1410             }
1411         }
1412     }
1413
1414     /* As a special exception we accept mono volumes on all sinks --
1415      * even on those with more complex channel maps */
1416
1417     /* If volume is NULL we synchronize the sink's real and reference
1418      * volumes with the stream volumes. If it is not NULL we update
1419      * the reference_volume with it. */
1420
1421     old_reference_volume = s->reference_volume;
1422
1423     if (volume) {
1424
1425         if (pa_cvolume_compatible(volume, &s->sample_spec))
1426             s->reference_volume = *volume;
1427         else
1428             pa_cvolume_scale(&s->reference_volume, pa_cvolume_max(volume));
1429
1430         if (s->flags & PA_SINK_FLAT_VOLUME) {
1431             /* OK, propagate this volume change back to the inputs */
1432             propagate_reference_volume(s);
1433
1434             /* And now recalculate the real volume */
1435             compute_real_volume(s);
1436         } else
1437             s->real_volume = s->reference_volume;
1438
1439     } else {
1440         pa_assert(s->flags & PA_SINK_FLAT_VOLUME);
1441
1442         /* Ok, let's determine the new real volume */
1443         compute_real_volume(s);
1444
1445         /* Let's 'push' the reference volume if necessary */
1446         pa_cvolume_merge(&s->reference_volume, &s->reference_volume, &s->real_volume);
1447
1448         /* We need to fix the reference ratios of all streams now that
1449          * we changed the reference volume */
1450         compute_reference_ratios(s);
1451     }
1452
1453     reference_changed = !pa_cvolume_equal(&old_reference_volume, &s->reference_volume);
1454     s->save_volume = (!reference_changed && s->save_volume) || save;
1455
1456     if (s->set_volume) {
1457         /* If we have a function set_volume(), then we do not apply a
1458          * soft volume by default. However, set_volume() is free to
1459          * apply one to s->soft_volume */
1460
1461         pa_cvolume_reset(&s->soft_volume, s->sample_spec.channels);
1462         s->set_volume(s);
1463
1464     } else
1465         /* If we have no function set_volume(), then the soft volume
1466          * becomes the virtual volume */
1467         s->soft_volume = s->real_volume;
1468
1469     /* This tells the sink that soft and/or virtual volume changed */
1470     if (send_msg)
1471         pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SINK_MESSAGE_SET_VOLUME, NULL, 0, NULL) == 0);
1472
1473     if (reference_changed)
1474         pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SINK|PA_SUBSCRIPTION_EVENT_CHANGE, s->index);
1475 }
1476
1477 /* Called from main thread. Only to be called by sink implementor */
1478 void pa_sink_set_soft_volume(pa_sink *s, const pa_cvolume *volume) {
1479     pa_sink_assert_ref(s);
1480     pa_assert_ctl_context();
1481
1482     if (!volume)
1483         pa_cvolume_reset(&s->soft_volume, s->sample_spec.channels);
1484     else
1485         s->soft_volume = *volume;
1486
1487     if (PA_SINK_IS_LINKED(s->state))
1488         pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SINK_MESSAGE_SET_VOLUME, NULL, 0, NULL) == 0);
1489     else
1490         s->thread_info.soft_volume = s->soft_volume;
1491 }
1492
1493 static void propagate_real_volume(pa_sink *s, const pa_cvolume *old_real_volume) {
1494     pa_sink_input *i;
1495     uint32_t idx;
1496     pa_cvolume old_reference_volume;
1497
1498     pa_sink_assert_ref(s);
1499     pa_assert_ctl_context();
1500     pa_assert(PA_SINK_IS_LINKED(s->state));
1501
1502     /* This is called when the hardware's real volume changes due to
1503      * some external event. We copy the real volume into our
1504      * reference volume and then rebuild the stream volumes based on
1505      * i->real_ratio which should stay fixed. */
1506
1507     if (pa_cvolume_equal(old_real_volume, &s->real_volume))
1508         return;
1509
1510     old_reference_volume = s->reference_volume;
1511
1512     /* 1. Make the real volume the reference volume */
1513     s->reference_volume = s->real_volume;
1514
1515     if (s->flags & PA_SINK_FLAT_VOLUME) {
1516
1517         PA_IDXSET_FOREACH(i, s->inputs, idx) {
1518             pa_cvolume old_volume, remapped;
1519
1520             old_volume = i->volume;
1521
1522             /* 2. Since the sink's reference and real volumes are equal
1523              * now our ratios should be too. */
1524             i->reference_ratio = i->real_ratio;
1525
1526             /* 3. Recalculate the new stream reference volume based on the
1527              * reference ratio and the sink's reference volume.
1528              *
1529              * This basically calculates:
1530              *
1531              * i->volume = s->reference_volume * i->reference_ratio
1532              *
1533              * This is identical to propagate_reference_volume() */
1534             remapped = s->reference_volume;
1535             pa_cvolume_remap(&remapped, &s->channel_map, &i->channel_map);
1536             pa_sw_cvolume_multiply(&i->volume, &remapped, &i->reference_ratio);
1537
1538             /* Notify if something changed */
1539             if (!pa_cvolume_equal(&old_volume, &i->volume)) {
1540
1541                 if (i->volume_changed)
1542                     i->volume_changed(i);
1543
1544                 pa_subscription_post(i->core, PA_SUBSCRIPTION_EVENT_SINK_INPUT|PA_SUBSCRIPTION_EVENT_CHANGE, i->index);
1545             }
1546         }
1547     }
1548
1549     /* Something got changed in the hardware. It probably makes sense
1550      * to save changed hw settings given that hw volume changes not
1551      * triggered by PA are almost certainly done by the user. */
1552     s->save_volume = TRUE;
1553
1554     if (!pa_cvolume_equal(&old_reference_volume, &s->reference_volume))
1555         pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SINK|PA_SUBSCRIPTION_EVENT_CHANGE, s->index);
1556 }
1557
1558 /* Called from main thread */
1559 const pa_cvolume *pa_sink_get_volume(pa_sink *s, pa_bool_t force_refresh) {
1560     pa_sink_assert_ref(s);
1561     pa_assert_ctl_context();
1562     pa_assert(PA_SINK_IS_LINKED(s->state));
1563
1564     if (s->refresh_volume || force_refresh) {
1565         struct pa_cvolume old_real_volume;
1566
1567         old_real_volume = s->real_volume;
1568
1569         if (s->get_volume)
1570             s->get_volume(s);
1571
1572         pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SINK_MESSAGE_GET_VOLUME, NULL, 0, NULL) == 0);
1573
1574         propagate_real_volume(s, &old_real_volume);
1575     }
1576
1577     return &s->reference_volume;
1578 }
1579
1580 /* Called from main thread */
1581 void pa_sink_volume_changed(pa_sink *s, const pa_cvolume *new_real_volume) {
1582     pa_cvolume old_real_volume;
1583
1584     pa_sink_assert_ref(s);
1585     pa_assert_ctl_context();
1586     pa_assert(PA_SINK_IS_LINKED(s->state));
1587
1588     /* The sink implementor may call this if the volume changed to make sure everyone is notified */
1589
1590     old_real_volume = s->real_volume;
1591     s->real_volume = *new_real_volume;
1592
1593     propagate_real_volume(s, &old_real_volume);
1594 }
1595
1596 /* Called from main thread */
1597 void pa_sink_set_mute(pa_sink *s, pa_bool_t mute, pa_bool_t save) {
1598     pa_bool_t old_muted;
1599
1600     pa_sink_assert_ref(s);
1601     pa_assert_ctl_context();
1602     pa_assert(PA_SINK_IS_LINKED(s->state));
1603
1604     old_muted = s->muted;
1605     s->muted = mute;
1606     s->save_muted = (old_muted == s->muted && s->save_muted) || save;
1607
1608     if (s->set_mute)
1609         s->set_mute(s);
1610
1611     pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SINK_MESSAGE_SET_MUTE, NULL, 0, NULL) == 0);
1612
1613     if (old_muted != s->muted)
1614         pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SINK|PA_SUBSCRIPTION_EVENT_CHANGE, s->index);
1615 }
1616
1617 /* Called from main thread */
1618 pa_bool_t pa_sink_get_mute(pa_sink *s, pa_bool_t force_refresh) {
1619
1620     pa_sink_assert_ref(s);
1621     pa_assert_ctl_context();
1622     pa_assert(PA_SINK_IS_LINKED(s->state));
1623
1624     if (s->refresh_muted || force_refresh) {
1625         pa_bool_t old_muted = s->muted;
1626
1627         if (s->get_mute)
1628             s->get_mute(s);
1629
1630         pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SINK_MESSAGE_GET_MUTE, NULL, 0, NULL) == 0);
1631
1632         if (old_muted != s->muted) {
1633             s->save_muted = TRUE;
1634
1635             pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SINK|PA_SUBSCRIPTION_EVENT_CHANGE, s->index);
1636
1637             /* Make sure the soft mute status stays in sync */
1638             pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SINK_MESSAGE_SET_MUTE, NULL, 0, NULL) == 0);
1639         }
1640     }
1641
1642     return s->muted;
1643 }
1644
1645 /* Called from main thread */
1646 void pa_sink_mute_changed(pa_sink *s, pa_bool_t new_muted) {
1647     pa_sink_assert_ref(s);
1648     pa_assert_ctl_context();
1649     pa_assert(PA_SINK_IS_LINKED(s->state));
1650
1651     /* The sink implementor may call this if the volume changed to make sure everyone is notified */
1652
1653     if (s->muted == new_muted)
1654         return;
1655
1656     s->muted = new_muted;
1657     s->save_muted = TRUE;
1658
1659     pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SINK|PA_SUBSCRIPTION_EVENT_CHANGE, s->index);
1660 }
1661
1662 /* Called from main thread */
1663 pa_bool_t pa_sink_update_proplist(pa_sink *s, pa_update_mode_t mode, pa_proplist *p) {
1664     pa_sink_assert_ref(s);
1665     pa_assert_ctl_context();
1666
1667     if (p)
1668         pa_proplist_update(s->proplist, mode, p);
1669
1670     if (PA_SINK_IS_LINKED(s->state)) {
1671         pa_hook_fire(&s->core->hooks[PA_CORE_HOOK_SINK_PROPLIST_CHANGED], s);
1672         pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SINK|PA_SUBSCRIPTION_EVENT_CHANGE, s->index);
1673     }
1674
1675     return TRUE;
1676 }
1677
1678 /* Called from main thread */
1679 /* FIXME -- this should be dropped and be merged into pa_sink_update_proplist() */
1680 void pa_sink_set_description(pa_sink *s, const char *description) {
1681     const char *old;
1682     pa_sink_assert_ref(s);
1683     pa_assert_ctl_context();
1684
1685     if (!description && !pa_proplist_contains(s->proplist, PA_PROP_DEVICE_DESCRIPTION))
1686         return;
1687
1688     old = pa_proplist_gets(s->proplist, PA_PROP_DEVICE_DESCRIPTION);
1689
1690     if (old && description && pa_streq(old, description))
1691         return;
1692
1693     if (description)
1694         pa_proplist_sets(s->proplist, PA_PROP_DEVICE_DESCRIPTION, description);
1695     else
1696         pa_proplist_unset(s->proplist, PA_PROP_DEVICE_DESCRIPTION);
1697
1698     if (s->monitor_source) {
1699         char *n;
1700
1701         n = pa_sprintf_malloc("Monitor Source of %s", description ? description : s->name);
1702         pa_source_set_description(s->monitor_source, n);
1703         pa_xfree(n);
1704     }
1705
1706     if (PA_SINK_IS_LINKED(s->state)) {
1707         pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SINK|PA_SUBSCRIPTION_EVENT_CHANGE, s->index);
1708         pa_hook_fire(&s->core->hooks[PA_CORE_HOOK_SINK_PROPLIST_CHANGED], s);
1709     }
1710 }
1711
1712 /* Called from main thread */
1713 unsigned pa_sink_linked_by(pa_sink *s) {
1714     unsigned ret;
1715
1716     pa_sink_assert_ref(s);
1717     pa_assert_ctl_context();
1718     pa_assert(PA_SINK_IS_LINKED(s->state));
1719
1720     ret = pa_idxset_size(s->inputs);
1721
1722     /* We add in the number of streams connected to us here. Please
1723      * note the asymmmetry to pa_sink_used_by()! */
1724
1725     if (s->monitor_source)
1726         ret += pa_source_linked_by(s->monitor_source);
1727
1728     return ret;
1729 }
1730
1731 /* Called from main thread */
1732 unsigned pa_sink_used_by(pa_sink *s) {
1733     unsigned ret;
1734
1735     pa_sink_assert_ref(s);
1736     pa_assert_ctl_context();
1737     pa_assert(PA_SINK_IS_LINKED(s->state));
1738
1739     ret = pa_idxset_size(s->inputs);
1740     pa_assert(ret >= s->n_corked);
1741
1742     /* Streams connected to our monitor source do not matter for
1743      * pa_sink_used_by()!.*/
1744
1745     return ret - s->n_corked;
1746 }
1747
1748 /* Called from main thread */
1749 unsigned pa_sink_check_suspend(pa_sink *s) {
1750     unsigned ret;
1751     pa_sink_input *i;
1752     uint32_t idx;
1753
1754     pa_sink_assert_ref(s);
1755     pa_assert_ctl_context();
1756
1757     if (!PA_SINK_IS_LINKED(s->state))
1758         return 0;
1759
1760     ret = 0;
1761
1762     PA_IDXSET_FOREACH(i, s->inputs, idx) {
1763         pa_sink_input_state_t st;
1764
1765         st = pa_sink_input_get_state(i);
1766         pa_assert(PA_SINK_INPUT_IS_LINKED(st));
1767
1768         if (st == PA_SINK_INPUT_CORKED)
1769             continue;
1770
1771         if (i->flags & PA_SINK_INPUT_DONT_INHIBIT_AUTO_SUSPEND)
1772             continue;
1773
1774         ret ++;
1775     }
1776
1777     if (s->monitor_source)
1778         ret += pa_source_check_suspend(s->monitor_source);
1779
1780     return ret;
1781 }
1782
1783 /* Called from the IO thread */
1784 static void sync_input_volumes_within_thread(pa_sink *s) {
1785     pa_sink_input *i;
1786     void *state = NULL;
1787
1788     pa_sink_assert_ref(s);
1789     pa_sink_assert_io_context(s);
1790
1791     PA_HASHMAP_FOREACH(i, s->thread_info.inputs, state) {
1792         if (pa_atomic_load(&i->before_ramping_v))
1793             i->thread_info.future_soft_volume = i->soft_volume;
1794
1795         if (pa_cvolume_equal(&i->thread_info.soft_volume, &i->soft_volume))
1796             continue;
1797
1798         if (!pa_atomic_load(&i->before_ramping_v))
1799             i->thread_info.soft_volume = i->soft_volume;
1800         pa_sink_input_request_rewind(i, 0, TRUE, FALSE, FALSE);
1801     }
1802 }
1803
1804 /* Called from IO thread, except when it is not */
1805 int pa_sink_process_msg(pa_msgobject *o, int code, void *userdata, int64_t offset, pa_memchunk *chunk) {
1806     pa_sink *s = PA_SINK(o);
1807     pa_sink_assert_ref(s);
1808
1809     switch ((pa_sink_message_t) code) {
1810
1811         case PA_SINK_MESSAGE_ADD_INPUT: {
1812             pa_sink_input *i = PA_SINK_INPUT(userdata);
1813
1814             /* If you change anything here, make sure to change the
1815              * sink input handling a few lines down at
1816              * PA_SINK_MESSAGE_FINISH_MOVE, too. */
1817
1818             pa_hashmap_put(s->thread_info.inputs, PA_UINT32_TO_PTR(i->index), pa_sink_input_ref(i));
1819
1820             /* Since the caller sleeps in pa_sink_input_put(), we can
1821              * safely access data outside of thread_info even though
1822              * it is mutable */
1823
1824             if ((i->thread_info.sync_prev = i->sync_prev)) {
1825                 pa_assert(i->sink == i->thread_info.sync_prev->sink);
1826                 pa_assert(i->sync_prev->sync_next == i);
1827                 i->thread_info.sync_prev->thread_info.sync_next = i;
1828             }
1829
1830             if ((i->thread_info.sync_next = i->sync_next)) {
1831                 pa_assert(i->sink == i->thread_info.sync_next->sink);
1832                 pa_assert(i->sync_next->sync_prev == i);
1833                 i->thread_info.sync_next->thread_info.sync_prev = i;
1834             }
1835
1836             pa_assert(!i->thread_info.attached);
1837             i->thread_info.attached = TRUE;
1838
1839             if (i->attach)
1840                 i->attach(i);
1841
1842             pa_sink_input_set_state_within_thread(i, i->state);
1843
1844             /* The requested latency of the sink input needs to be
1845              * fixed up and then configured on the sink */
1846
1847             if (i->thread_info.requested_sink_latency != (pa_usec_t) -1)
1848                 pa_sink_input_set_requested_latency_within_thread(i, i->thread_info.requested_sink_latency);
1849
1850             pa_sink_input_update_max_rewind(i, s->thread_info.max_rewind);
1851             pa_sink_input_update_max_request(i, s->thread_info.max_request);
1852
1853             /* We don't rewind here automatically. This is left to the
1854              * sink input implementor because some sink inputs need a
1855              * slow start, i.e. need some time to buffer client
1856              * samples before beginning streaming. */
1857
1858             /* In flat volume mode we need to update the volume as
1859              * well */
1860             return o->process_msg(o, PA_SINK_MESSAGE_SET_VOLUME, NULL, 0, NULL);
1861         }
1862
1863         case PA_SINK_MESSAGE_REMOVE_INPUT: {
1864             pa_sink_input *i = PA_SINK_INPUT(userdata);
1865
1866             /* If you change anything here, make sure to change the
1867              * sink input handling a few lines down at
1868              * PA_SINK_MESSAGE_PREPAPRE_MOVE, too. */
1869
1870             if (i->detach)
1871                 i->detach(i);
1872
1873             pa_sink_input_set_state_within_thread(i, i->state);
1874
1875             pa_assert(i->thread_info.attached);
1876             i->thread_info.attached = FALSE;
1877
1878             /* Since the caller sleeps in pa_sink_input_unlink(),
1879              * we can safely access data outside of thread_info even
1880              * though it is mutable */
1881
1882             pa_assert(!i->sync_prev);
1883             pa_assert(!i->sync_next);
1884
1885             if (i->thread_info.sync_prev) {
1886                 i->thread_info.sync_prev->thread_info.sync_next = i->thread_info.sync_prev->sync_next;
1887                 i->thread_info.sync_prev = NULL;
1888             }
1889
1890             if (i->thread_info.sync_next) {
1891                 i->thread_info.sync_next->thread_info.sync_prev = i->thread_info.sync_next->sync_prev;
1892                 i->thread_info.sync_next = NULL;
1893             }
1894
1895             if (pa_hashmap_remove(s->thread_info.inputs, PA_UINT32_TO_PTR(i->index)))
1896                 pa_sink_input_unref(i);
1897
1898             pa_sink_invalidate_requested_latency(s, TRUE);
1899             pa_sink_request_rewind(s, (size_t) -1);
1900
1901             /* In flat volume mode we need to update the volume as
1902              * well */
1903             return o->process_msg(o, PA_SINK_MESSAGE_SET_VOLUME, NULL, 0, NULL);
1904         }
1905
1906         case PA_SINK_MESSAGE_START_MOVE: {
1907             pa_sink_input *i = PA_SINK_INPUT(userdata);
1908
1909             /* We don't support moving synchronized streams. */
1910             pa_assert(!i->sync_prev);
1911             pa_assert(!i->sync_next);
1912             pa_assert(!i->thread_info.sync_next);
1913             pa_assert(!i->thread_info.sync_prev);
1914
1915             if (i->thread_info.state != PA_SINK_INPUT_CORKED) {
1916                 pa_usec_t usec = 0;
1917                 size_t sink_nbytes, total_nbytes;
1918
1919                 /* Get the latency of the sink */
1920                 usec = pa_sink_get_latency_within_thread(s);
1921                 sink_nbytes = pa_usec_to_bytes(usec, &s->sample_spec);
1922                 total_nbytes = sink_nbytes + pa_memblockq_get_length(i->thread_info.render_memblockq);
1923
1924                 if (total_nbytes > 0) {
1925                     i->thread_info.rewrite_nbytes = i->thread_info.resampler ? pa_resampler_request(i->thread_info.resampler, total_nbytes) : total_nbytes;
1926                     i->thread_info.rewrite_flush = TRUE;
1927                     pa_sink_input_process_rewind(i, sink_nbytes);
1928                 }
1929             }
1930
1931             if (i->detach)
1932                 i->detach(i);
1933
1934             pa_assert(i->thread_info.attached);
1935             i->thread_info.attached = FALSE;
1936
1937             /* Let's remove the sink input ...*/
1938             if (pa_hashmap_remove(s->thread_info.inputs, PA_UINT32_TO_PTR(i->index)))
1939                 pa_sink_input_unref(i);
1940
1941             pa_sink_invalidate_requested_latency(s, TRUE);
1942
1943             pa_log_debug("Requesting rewind due to started move");
1944             pa_sink_request_rewind(s, (size_t) -1);
1945
1946             /* In flat volume mode we need to update the volume as
1947              * well */
1948             return o->process_msg(o, PA_SINK_MESSAGE_SET_VOLUME, NULL, 0, NULL);
1949         }
1950
1951         case PA_SINK_MESSAGE_FINISH_MOVE: {
1952             pa_sink_input *i = PA_SINK_INPUT(userdata);
1953
1954             /* We don't support moving synchronized streams. */
1955             pa_assert(!i->sync_prev);
1956             pa_assert(!i->sync_next);
1957             pa_assert(!i->thread_info.sync_next);
1958             pa_assert(!i->thread_info.sync_prev);
1959
1960             pa_hashmap_put(s->thread_info.inputs, PA_UINT32_TO_PTR(i->index), pa_sink_input_ref(i));
1961
1962             pa_assert(!i->thread_info.attached);
1963             i->thread_info.attached = TRUE;
1964
1965             if (i->attach)
1966                 i->attach(i);
1967
1968             if (i->thread_info.requested_sink_latency != (pa_usec_t) -1)
1969                 pa_sink_input_set_requested_latency_within_thread(i, i->thread_info.requested_sink_latency);
1970
1971             pa_sink_input_update_max_rewind(i, s->thread_info.max_rewind);
1972             pa_sink_input_update_max_request(i, s->thread_info.max_request);
1973
1974             if (i->thread_info.state != PA_SINK_INPUT_CORKED) {
1975                 pa_usec_t usec = 0;
1976                 size_t nbytes;
1977
1978                 /* Get the latency of the sink */
1979                 usec = pa_sink_get_latency_within_thread(s);
1980                 nbytes = pa_usec_to_bytes(usec, &s->sample_spec);
1981
1982                 if (nbytes > 0)
1983                     pa_sink_input_drop(i, nbytes);
1984
1985                 pa_log_debug("Requesting rewind due to finished move");
1986                 pa_sink_request_rewind(s, nbytes);
1987             }
1988
1989             /* In flat volume mode we need to update the volume as
1990              * well */
1991             return o->process_msg(o, PA_SINK_MESSAGE_SET_VOLUME, NULL, 0, NULL);
1992         }
1993
1994         case PA_SINK_MESSAGE_SET_VOLUME:
1995
1996             if (!pa_cvolume_equal(&s->thread_info.soft_volume, &s->soft_volume)) {
1997                 s->thread_info.soft_volume = s->soft_volume;
1998                 pa_sink_request_rewind(s, (size_t) -1);
1999             }
2000
2001             if (!(s->flags & PA_SINK_FLAT_VOLUME))
2002                 return 0;
2003
2004             /* Fall through ... */
2005
2006         case PA_SINK_MESSAGE_SYNC_VOLUMES:
2007             sync_input_volumes_within_thread(s);
2008             return 0;
2009
2010         case PA_SINK_MESSAGE_GET_VOLUME:
2011             return 0;
2012
2013         case PA_SINK_MESSAGE_SET_MUTE:
2014
2015             if (s->thread_info.soft_muted != s->muted) {
2016                 s->thread_info.soft_muted = s->muted;
2017                 pa_sink_request_rewind(s, (size_t) -1);
2018             }
2019
2020             return 0;
2021
2022         case PA_SINK_MESSAGE_GET_MUTE:
2023             return 0;
2024
2025         case PA_SINK_MESSAGE_SET_STATE: {
2026
2027             pa_bool_t suspend_change =
2028                 (s->thread_info.state == PA_SINK_SUSPENDED && PA_SINK_IS_OPENED(PA_PTR_TO_UINT(userdata))) ||
2029                 (PA_SINK_IS_OPENED(s->thread_info.state) && PA_PTR_TO_UINT(userdata) == PA_SINK_SUSPENDED);
2030
2031             s->thread_info.state = PA_PTR_TO_UINT(userdata);
2032
2033             if (s->thread_info.state == PA_SINK_SUSPENDED) {
2034                 s->thread_info.rewind_nbytes = 0;
2035                 s->thread_info.rewind_requested = FALSE;
2036             }
2037
2038             if (suspend_change) {
2039                 pa_sink_input *i;
2040                 void *state = NULL;
2041
2042                 while ((i = pa_hashmap_iterate(s->thread_info.inputs, &state, NULL)))
2043                     if (i->suspend_within_thread)
2044                         i->suspend_within_thread(i, s->thread_info.state == PA_SINK_SUSPENDED);
2045             }
2046
2047             return 0;
2048         }
2049
2050         case PA_SINK_MESSAGE_DETACH:
2051
2052             /* Detach all streams */
2053             pa_sink_detach_within_thread(s);
2054             return 0;
2055
2056         case PA_SINK_MESSAGE_ATTACH:
2057
2058             /* Reattach all streams */
2059             pa_sink_attach_within_thread(s);
2060             return 0;
2061
2062         case PA_SINK_MESSAGE_GET_REQUESTED_LATENCY: {
2063
2064             pa_usec_t *usec = userdata;
2065             *usec = pa_sink_get_requested_latency_within_thread(s);
2066
2067             /* Yes, that's right, the IO thread will see -1 when no
2068              * explicit requested latency is configured, the main
2069              * thread will see max_latency */
2070             if (*usec == (pa_usec_t) -1)
2071                 *usec = s->thread_info.max_latency;
2072
2073             return 0;
2074         }
2075
2076         case PA_SINK_MESSAGE_SET_LATENCY_RANGE: {
2077             pa_usec_t *r = userdata;
2078
2079             pa_sink_set_latency_range_within_thread(s, r[0], r[1]);
2080
2081             return 0;
2082         }
2083
2084         case PA_SINK_MESSAGE_GET_LATENCY_RANGE: {
2085             pa_usec_t *r = userdata;
2086
2087             r[0] = s->thread_info.min_latency;
2088             r[1] = s->thread_info.max_latency;
2089
2090             return 0;
2091         }
2092
2093         case PA_SINK_MESSAGE_GET_FIXED_LATENCY:
2094
2095             *((pa_usec_t*) userdata) = s->thread_info.fixed_latency;
2096             return 0;
2097
2098         case PA_SINK_MESSAGE_SET_FIXED_LATENCY:
2099
2100             pa_sink_set_fixed_latency_within_thread(s, (pa_usec_t) offset);
2101             return 0;
2102
2103         case PA_SINK_MESSAGE_GET_MAX_REWIND:
2104
2105             *((size_t*) userdata) = s->thread_info.max_rewind;
2106             return 0;
2107
2108         case PA_SINK_MESSAGE_GET_MAX_REQUEST:
2109
2110             *((size_t*) userdata) = s->thread_info.max_request;
2111             return 0;
2112
2113         case PA_SINK_MESSAGE_SET_MAX_REWIND:
2114
2115             pa_sink_set_max_rewind_within_thread(s, (size_t) offset);
2116             return 0;
2117
2118         case PA_SINK_MESSAGE_SET_MAX_REQUEST:
2119
2120             pa_sink_set_max_request_within_thread(s, (size_t) offset);
2121             return 0;
2122
2123         case PA_SINK_MESSAGE_GET_LATENCY:
2124         case PA_SINK_MESSAGE_MAX:
2125             ;
2126     }
2127
2128     return -1;
2129 }
2130
2131 /* Called from main thread */
2132 int pa_sink_suspend_all(pa_core *c, pa_bool_t suspend, pa_suspend_cause_t cause) {
2133     pa_sink *sink;
2134     uint32_t idx;
2135     int ret = 0;
2136
2137     pa_core_assert_ref(c);
2138     pa_assert_ctl_context();
2139     pa_assert(cause != 0);
2140
2141     PA_IDXSET_FOREACH(sink, c->sinks, idx) {
2142         int r;
2143
2144         if ((r = pa_sink_suspend(sink, suspend, cause)) < 0)
2145             ret = r;
2146     }
2147
2148     return ret;
2149 }
2150
2151 /* Called from main thread */
2152 void pa_sink_detach(pa_sink *s) {
2153     pa_sink_assert_ref(s);
2154     pa_assert_ctl_context();
2155     pa_assert(PA_SINK_IS_LINKED(s->state));
2156
2157     pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SINK_MESSAGE_DETACH, NULL, 0, NULL) == 0);
2158 }
2159
2160 /* Called from main thread */
2161 void pa_sink_attach(pa_sink *s) {
2162     pa_sink_assert_ref(s);
2163     pa_assert_ctl_context();
2164     pa_assert(PA_SINK_IS_LINKED(s->state));
2165
2166     pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SINK_MESSAGE_ATTACH, NULL, 0, NULL) == 0);
2167 }
2168
2169 /* Called from IO thread */
2170 void pa_sink_detach_within_thread(pa_sink *s) {
2171     pa_sink_input *i;
2172     void *state = NULL;
2173
2174     pa_sink_assert_ref(s);
2175     pa_sink_assert_io_context(s);
2176     pa_assert(PA_SINK_IS_LINKED(s->thread_info.state));
2177
2178     PA_HASHMAP_FOREACH(i, s->thread_info.inputs, state)
2179         if (i->detach)
2180             i->detach(i);
2181
2182     if (s->monitor_source)
2183         pa_source_detach_within_thread(s->monitor_source);
2184 }
2185
2186 /* Called from IO thread */
2187 void pa_sink_attach_within_thread(pa_sink *s) {
2188     pa_sink_input *i;
2189     void *state = NULL;
2190
2191     pa_sink_assert_ref(s);
2192     pa_sink_assert_io_context(s);
2193     pa_assert(PA_SINK_IS_LINKED(s->thread_info.state));
2194
2195     PA_HASHMAP_FOREACH(i, s->thread_info.inputs, state)
2196         if (i->attach)
2197             i->attach(i);
2198
2199     if (s->monitor_source)
2200         pa_source_attach_within_thread(s->monitor_source);
2201 }
2202
2203 /* Called from IO thread */
2204 void pa_sink_request_rewind(pa_sink*s, size_t nbytes) {
2205     pa_sink_assert_ref(s);
2206     pa_sink_assert_io_context(s);
2207     pa_assert(PA_SINK_IS_LINKED(s->thread_info.state));
2208
2209     if (s->thread_info.state == PA_SINK_SUSPENDED)
2210         return;
2211
2212     if (nbytes == (size_t) -1)
2213         nbytes = s->thread_info.max_rewind;
2214
2215     nbytes = PA_MIN(nbytes, s->thread_info.max_rewind);
2216
2217     if (s->thread_info.rewind_requested &&
2218         nbytes <= s->thread_info.rewind_nbytes)
2219         return;
2220
2221     s->thread_info.rewind_nbytes = nbytes;
2222     s->thread_info.rewind_requested = TRUE;
2223
2224     if (s->request_rewind)
2225         s->request_rewind(s);
2226 }
2227
2228 /* Called from IO thread */
2229 pa_usec_t pa_sink_get_requested_latency_within_thread(pa_sink *s) {
2230     pa_usec_t result = (pa_usec_t) -1;
2231     pa_sink_input *i;
2232     void *state = NULL;
2233     pa_usec_t monitor_latency;
2234
2235     pa_sink_assert_ref(s);
2236     pa_sink_assert_io_context(s);
2237
2238     if (!(s->flags & PA_SINK_DYNAMIC_LATENCY))
2239         return PA_CLAMP(s->thread_info.fixed_latency, s->thread_info.min_latency, s->thread_info.max_latency);
2240
2241     if (s->thread_info.requested_latency_valid)
2242         return s->thread_info.requested_latency;
2243
2244     PA_HASHMAP_FOREACH(i, s->thread_info.inputs, state)
2245         if (i->thread_info.requested_sink_latency != (pa_usec_t) -1 &&
2246             (result == (pa_usec_t) -1 || result > i->thread_info.requested_sink_latency))
2247             result = i->thread_info.requested_sink_latency;
2248
2249     monitor_latency = pa_source_get_requested_latency_within_thread(s->monitor_source);
2250
2251     if (monitor_latency != (pa_usec_t) -1 &&
2252         (result == (pa_usec_t) -1 || result > monitor_latency))
2253         result = monitor_latency;
2254
2255     if (result != (pa_usec_t) -1)
2256         result = PA_CLAMP(result, s->thread_info.min_latency, s->thread_info.max_latency);
2257
2258     if (PA_SINK_IS_LINKED(s->thread_info.state)) {
2259         /* Only cache if properly initialized */
2260         s->thread_info.requested_latency = result;
2261         s->thread_info.requested_latency_valid = TRUE;
2262     }
2263
2264     return result;
2265 }
2266
2267 /* Called from main thread */
2268 pa_usec_t pa_sink_get_requested_latency(pa_sink *s) {
2269     pa_usec_t usec = 0;
2270
2271     pa_sink_assert_ref(s);
2272     pa_assert_ctl_context();
2273     pa_assert(PA_SINK_IS_LINKED(s->state));
2274
2275     if (s->state == PA_SINK_SUSPENDED)
2276         return 0;
2277
2278     pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SINK_MESSAGE_GET_REQUESTED_LATENCY, &usec, 0, NULL) == 0);
2279     return usec;
2280 }
2281
2282 /* Called from IO as well as the main thread -- the latter only before the IO thread started up */
2283 void pa_sink_set_max_rewind_within_thread(pa_sink *s, size_t max_rewind) {
2284     pa_sink_input *i;
2285     void *state = NULL;
2286
2287     pa_sink_assert_ref(s);
2288     pa_sink_assert_io_context(s);
2289
2290     if (max_rewind == s->thread_info.max_rewind)
2291         return;
2292
2293     s->thread_info.max_rewind = max_rewind;
2294
2295     if (PA_SINK_IS_LINKED(s->thread_info.state))
2296         PA_HASHMAP_FOREACH(i, s->thread_info.inputs, state)
2297             pa_sink_input_update_max_rewind(i, s->thread_info.max_rewind);
2298
2299     if (s->monitor_source)
2300         pa_source_set_max_rewind_within_thread(s->monitor_source, s->thread_info.max_rewind);
2301 }
2302
2303 /* Called from main thread */
2304 void pa_sink_set_max_rewind(pa_sink *s, size_t max_rewind) {
2305     pa_sink_assert_ref(s);
2306     pa_assert_ctl_context();
2307
2308     if (PA_SINK_IS_LINKED(s->state))
2309         pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SINK_MESSAGE_SET_MAX_REWIND, NULL, max_rewind, NULL) == 0);
2310     else
2311         pa_sink_set_max_rewind_within_thread(s, max_rewind);
2312 }
2313
2314 /* Called from IO as well as the main thread -- the latter only before the IO thread started up */
2315 void pa_sink_set_max_request_within_thread(pa_sink *s, size_t max_request) {
2316     void *state = NULL;
2317
2318     pa_sink_assert_ref(s);
2319     pa_sink_assert_io_context(s);
2320
2321     if (max_request == s->thread_info.max_request)
2322         return;
2323
2324     s->thread_info.max_request = max_request;
2325
2326     if (PA_SINK_IS_LINKED(s->thread_info.state)) {
2327         pa_sink_input *i;
2328
2329         PA_HASHMAP_FOREACH(i, s->thread_info.inputs, state)
2330             pa_sink_input_update_max_request(i, s->thread_info.max_request);
2331     }
2332 }
2333
2334 /* Called from main thread */
2335 void pa_sink_set_max_request(pa_sink *s, size_t max_request) {
2336     pa_sink_assert_ref(s);
2337     pa_assert_ctl_context();
2338
2339     if (PA_SINK_IS_LINKED(s->state))
2340         pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SINK_MESSAGE_SET_MAX_REQUEST, NULL, max_request, NULL) == 0);
2341     else
2342         pa_sink_set_max_request_within_thread(s, max_request);
2343 }
2344
2345 /* Called from IO thread */
2346 void pa_sink_invalidate_requested_latency(pa_sink *s, pa_bool_t dynamic) {
2347     pa_sink_input *i;
2348     void *state = NULL;
2349
2350     pa_sink_assert_ref(s);
2351     pa_sink_assert_io_context(s);
2352
2353     if ((s->flags & PA_SINK_DYNAMIC_LATENCY))
2354         s->thread_info.requested_latency_valid = FALSE;
2355     else if (dynamic)
2356         return;
2357
2358     if (PA_SINK_IS_LINKED(s->thread_info.state)) {
2359
2360         if (s->update_requested_latency)
2361             s->update_requested_latency(s);
2362
2363         PA_HASHMAP_FOREACH(i, s->thread_info.inputs, state)
2364             if (i->update_sink_requested_latency)
2365                 i->update_sink_requested_latency(i);
2366     }
2367 }
2368
2369 /* Called from main thread */
2370 void pa_sink_set_latency_range(pa_sink *s, pa_usec_t min_latency, pa_usec_t max_latency) {
2371     pa_sink_assert_ref(s);
2372     pa_assert_ctl_context();
2373
2374     /* min_latency == 0:           no limit
2375      * min_latency anything else:  specified limit
2376      *
2377      * Similar for max_latency */
2378
2379     if (min_latency < ABSOLUTE_MIN_LATENCY)
2380         min_latency = ABSOLUTE_MIN_LATENCY;
2381
2382     if (max_latency <= 0 ||
2383         max_latency > ABSOLUTE_MAX_LATENCY)
2384         max_latency = ABSOLUTE_MAX_LATENCY;
2385
2386     pa_assert(min_latency <= max_latency);
2387
2388     /* Hmm, let's see if someone forgot to set PA_SINK_DYNAMIC_LATENCY here... */
2389     pa_assert((min_latency == ABSOLUTE_MIN_LATENCY &&
2390                max_latency == ABSOLUTE_MAX_LATENCY) ||
2391               (s->flags & PA_SINK_DYNAMIC_LATENCY));
2392
2393     if (PA_SINK_IS_LINKED(s->state)) {
2394         pa_usec_t r[2];
2395
2396         r[0] = min_latency;
2397         r[1] = max_latency;
2398
2399         pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SINK_MESSAGE_SET_LATENCY_RANGE, r, 0, NULL) == 0);
2400     } else
2401         pa_sink_set_latency_range_within_thread(s, min_latency, max_latency);
2402 }
2403
2404 /* Called from main thread */
2405 void pa_sink_get_latency_range(pa_sink *s, pa_usec_t *min_latency, pa_usec_t *max_latency) {
2406    pa_sink_assert_ref(s);
2407    pa_assert_ctl_context();
2408    pa_assert(min_latency);
2409    pa_assert(max_latency);
2410
2411    if (PA_SINK_IS_LINKED(s->state)) {
2412        pa_usec_t r[2] = { 0, 0 };
2413
2414        pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SINK_MESSAGE_GET_LATENCY_RANGE, r, 0, NULL) == 0);
2415
2416        *min_latency = r[0];
2417        *max_latency = r[1];
2418    } else {
2419        *min_latency = s->thread_info.min_latency;
2420        *max_latency = s->thread_info.max_latency;
2421    }
2422 }
2423
2424 /* Called from IO thread */
2425 void pa_sink_set_latency_range_within_thread(pa_sink *s, pa_usec_t min_latency, pa_usec_t max_latency) {
2426     pa_sink_assert_ref(s);
2427     pa_sink_assert_io_context(s);
2428
2429     pa_assert(min_latency >= ABSOLUTE_MIN_LATENCY);
2430     pa_assert(max_latency <= ABSOLUTE_MAX_LATENCY);
2431     pa_assert(min_latency <= max_latency);
2432
2433     /* Hmm, let's see if someone forgot to set PA_SINK_DYNAMIC_LATENCY here... */
2434     pa_assert((min_latency == ABSOLUTE_MIN_LATENCY &&
2435                max_latency == ABSOLUTE_MAX_LATENCY) ||
2436               (s->flags & PA_SINK_DYNAMIC_LATENCY));
2437
2438     if (s->thread_info.min_latency == min_latency &&
2439         s->thread_info.max_latency == max_latency)
2440         return;
2441
2442     s->thread_info.min_latency = min_latency;
2443     s->thread_info.max_latency = max_latency;
2444
2445     if (PA_SINK_IS_LINKED(s->thread_info.state)) {
2446         pa_sink_input *i;
2447         void *state = NULL;
2448
2449         PA_HASHMAP_FOREACH(i, s->thread_info.inputs, state)
2450             if (i->update_sink_latency_range)
2451                 i->update_sink_latency_range(i);
2452     }
2453
2454     pa_sink_invalidate_requested_latency(s, FALSE);
2455
2456     pa_source_set_latency_range_within_thread(s->monitor_source, min_latency, max_latency);
2457 }
2458
2459 /* Called from main thread */
2460 void pa_sink_set_fixed_latency(pa_sink *s, pa_usec_t latency) {
2461     pa_sink_assert_ref(s);
2462     pa_assert_ctl_context();
2463
2464     if (s->flags & PA_SINK_DYNAMIC_LATENCY) {
2465         pa_assert(latency == 0);
2466         return;
2467     }
2468
2469     if (latency < ABSOLUTE_MIN_LATENCY)
2470         latency = ABSOLUTE_MIN_LATENCY;
2471
2472     if (latency > ABSOLUTE_MAX_LATENCY)
2473         latency = ABSOLUTE_MAX_LATENCY;
2474
2475     if (PA_SINK_IS_LINKED(s->state))
2476         pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SINK_MESSAGE_SET_FIXED_LATENCY, NULL, (int64_t) latency, NULL) == 0);
2477     else
2478         s->thread_info.fixed_latency = latency;
2479
2480     pa_source_set_fixed_latency(s->monitor_source, latency);
2481 }
2482
2483 /* Called from main thread */
2484 pa_usec_t pa_sink_get_fixed_latency(pa_sink *s) {
2485     pa_usec_t latency;
2486
2487     pa_sink_assert_ref(s);
2488     pa_assert_ctl_context();
2489
2490     if (s->flags & PA_SINK_DYNAMIC_LATENCY)
2491         return 0;
2492
2493     if (PA_SINK_IS_LINKED(s->state))
2494         pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SINK_MESSAGE_GET_FIXED_LATENCY, &latency, 0, NULL) == 0);
2495     else
2496         latency = s->thread_info.fixed_latency;
2497
2498     return latency;
2499 }
2500
2501 /* Called from IO thread */
2502 void pa_sink_set_fixed_latency_within_thread(pa_sink *s, pa_usec_t latency) {
2503     pa_sink_assert_ref(s);
2504     pa_sink_assert_io_context(s);
2505
2506     if (s->flags & PA_SINK_DYNAMIC_LATENCY) {
2507         pa_assert(latency == 0);
2508         return;
2509     }
2510
2511     pa_assert(latency >= ABSOLUTE_MIN_LATENCY);
2512     pa_assert(latency <= ABSOLUTE_MAX_LATENCY);
2513
2514     if (s->thread_info.fixed_latency == latency)
2515         return;
2516
2517     s->thread_info.fixed_latency = latency;
2518
2519     if (PA_SINK_IS_LINKED(s->thread_info.state)) {
2520         pa_sink_input *i;
2521         void *state = NULL;
2522
2523         PA_HASHMAP_FOREACH(i, s->thread_info.inputs, state)
2524             if (i->update_sink_fixed_latency)
2525                 i->update_sink_fixed_latency(i);
2526     }
2527
2528     pa_sink_invalidate_requested_latency(s, FALSE);
2529
2530     pa_source_set_fixed_latency_within_thread(s->monitor_source, latency);
2531 }
2532
2533 /* Called from main context */
2534 size_t pa_sink_get_max_rewind(pa_sink *s) {
2535     size_t r;
2536     pa_sink_assert_ref(s);
2537     pa_assert_ctl_context();
2538
2539     if (!PA_SINK_IS_LINKED(s->state))
2540         return s->thread_info.max_rewind;
2541
2542     pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SINK_MESSAGE_GET_MAX_REWIND, &r, 0, NULL) == 0);
2543
2544     return r;
2545 }
2546
2547 /* Called from main context */
2548 size_t pa_sink_get_max_request(pa_sink *s) {
2549     size_t r;
2550     pa_sink_assert_ref(s);
2551     pa_assert_ctl_context();
2552
2553     if (!PA_SINK_IS_LINKED(s->state))
2554         return s->thread_info.max_request;
2555
2556     pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SINK_MESSAGE_GET_MAX_REQUEST, &r, 0, NULL) == 0);
2557
2558     return r;
2559 }
2560
2561 /* Called from main context */
2562 int pa_sink_set_port(pa_sink *s, const char *name, pa_bool_t save) {
2563     pa_device_port *port;
2564
2565     pa_sink_assert_ref(s);
2566     pa_assert_ctl_context();
2567
2568     if (!s->set_port) {
2569         pa_log_debug("set_port() operation not implemented for sink %u \"%s\"", s->index, s->name);
2570         return -PA_ERR_NOTIMPLEMENTED;
2571     }
2572
2573     if (!s->ports)
2574         return -PA_ERR_NOENTITY;
2575
2576     if (!(port = pa_hashmap_get(s->ports, name)))
2577         return -PA_ERR_NOENTITY;
2578
2579     if (s->active_port == port) {
2580         s->save_port = s->save_port || save;
2581         return 0;
2582     }
2583
2584     if ((s->set_port(s, port)) < 0)
2585         return -PA_ERR_NOENTITY;
2586
2587     pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SINK|PA_SUBSCRIPTION_EVENT_CHANGE, s->index);
2588
2589     pa_log_info("Changed port of sink %u \"%s\" to %s", s->index, s->name, port->name);
2590
2591     s->active_port = port;
2592     s->save_port = save;
2593
2594     return 0;
2595 }
2596
2597 pa_bool_t pa_device_init_icon(pa_proplist *p, pa_bool_t is_sink) {
2598     const char *ff, *c, *t = NULL, *s = "", *profile, *bus;
2599
2600     pa_assert(p);
2601
2602     if (pa_proplist_contains(p, PA_PROP_DEVICE_ICON_NAME))
2603         return TRUE;
2604
2605     if ((ff = pa_proplist_gets(p, PA_PROP_DEVICE_FORM_FACTOR))) {
2606
2607         if (pa_streq(ff, "microphone"))
2608             t = "audio-input-microphone";
2609         else if (pa_streq(ff, "webcam"))
2610             t = "camera-web";
2611         else if (pa_streq(ff, "computer"))
2612             t = "computer";
2613         else if (pa_streq(ff, "handset"))
2614             t = "phone";
2615         else if (pa_streq(ff, "portable"))
2616             t = "multimedia-player";
2617         else if (pa_streq(ff, "tv"))
2618             t = "video-display";
2619
2620         /*
2621          * The following icons are not part of the icon naming spec,
2622          * because Rodney Dawes sucks as the maintainer of that spec.
2623          *
2624          * http://lists.freedesktop.org/archives/xdg/2009-May/010397.html
2625          */
2626         else if (pa_streq(ff, "headset"))
2627             t = "audio-headset";
2628         else if (pa_streq(ff, "headphone"))
2629             t = "audio-headphones";
2630         else if (pa_streq(ff, "speaker"))
2631             t = "audio-speakers";
2632         else if (pa_streq(ff, "hands-free"))
2633             t = "audio-handsfree";
2634     }
2635
2636     if (!t)
2637         if ((c = pa_proplist_gets(p, PA_PROP_DEVICE_CLASS)))
2638             if (pa_streq(c, "modem"))
2639                 t = "modem";
2640
2641     if (!t) {
2642         if (is_sink)
2643             t = "audio-card";
2644         else
2645             t = "audio-input-microphone";
2646     }
2647
2648     if ((profile = pa_proplist_gets(p, PA_PROP_DEVICE_PROFILE_NAME))) {
2649         if (strstr(profile, "analog"))
2650             s = "-analog";
2651         else if (strstr(profile, "iec958"))
2652             s = "-iec958";
2653         else if (strstr(profile, "hdmi"))
2654             s = "-hdmi";
2655     }
2656
2657     bus = pa_proplist_gets(p, PA_PROP_DEVICE_BUS);
2658
2659     pa_proplist_setf(p, PA_PROP_DEVICE_ICON_NAME, "%s%s%s%s", t, pa_strempty(s), bus ? "-" : "", pa_strempty(bus));
2660
2661     return TRUE;
2662 }
2663
2664 pa_bool_t pa_device_init_description(pa_proplist *p) {
2665     const char *s, *d = NULL, *k;
2666     pa_assert(p);
2667
2668     if (pa_proplist_contains(p, PA_PROP_DEVICE_DESCRIPTION))
2669         return TRUE;
2670
2671     if ((s = pa_proplist_gets(p, PA_PROP_DEVICE_FORM_FACTOR)))
2672         if (pa_streq(s, "internal"))
2673             d = _("Internal Audio");
2674
2675     if (!d)
2676         if ((s = pa_proplist_gets(p, PA_PROP_DEVICE_CLASS)))
2677             if (pa_streq(s, "modem"))
2678                 d = _("Modem");
2679
2680     if (!d)
2681         d = pa_proplist_gets(p, PA_PROP_DEVICE_PRODUCT_NAME);
2682
2683     if (!d)
2684         return FALSE;
2685
2686     k = pa_proplist_gets(p, PA_PROP_DEVICE_PROFILE_DESCRIPTION);
2687
2688     if (d && k)
2689         pa_proplist_setf(p, PA_PROP_DEVICE_DESCRIPTION, _("%s %s"), d, k);
2690     else if (d)
2691         pa_proplist_sets(p, PA_PROP_DEVICE_DESCRIPTION, d);
2692
2693     return TRUE;
2694 }
2695
2696 pa_bool_t pa_device_init_intended_roles(pa_proplist *p) {
2697     const char *s;
2698     pa_assert(p);
2699
2700     if (pa_proplist_contains(p, PA_PROP_DEVICE_INTENDED_ROLES))
2701         return TRUE;
2702
2703     if ((s = pa_proplist_gets(p, PA_PROP_DEVICE_FORM_FACTOR)))
2704         if (pa_streq(s, "handset") || pa_streq(s, "hands-free")) {
2705             pa_proplist_sets(p, PA_PROP_DEVICE_INTENDED_ROLES, "phone");
2706             return TRUE;
2707         }
2708
2709     return FALSE;
2710 }
2711
2712 unsigned pa_device_init_priority(pa_proplist *p) {
2713     const char *s;
2714     unsigned priority = 0;
2715
2716     pa_assert(p);
2717
2718     if ((s = pa_proplist_gets(p, PA_PROP_DEVICE_CLASS))) {
2719
2720         if (pa_streq(s, "sound"))
2721             priority += 9000;
2722         else if (!pa_streq(s, "modem"))
2723             priority += 1000;
2724     }
2725
2726     if ((s = pa_proplist_gets(p, PA_PROP_DEVICE_FORM_FACTOR))) {
2727
2728         if (pa_streq(s, "internal"))
2729             priority += 900;
2730         else if (pa_streq(s, "speaker"))
2731             priority += 500;
2732         else if (pa_streq(s, "headphone"))
2733             priority += 400;
2734     }
2735
2736     if ((s = pa_proplist_gets(p, PA_PROP_DEVICE_BUS))) {
2737
2738         if (pa_streq(s, "pci"))
2739             priority += 50;
2740         else if (pa_streq(s, "usb"))
2741             priority += 40;
2742         else if (pa_streq(s, "bluetooth"))
2743             priority += 30;
2744     }
2745
2746     if ((s = pa_proplist_gets(p, PA_PROP_DEVICE_PROFILE_NAME))) {
2747
2748         if (pa_startswith(s, "analog-"))
2749             priority += 9;
2750         else if (pa_startswith(s, "iec958-"))
2751             priority += 8;
2752     }
2753
2754     return priority;
2755 }