sink, source: Don't care about default and alternate rate in passthrough mode
[platform/upstream/pulseaudio.git] / src / pulsecore / source.c
1 /***
2   This file is part of PulseAudio.
3
4   Copyright 2004-2006 Lennart Poettering
5   Copyright 2006 Pierre Ossman <ossman@cendio.se> for Cendio AB
6
7   PulseAudio is free software; you can redistribute it and/or modify
8   it under the terms of the GNU Lesser General Public License as published
9   by the Free Software Foundation; either version 2.1 of the License,
10   or (at your option) any later version.
11
12   PulseAudio is distributed in the hope that it will be useful, but
13   WITHOUT ANY WARRANTY; without even the implied warranty of
14   MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the GNU
15   General Public License for more details.
16
17   You should have received a copy of the GNU Lesser General Public License
18   along with PulseAudio; if not, write to the Free Software
19   Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307
20   USA.
21 ***/
22
23 #ifdef HAVE_CONFIG_H
24 #include <config.h>
25 #endif
26
27 #include <stdio.h>
28 #include <stdlib.h>
29
30 #include <pulse/format.h>
31 #include <pulse/utf8.h>
32 #include <pulse/xmalloc.h>
33 #include <pulse/timeval.h>
34 #include <pulse/util.h>
35 #include <pulse/rtclock.h>
36 #include <pulse/internal.h>
37
38 #include <pulsecore/core-util.h>
39 #include <pulsecore/source-output.h>
40 #include <pulsecore/namereg.h>
41 #include <pulsecore/core-subscribe.h>
42 #include <pulsecore/log.h>
43 #include <pulsecore/mix.h>
44 #include <pulsecore/flist.h>
45
46 #include "source.h"
47
48 #define ABSOLUTE_MIN_LATENCY (500)
49 #define ABSOLUTE_MAX_LATENCY (10*PA_USEC_PER_SEC)
50 #define DEFAULT_FIXED_LATENCY (250*PA_USEC_PER_MSEC)
51
52 PA_DEFINE_PUBLIC_CLASS(pa_source, pa_msgobject);
53
54 struct pa_source_volume_change {
55     pa_usec_t at;
56     pa_cvolume hw_volume;
57
58     PA_LLIST_FIELDS(pa_source_volume_change);
59 };
60
61 struct source_message_set_port {
62     pa_device_port *port;
63     int ret;
64 };
65
66 static void source_free(pa_object *o);
67
68 static void pa_source_volume_change_push(pa_source *s);
69 static void pa_source_volume_change_flush(pa_source *s);
70
71 pa_source_new_data* pa_source_new_data_init(pa_source_new_data *data) {
72     pa_assert(data);
73
74     pa_zero(*data);
75     data->proplist = pa_proplist_new();
76     data->ports = pa_hashmap_new(pa_idxset_string_hash_func, pa_idxset_string_compare_func);
77
78     return data;
79 }
80
81 void pa_source_new_data_set_name(pa_source_new_data *data, const char *name) {
82     pa_assert(data);
83
84     pa_xfree(data->name);
85     data->name = pa_xstrdup(name);
86 }
87
88 void pa_source_new_data_set_sample_spec(pa_source_new_data *data, const pa_sample_spec *spec) {
89     pa_assert(data);
90
91     if ((data->sample_spec_is_set = !!spec))
92         data->sample_spec = *spec;
93 }
94
95 void pa_source_new_data_set_channel_map(pa_source_new_data *data, const pa_channel_map *map) {
96     pa_assert(data);
97
98     if ((data->channel_map_is_set = !!map))
99         data->channel_map = *map;
100 }
101
102 void pa_source_new_data_set_alternate_sample_rate(pa_source_new_data *data, const uint32_t alternate_sample_rate) {
103     pa_assert(data);
104
105     data->alternate_sample_rate_is_set = true;
106     data->alternate_sample_rate = alternate_sample_rate;
107 }
108
109 void pa_source_new_data_set_volume(pa_source_new_data *data, const pa_cvolume *volume) {
110     pa_assert(data);
111
112     if ((data->volume_is_set = !!volume))
113         data->volume = *volume;
114 }
115
116 void pa_source_new_data_set_muted(pa_source_new_data *data, bool mute) {
117     pa_assert(data);
118
119     data->muted_is_set = true;
120     data->muted = !!mute;
121 }
122
123 void pa_source_new_data_set_port(pa_source_new_data *data, const char *port) {
124     pa_assert(data);
125
126     pa_xfree(data->active_port);
127     data->active_port = pa_xstrdup(port);
128 }
129
130 void pa_source_new_data_done(pa_source_new_data *data) {
131     pa_assert(data);
132
133     pa_proplist_free(data->proplist);
134
135     if (data->ports)
136         pa_hashmap_free(data->ports, (pa_free_cb_t) pa_device_port_unref);
137
138     pa_xfree(data->name);
139     pa_xfree(data->active_port);
140 }
141
142 /* Called from main context */
143 static void reset_callbacks(pa_source *s) {
144     pa_assert(s);
145
146     s->set_state = NULL;
147     s->get_volume = NULL;
148     s->set_volume = NULL;
149     s->write_volume = NULL;
150     s->get_mute = NULL;
151     s->set_mute = NULL;
152     s->update_requested_latency = NULL;
153     s->set_port = NULL;
154     s->get_formats = NULL;
155     s->update_rate = NULL;
156 }
157
158 /* Called from main context */
159 pa_source* pa_source_new(
160         pa_core *core,
161         pa_source_new_data *data,
162         pa_source_flags_t flags) {
163
164     pa_source *s;
165     const char *name;
166     char st[PA_SAMPLE_SPEC_SNPRINT_MAX], cm[PA_CHANNEL_MAP_SNPRINT_MAX];
167     char *pt;
168
169     pa_assert(core);
170     pa_assert(data);
171     pa_assert(data->name);
172     pa_assert_ctl_context();
173
174     s = pa_msgobject_new(pa_source);
175
176     if (!(name = pa_namereg_register(core, data->name, PA_NAMEREG_SOURCE, s, data->namereg_fail))) {
177         pa_log_debug("Failed to register name %s.", data->name);
178         pa_xfree(s);
179         return NULL;
180     }
181
182     pa_source_new_data_set_name(data, name);
183
184     if (pa_hook_fire(&core->hooks[PA_CORE_HOOK_SOURCE_NEW], data) < 0) {
185         pa_xfree(s);
186         pa_namereg_unregister(core, name);
187         return NULL;
188     }
189
190     /* FIXME, need to free s here on failure */
191
192     pa_return_null_if_fail(!data->driver || pa_utf8_valid(data->driver));
193     pa_return_null_if_fail(data->name && pa_utf8_valid(data->name) && data->name[0]);
194
195     pa_return_null_if_fail(data->sample_spec_is_set && pa_sample_spec_valid(&data->sample_spec));
196
197     if (!data->channel_map_is_set)
198         pa_return_null_if_fail(pa_channel_map_init_auto(&data->channel_map, data->sample_spec.channels, PA_CHANNEL_MAP_DEFAULT));
199
200     pa_return_null_if_fail(pa_channel_map_valid(&data->channel_map));
201     pa_return_null_if_fail(data->channel_map.channels == data->sample_spec.channels);
202
203     /* FIXME: There should probably be a general function for checking whether
204      * the source volume is allowed to be set, like there is for source outputs. */
205     pa_assert(!data->volume_is_set || !(flags & PA_SOURCE_SHARE_VOLUME_WITH_MASTER));
206
207     if (!data->volume_is_set) {
208         pa_cvolume_reset(&data->volume, data->sample_spec.channels);
209         data->save_volume = false;
210     }
211
212     pa_return_null_if_fail(pa_cvolume_valid(&data->volume));
213     pa_return_null_if_fail(pa_cvolume_compatible(&data->volume, &data->sample_spec));
214
215     if (!data->muted_is_set)
216         data->muted = false;
217
218     if (data->card)
219         pa_proplist_update(data->proplist, PA_UPDATE_MERGE, data->card->proplist);
220
221     pa_device_init_description(data->proplist);
222     pa_device_init_icon(data->proplist, false);
223     pa_device_init_intended_roles(data->proplist);
224
225     if (pa_hook_fire(&core->hooks[PA_CORE_HOOK_SOURCE_FIXATE], data) < 0) {
226         pa_xfree(s);
227         pa_namereg_unregister(core, name);
228         return NULL;
229     }
230
231     s->parent.parent.free = source_free;
232     s->parent.process_msg = pa_source_process_msg;
233
234     s->core = core;
235     s->state = PA_SOURCE_INIT;
236     s->flags = flags;
237     s->priority = 0;
238     s->suspend_cause = data->suspend_cause;
239     pa_source_set_mixer_dirty(s, false);
240     s->name = pa_xstrdup(name);
241     s->proplist = pa_proplist_copy(data->proplist);
242     s->driver = pa_xstrdup(pa_path_get_filename(data->driver));
243     s->module = data->module;
244     s->card = data->card;
245
246     s->priority = pa_device_init_priority(s->proplist);
247
248     s->sample_spec = data->sample_spec;
249     s->channel_map = data->channel_map;
250     s->default_sample_rate = s->sample_spec.rate;
251
252     if (data->alternate_sample_rate_is_set)
253         s->alternate_sample_rate = data->alternate_sample_rate;
254     else
255         s->alternate_sample_rate = s->core->alternate_sample_rate;
256
257     if (s->sample_spec.rate == s->alternate_sample_rate) {
258         pa_log_warn("Default and alternate sample rates are the same.");
259         s->alternate_sample_rate = 0;
260     }
261
262     s->outputs = pa_idxset_new(NULL, NULL);
263     s->n_corked = 0;
264     s->monitor_of = NULL;
265     s->output_from_master = NULL;
266
267     s->reference_volume = s->real_volume = data->volume;
268     pa_cvolume_reset(&s->soft_volume, s->sample_spec.channels);
269     s->base_volume = PA_VOLUME_NORM;
270     s->n_volume_steps = PA_VOLUME_NORM+1;
271     s->muted = data->muted;
272     s->refresh_volume = s->refresh_muted = false;
273
274     reset_callbacks(s);
275     s->userdata = NULL;
276
277     s->asyncmsgq = NULL;
278
279     /* As a minor optimization we just steal the list instead of
280      * copying it here */
281     s->ports = data->ports;
282     data->ports = NULL;
283
284     s->active_port = NULL;
285     s->save_port = false;
286
287     if (data->active_port)
288         if ((s->active_port = pa_hashmap_get(s->ports, data->active_port)))
289             s->save_port = data->save_port;
290
291     if (!s->active_port) {
292         void *state;
293         pa_device_port *p;
294
295         PA_HASHMAP_FOREACH(p, s->ports, state)
296             if (!s->active_port || p->priority > s->active_port->priority)
297                 s->active_port = p;
298     }
299
300     if (s->active_port)
301         s->latency_offset = s->active_port->latency_offset;
302     else
303         s->latency_offset = 0;
304
305     s->save_volume = data->save_volume;
306     s->save_muted = data->save_muted;
307
308     pa_silence_memchunk_get(
309             &core->silence_cache,
310             core->mempool,
311             &s->silence,
312             &s->sample_spec,
313             0);
314
315     s->thread_info.rtpoll = NULL;
316     s->thread_info.outputs = pa_hashmap_new(pa_idxset_trivial_hash_func, pa_idxset_trivial_compare_func);
317     s->thread_info.soft_volume = s->soft_volume;
318     s->thread_info.soft_muted = s->muted;
319     s->thread_info.state = s->state;
320     s->thread_info.max_rewind = 0;
321     s->thread_info.requested_latency_valid = false;
322     s->thread_info.requested_latency = 0;
323     s->thread_info.min_latency = ABSOLUTE_MIN_LATENCY;
324     s->thread_info.max_latency = ABSOLUTE_MAX_LATENCY;
325     s->thread_info.fixed_latency = flags & PA_SOURCE_DYNAMIC_LATENCY ? 0 : DEFAULT_FIXED_LATENCY;
326
327     PA_LLIST_HEAD_INIT(pa_source_volume_change, s->thread_info.volume_changes);
328     s->thread_info.volume_changes_tail = NULL;
329     pa_sw_cvolume_multiply(&s->thread_info.current_hw_volume, &s->soft_volume, &s->real_volume);
330     s->thread_info.volume_change_safety_margin = core->deferred_volume_safety_margin_usec;
331     s->thread_info.volume_change_extra_delay = core->deferred_volume_extra_delay_usec;
332     s->thread_info.latency_offset = s->latency_offset;
333
334     /* FIXME: This should probably be moved to pa_source_put() */
335     pa_assert_se(pa_idxset_put(core->sources, s, &s->index) >= 0);
336
337     if (s->card)
338         pa_assert_se(pa_idxset_put(s->card->sources, s, NULL) >= 0);
339
340     pt = pa_proplist_to_string_sep(s->proplist, "\n    ");
341     pa_log_info("Created source %u \"%s\" with sample spec %s and channel map %s\n    %s",
342                 s->index,
343                 s->name,
344                 pa_sample_spec_snprint(st, sizeof(st), &s->sample_spec),
345                 pa_channel_map_snprint(cm, sizeof(cm), &s->channel_map),
346                 pt);
347     pa_xfree(pt);
348
349     return s;
350 }
351
352 /* Called from main context */
353 static int source_set_state(pa_source *s, pa_source_state_t state) {
354     int ret;
355     bool suspend_change;
356     pa_source_state_t original_state;
357
358     pa_assert(s);
359     pa_assert_ctl_context();
360
361     if (s->state == state)
362         return 0;
363
364     original_state = s->state;
365
366     suspend_change =
367         (original_state == PA_SOURCE_SUSPENDED && PA_SOURCE_IS_OPENED(state)) ||
368         (PA_SOURCE_IS_OPENED(original_state) && state == PA_SOURCE_SUSPENDED);
369
370     if (s->set_state)
371         if ((ret = s->set_state(s, state)) < 0)
372             return ret;
373
374     if (s->asyncmsgq)
375         if ((ret = pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SOURCE_MESSAGE_SET_STATE, PA_UINT_TO_PTR(state), 0, NULL)) < 0) {
376
377             if (s->set_state)
378                 s->set_state(s, original_state);
379
380             return ret;
381         }
382
383     s->state = state;
384
385     if (state != PA_SOURCE_UNLINKED) { /* if we enter UNLINKED state pa_source_unlink() will fire the appropriate events */
386         pa_hook_fire(&s->core->hooks[PA_CORE_HOOK_SOURCE_STATE_CHANGED], s);
387         pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SOURCE | PA_SUBSCRIPTION_EVENT_CHANGE, s->index);
388     }
389
390     if (suspend_change) {
391         pa_source_output *o;
392         uint32_t idx;
393
394         /* We're suspending or resuming, tell everyone about it */
395
396         PA_IDXSET_FOREACH(o, s->outputs, idx)
397             if (s->state == PA_SOURCE_SUSPENDED &&
398                 (o->flags & PA_SOURCE_OUTPUT_KILL_ON_SUSPEND))
399                 pa_source_output_kill(o);
400             else if (o->suspend)
401                 o->suspend(o, state == PA_SOURCE_SUSPENDED);
402     }
403
404     return 0;
405 }
406
407 void pa_source_set_get_volume_callback(pa_source *s, pa_source_cb_t cb) {
408     pa_assert(s);
409
410     s->get_volume = cb;
411 }
412
413 void pa_source_set_set_volume_callback(pa_source *s, pa_source_cb_t cb) {
414     pa_source_flags_t flags;
415
416     pa_assert(s);
417     pa_assert(!s->write_volume || cb);
418
419     s->set_volume = cb;
420
421     /* Save the current flags so we can tell if they've changed */
422     flags = s->flags;
423
424     if (cb) {
425         /* The source implementor is responsible for setting decibel volume support */
426         s->flags |= PA_SOURCE_HW_VOLUME_CTRL;
427     } else {
428         s->flags &= ~PA_SOURCE_HW_VOLUME_CTRL;
429         /* See note below in pa_source_put() about volume sharing and decibel volumes */
430         pa_source_enable_decibel_volume(s, !(s->flags & PA_SOURCE_SHARE_VOLUME_WITH_MASTER));
431     }
432
433     /* If the flags have changed after init, let any clients know via a change event */
434     if (s->state != PA_SOURCE_INIT && flags != s->flags)
435         pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SOURCE|PA_SUBSCRIPTION_EVENT_CHANGE, s->index);
436 }
437
438 void pa_source_set_write_volume_callback(pa_source *s, pa_source_cb_t cb) {
439     pa_source_flags_t flags;
440
441     pa_assert(s);
442     pa_assert(!cb || s->set_volume);
443
444     s->write_volume = cb;
445
446     /* Save the current flags so we can tell if they've changed */
447     flags = s->flags;
448
449     if (cb)
450         s->flags |= PA_SOURCE_DEFERRED_VOLUME;
451     else
452         s->flags &= ~PA_SOURCE_DEFERRED_VOLUME;
453
454     /* If the flags have changed after init, let any clients know via a change event */
455     if (s->state != PA_SOURCE_INIT && flags != s->flags)
456         pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SOURCE|PA_SUBSCRIPTION_EVENT_CHANGE, s->index);
457 }
458
459 void pa_source_set_get_mute_callback(pa_source *s, pa_source_cb_t cb) {
460     pa_assert(s);
461
462     s->get_mute = cb;
463 }
464
465 void pa_source_set_set_mute_callback(pa_source *s, pa_source_cb_t cb) {
466     pa_source_flags_t flags;
467
468     pa_assert(s);
469
470     s->set_mute = cb;
471
472     /* Save the current flags so we can tell if they've changed */
473     flags = s->flags;
474
475     if (cb)
476         s->flags |= PA_SOURCE_HW_MUTE_CTRL;
477     else
478         s->flags &= ~PA_SOURCE_HW_MUTE_CTRL;
479
480     /* If the flags have changed after init, let any clients know via a change event */
481     if (s->state != PA_SOURCE_INIT && flags != s->flags)
482         pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SOURCE|PA_SUBSCRIPTION_EVENT_CHANGE, s->index);
483 }
484
485 static void enable_flat_volume(pa_source *s, bool enable) {
486     pa_source_flags_t flags;
487
488     pa_assert(s);
489
490     /* Always follow the overall user preference here */
491     enable = enable && s->core->flat_volumes;
492
493     /* Save the current flags so we can tell if they've changed */
494     flags = s->flags;
495
496     if (enable)
497         s->flags |= PA_SOURCE_FLAT_VOLUME;
498     else
499         s->flags &= ~PA_SOURCE_FLAT_VOLUME;
500
501     /* If the flags have changed after init, let any clients know via a change event */
502     if (s->state != PA_SOURCE_INIT && flags != s->flags)
503         pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SOURCE|PA_SUBSCRIPTION_EVENT_CHANGE, s->index);
504 }
505
506 void pa_source_enable_decibel_volume(pa_source *s, bool enable) {
507     pa_source_flags_t flags;
508
509     pa_assert(s);
510
511     /* Save the current flags so we can tell if they've changed */
512     flags = s->flags;
513
514     if (enable) {
515         s->flags |= PA_SOURCE_DECIBEL_VOLUME;
516         enable_flat_volume(s, true);
517     } else {
518         s->flags &= ~PA_SOURCE_DECIBEL_VOLUME;
519         enable_flat_volume(s, false);
520     }
521
522     /* If the flags have changed after init, let any clients know via a change event */
523     if (s->state != PA_SOURCE_INIT && flags != s->flags)
524         pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SOURCE|PA_SUBSCRIPTION_EVENT_CHANGE, s->index);
525 }
526
527 /* Called from main context */
528 void pa_source_put(pa_source *s) {
529     pa_source_assert_ref(s);
530     pa_assert_ctl_context();
531
532     pa_assert(s->state == PA_SOURCE_INIT);
533     pa_assert(!(s->flags & PA_SOURCE_SHARE_VOLUME_WITH_MASTER) || s->output_from_master);
534
535     /* The following fields must be initialized properly when calling _put() */
536     pa_assert(s->asyncmsgq);
537     pa_assert(s->thread_info.min_latency <= s->thread_info.max_latency);
538
539     /* Generally, flags should be initialized via pa_source_new(). As a
540      * special exception we allow some volume related flags to be set
541      * between _new() and _put() by the callback setter functions above.
542      *
543      * Thus we implement a couple safeguards here which ensure the above
544      * setters were used (or at least the implementor made manual changes
545      * in a compatible way).
546      *
547      * Note: All of these flags set here can change over the life time
548      * of the source. */
549     pa_assert(!(s->flags & PA_SOURCE_HW_VOLUME_CTRL) || s->set_volume);
550     pa_assert(!(s->flags & PA_SOURCE_DEFERRED_VOLUME) || s->write_volume);
551     pa_assert(!(s->flags & PA_SOURCE_HW_MUTE_CTRL) || s->set_mute);
552
553     /* XXX: Currently decibel volume is disabled for all sources that use volume
554      * sharing. When the master source supports decibel volume, it would be good
555      * to have the flag also in the filter source, but currently we don't do that
556      * so that the flags of the filter source never change when it's moved from
557      * a master source to another. One solution for this problem would be to
558      * remove user-visible volume altogether from filter sources when volume
559      * sharing is used, but the current approach was easier to implement... */
560     /* We always support decibel volumes in software, otherwise we leave it to
561      * the source implementor to set this flag as needed.
562      *
563      * Note: This flag can also change over the life time of the source. */
564     if (!(s->flags & PA_SOURCE_HW_VOLUME_CTRL) && !(s->flags & PA_SOURCE_SHARE_VOLUME_WITH_MASTER))
565         pa_source_enable_decibel_volume(s, true);
566
567     /* If the source implementor support DB volumes by itself, we should always
568      * try and enable flat volumes too */
569     if ((s->flags & PA_SOURCE_DECIBEL_VOLUME))
570         enable_flat_volume(s, true);
571
572     if (s->flags & PA_SOURCE_SHARE_VOLUME_WITH_MASTER) {
573         pa_source *root_source = pa_source_get_master(s);
574
575         pa_assert(PA_LIKELY(root_source));
576
577         s->reference_volume = root_source->reference_volume;
578         pa_cvolume_remap(&s->reference_volume, &root_source->channel_map, &s->channel_map);
579
580         s->real_volume = root_source->real_volume;
581         pa_cvolume_remap(&s->real_volume, &root_source->channel_map, &s->channel_map);
582     } else
583         /* We assume that if the sink implementor changed the default
584          * volume he did so in real_volume, because that is the usual
585          * place where he is supposed to place his changes.  */
586         s->reference_volume = s->real_volume;
587
588     s->thread_info.soft_volume = s->soft_volume;
589     s->thread_info.soft_muted = s->muted;
590     pa_sw_cvolume_multiply(&s->thread_info.current_hw_volume, &s->soft_volume, &s->real_volume);
591
592     pa_assert((s->flags & PA_SOURCE_HW_VOLUME_CTRL)
593               || (s->base_volume == PA_VOLUME_NORM
594                   && ((s->flags & PA_SOURCE_DECIBEL_VOLUME || (s->flags & PA_SOURCE_SHARE_VOLUME_WITH_MASTER)))));
595     pa_assert(!(s->flags & PA_SOURCE_DECIBEL_VOLUME) || s->n_volume_steps == PA_VOLUME_NORM+1);
596     pa_assert(!(s->flags & PA_SOURCE_DYNAMIC_LATENCY) == (s->thread_info.fixed_latency != 0));
597
598     if (s->suspend_cause)
599         pa_assert_se(source_set_state(s, PA_SOURCE_SUSPENDED) == 0);
600     else
601         pa_assert_se(source_set_state(s, PA_SOURCE_IDLE) == 0);
602
603     pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SOURCE | PA_SUBSCRIPTION_EVENT_NEW, s->index);
604     pa_hook_fire(&s->core->hooks[PA_CORE_HOOK_SOURCE_PUT], s);
605 }
606
607 /* Called from main context */
608 void pa_source_unlink(pa_source *s) {
609     bool linked;
610     pa_source_output *o, *j = NULL;
611
612     pa_assert(s);
613     pa_assert_ctl_context();
614
615     /* See pa_sink_unlink() for a couple of comments how this function
616      * works. */
617
618     linked = PA_SOURCE_IS_LINKED(s->state);
619
620     if (linked)
621         pa_hook_fire(&s->core->hooks[PA_CORE_HOOK_SOURCE_UNLINK], s);
622
623     if (s->state != PA_SOURCE_UNLINKED)
624         pa_namereg_unregister(s->core, s->name);
625     pa_idxset_remove_by_data(s->core->sources, s, NULL);
626
627     if (s->card)
628         pa_idxset_remove_by_data(s->card->sources, s, NULL);
629
630     while ((o = pa_idxset_first(s->outputs, NULL))) {
631         pa_assert(o != j);
632         pa_source_output_kill(o);
633         j = o;
634     }
635
636     if (linked)
637         source_set_state(s, PA_SOURCE_UNLINKED);
638     else
639         s->state = PA_SOURCE_UNLINKED;
640
641     reset_callbacks(s);
642
643     if (linked) {
644         pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SOURCE | PA_SUBSCRIPTION_EVENT_REMOVE, s->index);
645         pa_hook_fire(&s->core->hooks[PA_CORE_HOOK_SOURCE_UNLINK_POST], s);
646     }
647 }
648
649 /* Called from main context */
650 static void source_free(pa_object *o) {
651     pa_source *s = PA_SOURCE(o);
652
653     pa_assert(s);
654     pa_assert_ctl_context();
655     pa_assert(pa_source_refcnt(s) == 0);
656
657     if (PA_SOURCE_IS_LINKED(s->state))
658         pa_source_unlink(s);
659
660     pa_log_info("Freeing source %u \"%s\"", s->index, s->name);
661
662     pa_idxset_free(s->outputs, NULL);
663     pa_hashmap_free(s->thread_info.outputs, (pa_free_cb_t) pa_source_output_unref);
664
665     if (s->silence.memblock)
666         pa_memblock_unref(s->silence.memblock);
667
668     pa_xfree(s->name);
669     pa_xfree(s->driver);
670
671     if (s->proplist)
672         pa_proplist_free(s->proplist);
673
674     if (s->ports)
675         pa_hashmap_free(s->ports, (pa_free_cb_t) pa_device_port_unref);
676
677     pa_xfree(s);
678 }
679
680 /* Called from main context, and not while the IO thread is active, please */
681 void pa_source_set_asyncmsgq(pa_source *s, pa_asyncmsgq *q) {
682     pa_source_assert_ref(s);
683     pa_assert_ctl_context();
684
685     s->asyncmsgq = q;
686 }
687
688 /* Called from main context, and not while the IO thread is active, please */
689 void pa_source_update_flags(pa_source *s, pa_source_flags_t mask, pa_source_flags_t value) {
690     pa_source_flags_t old_flags;
691     pa_source_output *output;
692     uint32_t idx;
693
694     pa_source_assert_ref(s);
695     pa_assert_ctl_context();
696
697     /* For now, allow only a minimal set of flags to be changed. */
698     pa_assert((mask & ~(PA_SOURCE_DYNAMIC_LATENCY|PA_SOURCE_LATENCY)) == 0);
699
700     old_flags = s->flags;
701     s->flags = (s->flags & ~mask) | (value & mask);
702
703     if (s->flags == old_flags)
704         return;
705
706     if ((s->flags & PA_SOURCE_LATENCY) != (old_flags & PA_SOURCE_LATENCY))
707         pa_log_debug("Source %s: LATENCY flag %s.", s->name, (s->flags & PA_SOURCE_LATENCY) ? "enabled" : "disabled");
708
709     if ((s->flags & PA_SOURCE_DYNAMIC_LATENCY) != (old_flags & PA_SOURCE_DYNAMIC_LATENCY))
710         pa_log_debug("Source %s: DYNAMIC_LATENCY flag %s.",
711                      s->name, (s->flags & PA_SOURCE_DYNAMIC_LATENCY) ? "enabled" : "disabled");
712
713     pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SOURCE | PA_SUBSCRIPTION_EVENT_CHANGE, s->index);
714     pa_hook_fire(&s->core->hooks[PA_CORE_HOOK_SOURCE_FLAGS_CHANGED], s);
715
716     PA_IDXSET_FOREACH(output, s->outputs, idx) {
717         if (output->destination_source)
718             pa_source_update_flags(output->destination_source, mask, value);
719     }
720 }
721
722 /* Called from IO context, or before _put() from main context */
723 void pa_source_set_rtpoll(pa_source *s, pa_rtpoll *p) {
724     pa_source_assert_ref(s);
725     pa_source_assert_io_context(s);
726
727     s->thread_info.rtpoll = p;
728 }
729
730 /* Called from main context */
731 int pa_source_update_status(pa_source*s) {
732     pa_source_assert_ref(s);
733     pa_assert_ctl_context();
734     pa_assert(PA_SOURCE_IS_LINKED(s->state));
735
736     if (s->state == PA_SOURCE_SUSPENDED)
737         return 0;
738
739     return source_set_state(s, pa_source_used_by(s) ? PA_SOURCE_RUNNING : PA_SOURCE_IDLE);
740 }
741
742 /* Called from any context - must be threadsafe */
743 void pa_source_set_mixer_dirty(pa_source *s, bool is_dirty) {
744     pa_atomic_store(&s->mixer_dirty, is_dirty ? 1 : 0);
745 }
746
747 /* Called from main context */
748 int pa_source_suspend(pa_source *s, bool suspend, pa_suspend_cause_t cause) {
749     pa_source_assert_ref(s);
750     pa_assert_ctl_context();
751     pa_assert(PA_SOURCE_IS_LINKED(s->state));
752     pa_assert(cause != 0);
753
754     if (s->monitor_of && cause != PA_SUSPEND_PASSTHROUGH)
755         return -PA_ERR_NOTSUPPORTED;
756
757     if (suspend)
758         s->suspend_cause |= cause;
759     else
760         s->suspend_cause &= ~cause;
761
762     if (!(s->suspend_cause & PA_SUSPEND_SESSION) && (pa_atomic_load(&s->mixer_dirty) != 0)) {
763         /* This might look racy but isn't: If somebody sets mixer_dirty exactly here,
764            it'll be handled just fine. */
765         pa_source_set_mixer_dirty(s, false);
766         pa_log_debug("Mixer is now accessible. Updating alsa mixer settings.");
767         if (s->active_port && s->set_port) {
768             if (s->flags & PA_SOURCE_DEFERRED_VOLUME) {
769                 struct source_message_set_port msg = { .port = s->active_port, .ret = 0 };
770                 pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SOURCE_MESSAGE_SET_PORT, &msg, 0, NULL) == 0);
771             }
772             else
773                 s->set_port(s, s->active_port);
774         }
775         else {
776             if (s->set_mute)
777                 s->set_mute(s);
778             if (s->set_volume)
779                 s->set_volume(s);
780         }
781     }
782
783     if ((pa_source_get_state(s) == PA_SOURCE_SUSPENDED) == !!s->suspend_cause)
784         return 0;
785
786     pa_log_debug("Suspend cause of source %s is 0x%04x, %s", s->name, s->suspend_cause, s->suspend_cause ? "suspending" : "resuming");
787
788     if (s->suspend_cause)
789         return source_set_state(s, PA_SOURCE_SUSPENDED);
790     else
791         return source_set_state(s, pa_source_used_by(s) ? PA_SOURCE_RUNNING : PA_SOURCE_IDLE);
792 }
793
794 /* Called from main context */
795 int pa_source_sync_suspend(pa_source *s) {
796     pa_sink_state_t state;
797
798     pa_source_assert_ref(s);
799     pa_assert_ctl_context();
800     pa_assert(PA_SOURCE_IS_LINKED(s->state));
801     pa_assert(s->monitor_of);
802
803     state = pa_sink_get_state(s->monitor_of);
804
805     if (state == PA_SINK_SUSPENDED)
806         return source_set_state(s, PA_SOURCE_SUSPENDED);
807
808     pa_assert(PA_SINK_IS_OPENED(state));
809
810     return source_set_state(s, pa_source_used_by(s) ? PA_SOURCE_RUNNING : PA_SOURCE_IDLE);
811 }
812
813 /* Called from main context */
814 pa_queue *pa_source_move_all_start(pa_source *s, pa_queue *q) {
815     pa_source_output *o, *n;
816     uint32_t idx;
817
818     pa_source_assert_ref(s);
819     pa_assert_ctl_context();
820     pa_assert(PA_SOURCE_IS_LINKED(s->state));
821
822     if (!q)
823         q = pa_queue_new();
824
825     for (o = PA_SOURCE_OUTPUT(pa_idxset_first(s->outputs, &idx)); o; o = n) {
826         n = PA_SOURCE_OUTPUT(pa_idxset_next(s->outputs, &idx));
827
828         pa_source_output_ref(o);
829
830         if (pa_source_output_start_move(o) >= 0)
831             pa_queue_push(q, o);
832         else
833             pa_source_output_unref(o);
834     }
835
836     return q;
837 }
838
839 /* Called from main context */
840 void pa_source_move_all_finish(pa_source *s, pa_queue *q, bool save) {
841     pa_source_output *o;
842
843     pa_source_assert_ref(s);
844     pa_assert_ctl_context();
845     pa_assert(PA_SOURCE_IS_LINKED(s->state));
846     pa_assert(q);
847
848     while ((o = PA_SOURCE_OUTPUT(pa_queue_pop(q)))) {
849         if (pa_source_output_finish_move(o, s, save) < 0)
850             pa_source_output_fail_move(o);
851
852         pa_source_output_unref(o);
853     }
854
855     pa_queue_free(q, NULL);
856 }
857
858 /* Called from main context */
859 void pa_source_move_all_fail(pa_queue *q) {
860     pa_source_output *o;
861
862     pa_assert_ctl_context();
863     pa_assert(q);
864
865     while ((o = PA_SOURCE_OUTPUT(pa_queue_pop(q)))) {
866         pa_source_output_fail_move(o);
867         pa_source_output_unref(o);
868     }
869
870     pa_queue_free(q, NULL);
871 }
872
873 /* Called from IO thread context */
874 void pa_source_process_rewind(pa_source *s, size_t nbytes) {
875     pa_source_output *o;
876     void *state = NULL;
877
878     pa_source_assert_ref(s);
879     pa_source_assert_io_context(s);
880     pa_assert(PA_SOURCE_IS_LINKED(s->thread_info.state));
881
882     if (nbytes <= 0)
883         return;
884
885     if (s->thread_info.state == PA_SOURCE_SUSPENDED)
886         return;
887
888     pa_log_debug("Processing rewind...");
889
890     PA_HASHMAP_FOREACH(o, s->thread_info.outputs, state) {
891         pa_source_output_assert_ref(o);
892         pa_source_output_process_rewind(o, nbytes);
893     }
894 }
895
896 /* Called from IO thread context */
897 void pa_source_post(pa_source*s, const pa_memchunk *chunk) {
898     pa_source_output *o;
899     void *state = NULL;
900
901     pa_source_assert_ref(s);
902     pa_source_assert_io_context(s);
903     pa_assert(PA_SOURCE_IS_LINKED(s->thread_info.state));
904     pa_assert(chunk);
905
906     if (s->thread_info.state == PA_SOURCE_SUSPENDED)
907         return;
908
909     if (s->thread_info.soft_muted || !pa_cvolume_is_norm(&s->thread_info.soft_volume)) {
910         pa_memchunk vchunk = *chunk;
911
912         pa_memblock_ref(vchunk.memblock);
913         pa_memchunk_make_writable(&vchunk, 0);
914
915         if (s->thread_info.soft_muted || pa_cvolume_is_muted(&s->thread_info.soft_volume))
916             pa_silence_memchunk(&vchunk, &s->sample_spec);
917         else
918             pa_volume_memchunk(&vchunk, &s->sample_spec, &s->thread_info.soft_volume);
919
920         while ((o = pa_hashmap_iterate(s->thread_info.outputs, &state, NULL))) {
921             pa_source_output_assert_ref(o);
922
923             if (!o->thread_info.direct_on_input)
924                 pa_source_output_push(o, &vchunk);
925         }
926
927         pa_memblock_unref(vchunk.memblock);
928     } else {
929
930         while ((o = pa_hashmap_iterate(s->thread_info.outputs, &state, NULL))) {
931             pa_source_output_assert_ref(o);
932
933             if (!o->thread_info.direct_on_input)
934                 pa_source_output_push(o, chunk);
935         }
936     }
937 }
938
939 /* Called from IO thread context */
940 void pa_source_post_direct(pa_source*s, pa_source_output *o, const pa_memchunk *chunk) {
941     pa_source_assert_ref(s);
942     pa_source_assert_io_context(s);
943     pa_assert(PA_SOURCE_IS_LINKED(s->thread_info.state));
944     pa_source_output_assert_ref(o);
945     pa_assert(o->thread_info.direct_on_input);
946     pa_assert(chunk);
947
948     if (s->thread_info.state == PA_SOURCE_SUSPENDED)
949         return;
950
951     if (s->thread_info.soft_muted || !pa_cvolume_is_norm(&s->thread_info.soft_volume)) {
952         pa_memchunk vchunk = *chunk;
953
954         pa_memblock_ref(vchunk.memblock);
955         pa_memchunk_make_writable(&vchunk, 0);
956
957         if (s->thread_info.soft_muted || pa_cvolume_is_muted(&s->thread_info.soft_volume))
958             pa_silence_memchunk(&vchunk, &s->sample_spec);
959         else
960             pa_volume_memchunk(&vchunk, &s->sample_spec, &s->thread_info.soft_volume);
961
962         pa_source_output_push(o, &vchunk);
963
964         pa_memblock_unref(vchunk.memblock);
965     } else
966         pa_source_output_push(o, chunk);
967 }
968
969 /* Called from main thread */
970 bool pa_source_update_rate(pa_source *s, uint32_t rate, bool passthrough) {
971     bool ret = false;
972     uint32_t desired_rate = rate;
973     uint32_t default_rate = s->default_sample_rate;
974     uint32_t alternate_rate = s->alternate_sample_rate;
975     uint32_t idx;
976     pa_source_output *o;
977     bool use_alternate = false;
978
979     if (!s->update_rate)
980         return false;
981
982     if (PA_UNLIKELY(default_rate == alternate_rate && !passthrough)) {
983         pa_log_debug("Default and alternate sample rates are the same.");
984         return false;
985     }
986
987     if (PA_SOURCE_IS_RUNNING(s->state)) {
988         pa_log_info("Cannot update rate, SOURCE_IS_RUNNING, will keep using %u Hz",
989                     s->sample_spec.rate);
990         return false;
991     }
992
993     if (PA_UNLIKELY (desired_rate < 8000 ||
994                      desired_rate > PA_RATE_MAX))
995         return false;
996
997     if (!passthrough) {
998         pa_assert(default_rate % 4000 || default_rate % 11025);
999         pa_assert(alternate_rate % 4000 || alternate_rate % 11025);
1000
1001         if (default_rate % 4000) {
1002             /* default is a 11025 multiple */
1003             if ((alternate_rate % 4000 == 0) && (desired_rate % 4000 == 0))
1004                 use_alternate=true;
1005         } else {
1006             /* default is 4000 multiple */
1007             if ((alternate_rate % 11025 == 0) && (desired_rate % 11025 == 0))
1008                 use_alternate=true;
1009         }
1010
1011         if (use_alternate)
1012             desired_rate = alternate_rate;
1013         else
1014             desired_rate = default_rate;
1015     } else {
1016         desired_rate = rate; /* use stream sampling rate, discard default/alternate settings */
1017     }
1018
1019     if (desired_rate == s->sample_spec.rate)
1020         return false;
1021
1022     if (!passthrough && pa_source_used_by(s) > 0)
1023         return false;
1024
1025     pa_log_debug("Suspending source %s due to changing the sample rate.", s->name);
1026     pa_source_suspend(s, true, PA_SUSPEND_INTERNAL);
1027
1028     if (s->update_rate(s, desired_rate) == true) {
1029         pa_log_info("Changed sampling rate successfully ");
1030
1031         PA_IDXSET_FOREACH(o, s->outputs, idx) {
1032             if (o->state == PA_SOURCE_OUTPUT_CORKED)
1033                 pa_source_output_update_rate(o);
1034         }
1035         ret = true;
1036     }
1037
1038     pa_source_suspend(s, false, PA_SUSPEND_INTERNAL);
1039
1040     return ret;
1041 }
1042
1043 /* Called from main thread */
1044 pa_usec_t pa_source_get_latency(pa_source *s) {
1045     pa_usec_t usec;
1046
1047     pa_source_assert_ref(s);
1048     pa_assert_ctl_context();
1049     pa_assert(PA_SOURCE_IS_LINKED(s->state));
1050
1051     if (s->state == PA_SOURCE_SUSPENDED)
1052         return 0;
1053
1054     if (!(s->flags & PA_SOURCE_LATENCY))
1055         return 0;
1056
1057     pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SOURCE_MESSAGE_GET_LATENCY, &usec, 0, NULL) == 0);
1058
1059     /* usec is unsigned, so check that the offset can be added to usec without
1060      * underflowing. */
1061     if (-s->latency_offset <= (int64_t) usec)
1062         usec += s->latency_offset;
1063     else
1064         usec = 0;
1065
1066     return usec;
1067 }
1068
1069 /* Called from IO thread */
1070 pa_usec_t pa_source_get_latency_within_thread(pa_source *s) {
1071     pa_usec_t usec = 0;
1072     pa_msgobject *o;
1073
1074     pa_source_assert_ref(s);
1075     pa_source_assert_io_context(s);
1076     pa_assert(PA_SOURCE_IS_LINKED(s->thread_info.state));
1077
1078     /* The returned value is supposed to be in the time domain of the sound card! */
1079
1080     if (s->thread_info.state == PA_SOURCE_SUSPENDED)
1081         return 0;
1082
1083     if (!(s->flags & PA_SOURCE_LATENCY))
1084         return 0;
1085
1086     o = PA_MSGOBJECT(s);
1087
1088     /* FIXME: We probably should make this a proper vtable callback instead of going through process_msg() */
1089
1090     if (o->process_msg(o, PA_SOURCE_MESSAGE_GET_LATENCY, &usec, 0, NULL) < 0)
1091         return -1;
1092
1093     /* usec is unsigned, so check that the offset can be added to usec without
1094      * underflowing. */
1095     if (-s->thread_info.latency_offset <= (int64_t) usec)
1096         usec += s->thread_info.latency_offset;
1097     else
1098         usec = 0;
1099
1100     return usec;
1101 }
1102
1103 /* Called from the main thread (and also from the IO thread while the main
1104  * thread is waiting).
1105  *
1106  * When a source uses volume sharing, it never has the PA_SOURCE_FLAT_VOLUME flag
1107  * set. Instead, flat volume mode is detected by checking whether the root source
1108  * has the flag set. */
1109 bool pa_source_flat_volume_enabled(pa_source *s) {
1110     pa_source_assert_ref(s);
1111
1112     s = pa_source_get_master(s);
1113
1114     if (PA_LIKELY(s))
1115         return (s->flags & PA_SOURCE_FLAT_VOLUME);
1116     else
1117         return false;
1118 }
1119
1120 /* Called from the main thread (and also from the IO thread while the main
1121  * thread is waiting). */
1122 pa_source *pa_source_get_master(pa_source *s) {
1123     pa_source_assert_ref(s);
1124
1125     while (s && (s->flags & PA_SOURCE_SHARE_VOLUME_WITH_MASTER)) {
1126         if (PA_UNLIKELY(!s->output_from_master))
1127             return NULL;
1128
1129         s = s->output_from_master->source;
1130     }
1131
1132     return s;
1133 }
1134
1135 /* Called from main context */
1136 bool pa_source_is_passthrough(pa_source *s) {
1137
1138     pa_source_assert_ref(s);
1139
1140     /* NB Currently only monitor sources support passthrough mode */
1141     return (s->monitor_of && pa_sink_is_passthrough(s->monitor_of));
1142 }
1143
1144 /* Called from main context */
1145 void pa_source_enter_passthrough(pa_source *s) {
1146     pa_cvolume volume;
1147
1148     /* set the volume to NORM */
1149     s->saved_volume = *pa_source_get_volume(s, true);
1150     s->saved_save_volume = s->save_volume;
1151
1152     pa_cvolume_set(&volume, s->sample_spec.channels, PA_MIN(s->base_volume, PA_VOLUME_NORM));
1153     pa_source_set_volume(s, &volume, true, false);
1154 }
1155
1156 /* Called from main context */
1157 void pa_source_leave_passthrough(pa_source *s) {
1158     /* Restore source volume to what it was before we entered passthrough mode */
1159     pa_source_set_volume(s, &s->saved_volume, true, s->saved_save_volume);
1160
1161     pa_cvolume_init(&s->saved_volume);
1162     s->saved_save_volume = false;
1163 }
1164
1165 /* Called from main context. */
1166 static void compute_reference_ratio(pa_source_output *o) {
1167     unsigned c = 0;
1168     pa_cvolume remapped;
1169
1170     pa_assert(o);
1171     pa_assert(pa_source_flat_volume_enabled(o->source));
1172
1173     /*
1174      * Calculates the reference ratio from the source's reference
1175      * volume. This basically calculates:
1176      *
1177      * o->reference_ratio = o->volume / o->source->reference_volume
1178      */
1179
1180     remapped = o->source->reference_volume;
1181     pa_cvolume_remap(&remapped, &o->source->channel_map, &o->channel_map);
1182
1183     o->reference_ratio.channels = o->sample_spec.channels;
1184
1185     for (c = 0; c < o->sample_spec.channels; c++) {
1186
1187         /* We don't update when the source volume is 0 anyway */
1188         if (remapped.values[c] <= PA_VOLUME_MUTED)
1189             continue;
1190
1191         /* Don't update the reference ratio unless necessary */
1192         if (pa_sw_volume_multiply(
1193                     o->reference_ratio.values[c],
1194                     remapped.values[c]) == o->volume.values[c])
1195             continue;
1196
1197         o->reference_ratio.values[c] = pa_sw_volume_divide(
1198                 o->volume.values[c],
1199                 remapped.values[c]);
1200     }
1201 }
1202
1203 /* Called from main context. Only called for the root source in volume sharing
1204  * cases, except for internal recursive calls. */
1205 static void compute_reference_ratios(pa_source *s) {
1206     uint32_t idx;
1207     pa_source_output *o;
1208
1209     pa_source_assert_ref(s);
1210     pa_assert_ctl_context();
1211     pa_assert(PA_SOURCE_IS_LINKED(s->state));
1212     pa_assert(pa_source_flat_volume_enabled(s));
1213
1214     PA_IDXSET_FOREACH(o, s->outputs, idx) {
1215         compute_reference_ratio(o);
1216
1217         if (o->destination_source && (o->destination_source->flags & PA_SOURCE_SHARE_VOLUME_WITH_MASTER))
1218             compute_reference_ratios(o->destination_source);
1219     }
1220 }
1221
1222 /* Called from main context. Only called for the root source in volume sharing
1223  * cases, except for internal recursive calls. */
1224 static void compute_real_ratios(pa_source *s) {
1225     pa_source_output *o;
1226     uint32_t idx;
1227
1228     pa_source_assert_ref(s);
1229     pa_assert_ctl_context();
1230     pa_assert(PA_SOURCE_IS_LINKED(s->state));
1231     pa_assert(pa_source_flat_volume_enabled(s));
1232
1233     PA_IDXSET_FOREACH(o, s->outputs, idx) {
1234         unsigned c;
1235         pa_cvolume remapped;
1236
1237         if (o->destination_source && (o->destination_source->flags & PA_SOURCE_SHARE_VOLUME_WITH_MASTER)) {
1238             /* The origin source uses volume sharing, so this input's real ratio
1239              * is handled as a special case - the real ratio must be 0 dB, and
1240              * as a result i->soft_volume must equal i->volume_factor. */
1241             pa_cvolume_reset(&o->real_ratio, o->real_ratio.channels);
1242             o->soft_volume = o->volume_factor;
1243
1244             compute_real_ratios(o->destination_source);
1245
1246             continue;
1247         }
1248
1249         /*
1250          * This basically calculates:
1251          *
1252          * i->real_ratio := i->volume / s->real_volume
1253          * i->soft_volume := i->real_ratio * i->volume_factor
1254          */
1255
1256         remapped = s->real_volume;
1257         pa_cvolume_remap(&remapped, &s->channel_map, &o->channel_map);
1258
1259         o->real_ratio.channels = o->sample_spec.channels;
1260         o->soft_volume.channels = o->sample_spec.channels;
1261
1262         for (c = 0; c < o->sample_spec.channels; c++) {
1263
1264             if (remapped.values[c] <= PA_VOLUME_MUTED) {
1265                 /* We leave o->real_ratio untouched */
1266                 o->soft_volume.values[c] = PA_VOLUME_MUTED;
1267                 continue;
1268             }
1269
1270             /* Don't lose accuracy unless necessary */
1271             if (pa_sw_volume_multiply(
1272                         o->real_ratio.values[c],
1273                         remapped.values[c]) != o->volume.values[c])
1274
1275                 o->real_ratio.values[c] = pa_sw_volume_divide(
1276                         o->volume.values[c],
1277                         remapped.values[c]);
1278
1279             o->soft_volume.values[c] = pa_sw_volume_multiply(
1280                     o->real_ratio.values[c],
1281                     o->volume_factor.values[c]);
1282         }
1283
1284         /* We don't copy the soft_volume to the thread_info data
1285          * here. That must be done by the caller */
1286     }
1287 }
1288
1289 static pa_cvolume *cvolume_remap_minimal_impact(
1290         pa_cvolume *v,
1291         const pa_cvolume *template,
1292         const pa_channel_map *from,
1293         const pa_channel_map *to) {
1294
1295     pa_cvolume t;
1296
1297     pa_assert(v);
1298     pa_assert(template);
1299     pa_assert(from);
1300     pa_assert(to);
1301     pa_assert(pa_cvolume_compatible_with_channel_map(v, from));
1302     pa_assert(pa_cvolume_compatible_with_channel_map(template, to));
1303
1304     /* Much like pa_cvolume_remap(), but tries to minimize impact when
1305      * mapping from source output to source volumes:
1306      *
1307      * If template is a possible remapping from v it is used instead
1308      * of remapping anew.
1309      *
1310      * If the channel maps don't match we set an all-channel volume on
1311      * the source to ensure that changing a volume on one stream has no
1312      * effect that cannot be compensated for in another stream that
1313      * does not have the same channel map as the source. */
1314
1315     if (pa_channel_map_equal(from, to))
1316         return v;
1317
1318     t = *template;
1319     if (pa_cvolume_equal(pa_cvolume_remap(&t, to, from), v)) {
1320         *v = *template;
1321         return v;
1322     }
1323
1324     pa_cvolume_set(v, to->channels, pa_cvolume_max(v));
1325     return v;
1326 }
1327
1328 /* Called from main thread. Only called for the root source in volume sharing
1329  * cases, except for internal recursive calls. */
1330 static void get_maximum_output_volume(pa_source *s, pa_cvolume *max_volume, const pa_channel_map *channel_map) {
1331     pa_source_output *o;
1332     uint32_t idx;
1333
1334     pa_source_assert_ref(s);
1335     pa_assert(max_volume);
1336     pa_assert(channel_map);
1337     pa_assert(pa_source_flat_volume_enabled(s));
1338
1339     PA_IDXSET_FOREACH(o, s->outputs, idx) {
1340         pa_cvolume remapped;
1341
1342         if (o->destination_source && (o->destination_source->flags & PA_SOURCE_SHARE_VOLUME_WITH_MASTER)) {
1343             get_maximum_output_volume(o->destination_source, max_volume, channel_map);
1344
1345             /* Ignore this output. The origin source uses volume sharing, so this
1346              * output's volume will be set to be equal to the root source's real
1347              * volume. Obviously this output's current volume must not then
1348              * affect what the root source's real volume will be. */
1349             continue;
1350         }
1351
1352         remapped = o->volume;
1353         cvolume_remap_minimal_impact(&remapped, max_volume, &o->channel_map, channel_map);
1354         pa_cvolume_merge(max_volume, max_volume, &remapped);
1355     }
1356 }
1357
1358 /* Called from main thread. Only called for the root source in volume sharing
1359  * cases, except for internal recursive calls. */
1360 static bool has_outputs(pa_source *s) {
1361     pa_source_output *o;
1362     uint32_t idx;
1363
1364     pa_source_assert_ref(s);
1365
1366     PA_IDXSET_FOREACH(o, s->outputs, idx) {
1367         if (!o->destination_source || !(o->destination_source->flags & PA_SOURCE_SHARE_VOLUME_WITH_MASTER) || has_outputs(o->destination_source))
1368             return true;
1369     }
1370
1371     return false;
1372 }
1373
1374 /* Called from main thread. Only called for the root source in volume sharing
1375  * cases, except for internal recursive calls. */
1376 static void update_real_volume(pa_source *s, const pa_cvolume *new_volume, pa_channel_map *channel_map) {
1377     pa_source_output *o;
1378     uint32_t idx;
1379
1380     pa_source_assert_ref(s);
1381     pa_assert(new_volume);
1382     pa_assert(channel_map);
1383
1384     s->real_volume = *new_volume;
1385     pa_cvolume_remap(&s->real_volume, channel_map, &s->channel_map);
1386
1387     PA_IDXSET_FOREACH(o, s->outputs, idx) {
1388         if (o->destination_source && (o->destination_source->flags & PA_SOURCE_SHARE_VOLUME_WITH_MASTER)) {
1389             if (pa_source_flat_volume_enabled(s)) {
1390                 pa_cvolume old_volume = o->volume;
1391
1392                 /* Follow the root source's real volume. */
1393                 o->volume = *new_volume;
1394                 pa_cvolume_remap(&o->volume, channel_map, &o->channel_map);
1395                 compute_reference_ratio(o);
1396
1397                 /* The volume changed, let's tell people so */
1398                 if (!pa_cvolume_equal(&old_volume, &o->volume)) {
1399                     if (o->volume_changed)
1400                         o->volume_changed(o);
1401
1402                     pa_subscription_post(o->core, PA_SUBSCRIPTION_EVENT_SOURCE_OUTPUT|PA_SUBSCRIPTION_EVENT_CHANGE, o->index);
1403                 }
1404             }
1405
1406             update_real_volume(o->destination_source, new_volume, channel_map);
1407         }
1408     }
1409 }
1410
1411 /* Called from main thread. Only called for the root source in shared volume
1412  * cases. */
1413 static void compute_real_volume(pa_source *s) {
1414     pa_source_assert_ref(s);
1415     pa_assert_ctl_context();
1416     pa_assert(PA_SOURCE_IS_LINKED(s->state));
1417     pa_assert(pa_source_flat_volume_enabled(s));
1418     pa_assert(!(s->flags & PA_SOURCE_SHARE_VOLUME_WITH_MASTER));
1419
1420     /* This determines the maximum volume of all streams and sets
1421      * s->real_volume accordingly. */
1422
1423     if (!has_outputs(s)) {
1424         /* In the special case that we have no source outputs we leave the
1425          * volume unmodified. */
1426         update_real_volume(s, &s->reference_volume, &s->channel_map);
1427         return;
1428     }
1429
1430     pa_cvolume_mute(&s->real_volume, s->channel_map.channels);
1431
1432     /* First let's determine the new maximum volume of all outputs
1433      * connected to this source */
1434     get_maximum_output_volume(s, &s->real_volume, &s->channel_map);
1435     update_real_volume(s, &s->real_volume, &s->channel_map);
1436
1437     /* Then, let's update the real ratios/soft volumes of all outputs
1438      * connected to this source */
1439     compute_real_ratios(s);
1440 }
1441
1442 /* Called from main thread. Only called for the root source in shared volume
1443  * cases, except for internal recursive calls. */
1444 static void propagate_reference_volume(pa_source *s) {
1445     pa_source_output *o;
1446     uint32_t idx;
1447
1448     pa_source_assert_ref(s);
1449     pa_assert_ctl_context();
1450     pa_assert(PA_SOURCE_IS_LINKED(s->state));
1451     pa_assert(pa_source_flat_volume_enabled(s));
1452
1453     /* This is called whenever the source volume changes that is not
1454      * caused by a source output volume change. We need to fix up the
1455      * source output volumes accordingly */
1456
1457     PA_IDXSET_FOREACH(o, s->outputs, idx) {
1458         pa_cvolume old_volume;
1459
1460         if (o->destination_source && (o->destination_source->flags & PA_SOURCE_SHARE_VOLUME_WITH_MASTER)) {
1461             propagate_reference_volume(o->destination_source);
1462
1463             /* Since the origin source uses volume sharing, this output's volume
1464              * needs to be updated to match the root source's real volume, but
1465              * that will be done later in update_shared_real_volume(). */
1466             continue;
1467         }
1468
1469         old_volume = o->volume;
1470
1471         /* This basically calculates:
1472          *
1473          * o->volume := o->reference_volume * o->reference_ratio  */
1474
1475         o->volume = s->reference_volume;
1476         pa_cvolume_remap(&o->volume, &s->channel_map, &o->channel_map);
1477         pa_sw_cvolume_multiply(&o->volume, &o->volume, &o->reference_ratio);
1478
1479         /* The volume changed, let's tell people so */
1480         if (!pa_cvolume_equal(&old_volume, &o->volume)) {
1481
1482             if (o->volume_changed)
1483                 o->volume_changed(o);
1484
1485             pa_subscription_post(o->core, PA_SUBSCRIPTION_EVENT_SOURCE_OUTPUT|PA_SUBSCRIPTION_EVENT_CHANGE, o->index);
1486         }
1487     }
1488 }
1489
1490 /* Called from main thread. Only called for the root source in volume sharing
1491  * cases, except for internal recursive calls. The return value indicates
1492  * whether any reference volume actually changed. */
1493 static bool update_reference_volume(pa_source *s, const pa_cvolume *v, const pa_channel_map *channel_map, bool save) {
1494     pa_cvolume volume;
1495     bool reference_volume_changed;
1496     pa_source_output *o;
1497     uint32_t idx;
1498
1499     pa_source_assert_ref(s);
1500     pa_assert(PA_SOURCE_IS_LINKED(s->state));
1501     pa_assert(v);
1502     pa_assert(channel_map);
1503     pa_assert(pa_cvolume_valid(v));
1504
1505     volume = *v;
1506     pa_cvolume_remap(&volume, channel_map, &s->channel_map);
1507
1508     reference_volume_changed = !pa_cvolume_equal(&volume, &s->reference_volume);
1509     s->reference_volume = volume;
1510
1511     s->save_volume = (!reference_volume_changed && s->save_volume) || save;
1512
1513     if (reference_volume_changed)
1514         pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SOURCE|PA_SUBSCRIPTION_EVENT_CHANGE, s->index);
1515     else if (!(s->flags & PA_SOURCE_SHARE_VOLUME_WITH_MASTER))
1516         /* If the root source's volume doesn't change, then there can't be any
1517          * changes in the other source in the source tree either.
1518          *
1519          * It's probably theoretically possible that even if the root source's
1520          * volume changes slightly, some filter source doesn't change its volume
1521          * due to rounding errors. If that happens, we still want to propagate
1522          * the changed root source volume to the sources connected to the
1523          * intermediate source that didn't change its volume. This theoretical
1524          * possibility is the reason why we have that !(s->flags &
1525          * PA_SOURCE_SHARE_VOLUME_WITH_MASTER) condition. Probably nobody would
1526          * notice even if we returned here false always if
1527          * reference_volume_changed is false. */
1528         return false;
1529
1530     PA_IDXSET_FOREACH(o, s->outputs, idx) {
1531         if (o->destination_source && (o->destination_source->flags & PA_SOURCE_SHARE_VOLUME_WITH_MASTER))
1532             update_reference_volume(o->destination_source, v, channel_map, false);
1533     }
1534
1535     return true;
1536 }
1537
1538 /* Called from main thread */
1539 void pa_source_set_volume(
1540         pa_source *s,
1541         const pa_cvolume *volume,
1542         bool send_msg,
1543         bool save) {
1544
1545     pa_cvolume new_reference_volume;
1546     pa_source *root_source;
1547
1548     pa_source_assert_ref(s);
1549     pa_assert_ctl_context();
1550     pa_assert(PA_SOURCE_IS_LINKED(s->state));
1551     pa_assert(!volume || pa_cvolume_valid(volume));
1552     pa_assert(volume || pa_source_flat_volume_enabled(s));
1553     pa_assert(!volume || volume->channels == 1 || pa_cvolume_compatible(volume, &s->sample_spec));
1554
1555     /* make sure we don't change the volume in PASSTHROUGH mode ...
1556      * ... *except* if we're being invoked to reset the volume to ensure 0 dB gain */
1557     if (pa_source_is_passthrough(s) && (!volume || !pa_cvolume_is_norm(volume))) {
1558         pa_log_warn("Cannot change volume, source is monitor of a PASSTHROUGH sink");
1559         return;
1560     }
1561
1562     /* In case of volume sharing, the volume is set for the root source first,
1563      * from which it's then propagated to the sharing sources. */
1564     root_source = pa_source_get_master(s);
1565
1566     if (PA_UNLIKELY(!root_source))
1567         return;
1568
1569     /* As a special exception we accept mono volumes on all sources --
1570      * even on those with more complex channel maps */
1571
1572     if (volume) {
1573         if (pa_cvolume_compatible(volume, &s->sample_spec))
1574             new_reference_volume = *volume;
1575         else {
1576             new_reference_volume = s->reference_volume;
1577             pa_cvolume_scale(&new_reference_volume, pa_cvolume_max(volume));
1578         }
1579
1580         pa_cvolume_remap(&new_reference_volume, &s->channel_map, &root_source->channel_map);
1581
1582         if (update_reference_volume(root_source, &new_reference_volume, &root_source->channel_map, save)) {
1583             if (pa_source_flat_volume_enabled(root_source)) {
1584                 /* OK, propagate this volume change back to the outputs */
1585                 propagate_reference_volume(root_source);
1586
1587                 /* And now recalculate the real volume */
1588                 compute_real_volume(root_source);
1589             } else
1590                 update_real_volume(root_source, &root_source->reference_volume, &root_source->channel_map);
1591         }
1592
1593     } else {
1594         /* If volume is NULL we synchronize the source's real and
1595          * reference volumes with the stream volumes. */
1596
1597         pa_assert(pa_source_flat_volume_enabled(root_source));
1598
1599         /* Ok, let's determine the new real volume */
1600         compute_real_volume(root_source);
1601
1602         /* Let's 'push' the reference volume if necessary */
1603         pa_cvolume_merge(&new_reference_volume, &s->reference_volume, &root_source->real_volume);
1604         /* If the source and it's root don't have the same number of channels, we need to remap */
1605         if (s != root_source && !pa_channel_map_equal(&s->channel_map, &root_source->channel_map))
1606             pa_cvolume_remap(&new_reference_volume, &s->channel_map, &root_source->channel_map);
1607         update_reference_volume(root_source, &new_reference_volume, &root_source->channel_map, save);
1608
1609         /* Now that the reference volume is updated, we can update the streams'
1610          * reference ratios. */
1611         compute_reference_ratios(root_source);
1612     }
1613
1614     if (root_source->set_volume) {
1615         /* If we have a function set_volume(), then we do not apply a
1616          * soft volume by default. However, set_volume() is free to
1617          * apply one to root_source->soft_volume */
1618
1619         pa_cvolume_reset(&root_source->soft_volume, root_source->sample_spec.channels);
1620         if (!(root_source->flags & PA_SOURCE_DEFERRED_VOLUME))
1621             root_source->set_volume(root_source);
1622
1623     } else
1624         /* If we have no function set_volume(), then the soft volume
1625          * becomes the real volume */
1626         root_source->soft_volume = root_source->real_volume;
1627
1628     /* This tells the source that soft volume and/or real volume changed */
1629     if (send_msg)
1630         pa_assert_se(pa_asyncmsgq_send(root_source->asyncmsgq, PA_MSGOBJECT(root_source), PA_SOURCE_MESSAGE_SET_SHARED_VOLUME, NULL, 0, NULL) == 0);
1631 }
1632
1633 /* Called from the io thread if sync volume is used, otherwise from the main thread.
1634  * Only to be called by source implementor */
1635 void pa_source_set_soft_volume(pa_source *s, const pa_cvolume *volume) {
1636
1637     pa_source_assert_ref(s);
1638     pa_assert(!(s->flags & PA_SOURCE_SHARE_VOLUME_WITH_MASTER));
1639
1640     if (s->flags & PA_SOURCE_DEFERRED_VOLUME)
1641         pa_source_assert_io_context(s);
1642     else
1643         pa_assert_ctl_context();
1644
1645     if (!volume)
1646         pa_cvolume_reset(&s->soft_volume, s->sample_spec.channels);
1647     else
1648         s->soft_volume = *volume;
1649
1650     if (PA_SOURCE_IS_LINKED(s->state) && !(s->flags & PA_SOURCE_DEFERRED_VOLUME))
1651         pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SOURCE_MESSAGE_SET_VOLUME, NULL, 0, NULL) == 0);
1652     else
1653         s->thread_info.soft_volume = s->soft_volume;
1654 }
1655
1656 /* Called from the main thread. Only called for the root source in volume sharing
1657  * cases, except for internal recursive calls. */
1658 static void propagate_real_volume(pa_source *s, const pa_cvolume *old_real_volume) {
1659     pa_source_output *o;
1660     uint32_t idx;
1661
1662     pa_source_assert_ref(s);
1663     pa_assert(old_real_volume);
1664     pa_assert_ctl_context();
1665     pa_assert(PA_SOURCE_IS_LINKED(s->state));
1666
1667     /* This is called when the hardware's real volume changes due to
1668      * some external event. We copy the real volume into our
1669      * reference volume and then rebuild the stream volumes based on
1670      * i->real_ratio which should stay fixed. */
1671
1672     if (!(s->flags & PA_SOURCE_SHARE_VOLUME_WITH_MASTER)) {
1673         if (pa_cvolume_equal(old_real_volume, &s->real_volume))
1674             return;
1675
1676         /* 1. Make the real volume the reference volume */
1677         update_reference_volume(s, &s->real_volume, &s->channel_map, true);
1678     }
1679
1680     if (pa_source_flat_volume_enabled(s)) {
1681
1682         PA_IDXSET_FOREACH(o, s->outputs, idx) {
1683             pa_cvolume old_volume = o->volume;
1684
1685             /* 2. Since the source's reference and real volumes are equal
1686              * now our ratios should be too. */
1687             o->reference_ratio = o->real_ratio;
1688
1689             /* 3. Recalculate the new stream reference volume based on the
1690              * reference ratio and the sink's reference volume.
1691              *
1692              * This basically calculates:
1693              *
1694              * o->volume = s->reference_volume * o->reference_ratio
1695              *
1696              * This is identical to propagate_reference_volume() */
1697             o->volume = s->reference_volume;
1698             pa_cvolume_remap(&o->volume, &s->channel_map, &o->channel_map);
1699             pa_sw_cvolume_multiply(&o->volume, &o->volume, &o->reference_ratio);
1700
1701             /* Notify if something changed */
1702             if (!pa_cvolume_equal(&old_volume, &o->volume)) {
1703
1704                 if (o->volume_changed)
1705                     o->volume_changed(o);
1706
1707                 pa_subscription_post(o->core, PA_SUBSCRIPTION_EVENT_SOURCE_OUTPUT|PA_SUBSCRIPTION_EVENT_CHANGE, o->index);
1708             }
1709
1710             if (o->destination_source && (o->destination_source->flags & PA_SOURCE_SHARE_VOLUME_WITH_MASTER))
1711                 propagate_real_volume(o->destination_source, old_real_volume);
1712         }
1713     }
1714
1715     /* Something got changed in the hardware. It probably makes sense
1716      * to save changed hw settings given that hw volume changes not
1717      * triggered by PA are almost certainly done by the user. */
1718     if (!(s->flags & PA_SOURCE_SHARE_VOLUME_WITH_MASTER))
1719         s->save_volume = true;
1720 }
1721
1722 /* Called from io thread */
1723 void pa_source_update_volume_and_mute(pa_source *s) {
1724     pa_assert(s);
1725     pa_source_assert_io_context(s);
1726
1727     pa_asyncmsgq_post(pa_thread_mq_get()->outq, PA_MSGOBJECT(s), PA_SOURCE_MESSAGE_UPDATE_VOLUME_AND_MUTE, NULL, 0, NULL, NULL);
1728 }
1729
1730 /* Called from main thread */
1731 const pa_cvolume *pa_source_get_volume(pa_source *s, bool force_refresh) {
1732     pa_source_assert_ref(s);
1733     pa_assert_ctl_context();
1734     pa_assert(PA_SOURCE_IS_LINKED(s->state));
1735
1736     if (s->refresh_volume || force_refresh) {
1737         struct pa_cvolume old_real_volume;
1738
1739         pa_assert(!(s->flags & PA_SOURCE_SHARE_VOLUME_WITH_MASTER));
1740
1741         old_real_volume = s->real_volume;
1742
1743         if (!(s->flags & PA_SOURCE_DEFERRED_VOLUME) && s->get_volume)
1744             s->get_volume(s);
1745
1746         pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SOURCE_MESSAGE_GET_VOLUME, NULL, 0, NULL) == 0);
1747
1748         update_real_volume(s, &s->real_volume, &s->channel_map);
1749         propagate_real_volume(s, &old_real_volume);
1750     }
1751
1752     return &s->reference_volume;
1753 }
1754
1755 /* Called from main thread. In volume sharing cases, only the root source may
1756  * call this. */
1757 void pa_source_volume_changed(pa_source *s, const pa_cvolume *new_real_volume) {
1758     pa_cvolume old_real_volume;
1759
1760     pa_source_assert_ref(s);
1761     pa_assert_ctl_context();
1762     pa_assert(PA_SOURCE_IS_LINKED(s->state));
1763     pa_assert(!(s->flags & PA_SOURCE_SHARE_VOLUME_WITH_MASTER));
1764
1765     /* The source implementor may call this if the volume changed to make sure everyone is notified */
1766
1767     old_real_volume = s->real_volume;
1768     update_real_volume(s, new_real_volume, &s->channel_map);
1769     propagate_real_volume(s, &old_real_volume);
1770 }
1771
1772 /* Called from main thread */
1773 void pa_source_set_mute(pa_source *s, bool mute, bool save) {
1774     bool old_muted;
1775
1776     pa_source_assert_ref(s);
1777     pa_assert_ctl_context();
1778     pa_assert(PA_SOURCE_IS_LINKED(s->state));
1779
1780     old_muted = s->muted;
1781     s->muted = mute;
1782     s->save_muted = (old_muted == s->muted && s->save_muted) || save;
1783
1784     if (!(s->flags & PA_SOURCE_DEFERRED_VOLUME) && s->set_mute)
1785         s->set_mute(s);
1786
1787     pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SOURCE_MESSAGE_SET_MUTE, NULL, 0, NULL) == 0);
1788
1789     if (old_muted != s->muted)
1790         pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SOURCE|PA_SUBSCRIPTION_EVENT_CHANGE, s->index);
1791 }
1792
1793 /* Called from main thread */
1794 bool pa_source_get_mute(pa_source *s, bool force_refresh) {
1795
1796     pa_source_assert_ref(s);
1797     pa_assert_ctl_context();
1798     pa_assert(PA_SOURCE_IS_LINKED(s->state));
1799
1800     if (s->refresh_muted || force_refresh) {
1801         bool old_muted = s->muted;
1802
1803         if (!(s->flags & PA_SOURCE_DEFERRED_VOLUME) && s->get_mute)
1804             s->get_mute(s);
1805
1806         pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SOURCE_MESSAGE_GET_MUTE, NULL, 0, NULL) == 0);
1807
1808         if (old_muted != s->muted) {
1809             s->save_muted = true;
1810
1811             pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SOURCE|PA_SUBSCRIPTION_EVENT_CHANGE, s->index);
1812
1813             /* Make sure the soft mute status stays in sync */
1814             pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SOURCE_MESSAGE_SET_MUTE, NULL, 0, NULL) == 0);
1815         }
1816     }
1817
1818     return s->muted;
1819 }
1820
1821 /* Called from main thread */
1822 void pa_source_mute_changed(pa_source *s, bool new_muted) {
1823     pa_source_assert_ref(s);
1824     pa_assert_ctl_context();
1825     pa_assert(PA_SOURCE_IS_LINKED(s->state));
1826
1827     /* The source implementor may call this if the mute state changed to make sure everyone is notified */
1828
1829     if (s->muted == new_muted)
1830         return;
1831
1832     s->muted = new_muted;
1833     s->save_muted = true;
1834
1835     pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SOURCE|PA_SUBSCRIPTION_EVENT_CHANGE, s->index);
1836 }
1837
1838 /* Called from main thread */
1839 bool pa_source_update_proplist(pa_source *s, pa_update_mode_t mode, pa_proplist *p) {
1840     pa_source_assert_ref(s);
1841     pa_assert_ctl_context();
1842
1843     if (p)
1844         pa_proplist_update(s->proplist, mode, p);
1845
1846     if (PA_SOURCE_IS_LINKED(s->state)) {
1847         pa_hook_fire(&s->core->hooks[PA_CORE_HOOK_SOURCE_PROPLIST_CHANGED], s);
1848         pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SOURCE|PA_SUBSCRIPTION_EVENT_CHANGE, s->index);
1849     }
1850
1851     return true;
1852 }
1853
1854 /* Called from main thread */
1855 /* FIXME -- this should be dropped and be merged into pa_source_update_proplist() */
1856 void pa_source_set_description(pa_source *s, const char *description) {
1857     const char *old;
1858     pa_source_assert_ref(s);
1859     pa_assert_ctl_context();
1860
1861     if (!description && !pa_proplist_contains(s->proplist, PA_PROP_DEVICE_DESCRIPTION))
1862         return;
1863
1864     old = pa_proplist_gets(s->proplist, PA_PROP_DEVICE_DESCRIPTION);
1865
1866     if (old && description && pa_streq(old, description))
1867         return;
1868
1869     if (description)
1870         pa_proplist_sets(s->proplist, PA_PROP_DEVICE_DESCRIPTION, description);
1871     else
1872         pa_proplist_unset(s->proplist, PA_PROP_DEVICE_DESCRIPTION);
1873
1874     if (PA_SOURCE_IS_LINKED(s->state)) {
1875         pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SOURCE|PA_SUBSCRIPTION_EVENT_CHANGE, s->index);
1876         pa_hook_fire(&s->core->hooks[PA_CORE_HOOK_SOURCE_PROPLIST_CHANGED], s);
1877     }
1878 }
1879
1880 /* Called from main thread */
1881 unsigned pa_source_linked_by(pa_source *s) {
1882     pa_source_assert_ref(s);
1883     pa_assert_ctl_context();
1884     pa_assert(PA_SOURCE_IS_LINKED(s->state));
1885
1886     return pa_idxset_size(s->outputs);
1887 }
1888
1889 /* Called from main thread */
1890 unsigned pa_source_used_by(pa_source *s) {
1891     unsigned ret;
1892
1893     pa_source_assert_ref(s);
1894     pa_assert_ctl_context();
1895     pa_assert(PA_SOURCE_IS_LINKED(s->state));
1896
1897     ret = pa_idxset_size(s->outputs);
1898     pa_assert(ret >= s->n_corked);
1899
1900     return ret - s->n_corked;
1901 }
1902
1903 /* Called from main thread */
1904 unsigned pa_source_check_suspend(pa_source *s) {
1905     unsigned ret;
1906     pa_source_output *o;
1907     uint32_t idx;
1908
1909     pa_source_assert_ref(s);
1910     pa_assert_ctl_context();
1911
1912     if (!PA_SOURCE_IS_LINKED(s->state))
1913         return 0;
1914
1915     ret = 0;
1916
1917     PA_IDXSET_FOREACH(o, s->outputs, idx) {
1918         pa_source_output_state_t st;
1919
1920         st = pa_source_output_get_state(o);
1921
1922         /* We do not assert here. It is perfectly valid for a source output to
1923          * be in the INIT state (i.e. created, marked done but not yet put)
1924          * and we should not care if it's unlinked as it won't contribute
1925          * towards our busy status.
1926          */
1927         if (!PA_SOURCE_OUTPUT_IS_LINKED(st))
1928             continue;
1929
1930         if (st == PA_SOURCE_OUTPUT_CORKED)
1931             continue;
1932
1933         if (o->flags & PA_SOURCE_OUTPUT_DONT_INHIBIT_AUTO_SUSPEND)
1934             continue;
1935
1936         ret ++;
1937     }
1938
1939     return ret;
1940 }
1941
1942 /* Called from the IO thread */
1943 static void sync_output_volumes_within_thread(pa_source *s) {
1944     pa_source_output *o;
1945     void *state = NULL;
1946
1947     pa_source_assert_ref(s);
1948     pa_source_assert_io_context(s);
1949
1950     PA_HASHMAP_FOREACH(o, s->thread_info.outputs, state) {
1951         if (pa_cvolume_equal(&o->thread_info.soft_volume, &o->soft_volume))
1952             continue;
1953
1954         o->thread_info.soft_volume = o->soft_volume;
1955         //pa_source_output_request_rewind(o, 0, true, false, false);
1956     }
1957 }
1958
1959 /* Called from the IO thread. Only called for the root source in volume sharing
1960  * cases, except for internal recursive calls. */
1961 static void set_shared_volume_within_thread(pa_source *s) {
1962     pa_source_output *o;
1963     void *state = NULL;
1964
1965     pa_source_assert_ref(s);
1966
1967     PA_MSGOBJECT(s)->process_msg(PA_MSGOBJECT(s), PA_SOURCE_MESSAGE_SET_VOLUME_SYNCED, NULL, 0, NULL);
1968
1969     PA_HASHMAP_FOREACH(o, s->thread_info.outputs, state) {
1970         if (o->destination_source && (o->destination_source->flags & PA_SOURCE_SHARE_VOLUME_WITH_MASTER))
1971             set_shared_volume_within_thread(o->destination_source);
1972     }
1973 }
1974
1975 /* Called from IO thread, except when it is not */
1976 int pa_source_process_msg(pa_msgobject *object, int code, void *userdata, int64_t offset, pa_memchunk *chunk) {
1977     pa_source *s = PA_SOURCE(object);
1978     pa_source_assert_ref(s);
1979
1980     switch ((pa_source_message_t) code) {
1981
1982         case PA_SOURCE_MESSAGE_ADD_OUTPUT: {
1983             pa_source_output *o = PA_SOURCE_OUTPUT(userdata);
1984
1985             pa_hashmap_put(s->thread_info.outputs, PA_UINT32_TO_PTR(o->index), pa_source_output_ref(o));
1986
1987             if (o->direct_on_input) {
1988                 o->thread_info.direct_on_input = o->direct_on_input;
1989                 pa_hashmap_put(o->thread_info.direct_on_input->thread_info.direct_outputs, PA_UINT32_TO_PTR(o->index), o);
1990             }
1991
1992             pa_assert(!o->thread_info.attached);
1993             o->thread_info.attached = true;
1994
1995             if (o->attach)
1996                 o->attach(o);
1997
1998             pa_source_output_set_state_within_thread(o, o->state);
1999
2000             if (o->thread_info.requested_source_latency != (pa_usec_t) -1)
2001                 pa_source_output_set_requested_latency_within_thread(o, o->thread_info.requested_source_latency);
2002
2003             pa_source_output_update_max_rewind(o, s->thread_info.max_rewind);
2004
2005             /* We don't just invalidate the requested latency here,
2006              * because if we are in a move we might need to fix up the
2007              * requested latency. */
2008             pa_source_output_set_requested_latency_within_thread(o, o->thread_info.requested_source_latency);
2009
2010             /* In flat volume mode we need to update the volume as
2011              * well */
2012             return object->process_msg(object, PA_SOURCE_MESSAGE_SET_SHARED_VOLUME, NULL, 0, NULL);
2013         }
2014
2015         case PA_SOURCE_MESSAGE_REMOVE_OUTPUT: {
2016             pa_source_output *o = PA_SOURCE_OUTPUT(userdata);
2017
2018             pa_source_output_set_state_within_thread(o, o->state);
2019
2020             if (o->detach)
2021                 o->detach(o);
2022
2023             pa_assert(o->thread_info.attached);
2024             o->thread_info.attached = false;
2025
2026             if (o->thread_info.direct_on_input) {
2027                 pa_hashmap_remove(o->thread_info.direct_on_input->thread_info.direct_outputs, PA_UINT32_TO_PTR(o->index));
2028                 o->thread_info.direct_on_input = NULL;
2029             }
2030
2031             if (pa_hashmap_remove(s->thread_info.outputs, PA_UINT32_TO_PTR(o->index)))
2032                 pa_source_output_unref(o);
2033
2034             pa_source_invalidate_requested_latency(s, true);
2035
2036             /* In flat volume mode we need to update the volume as
2037              * well */
2038             return object->process_msg(object, PA_SOURCE_MESSAGE_SET_SHARED_VOLUME, NULL, 0, NULL);
2039         }
2040
2041         case PA_SOURCE_MESSAGE_SET_SHARED_VOLUME: {
2042             pa_source *root_source = pa_source_get_master(s);
2043
2044             if (PA_LIKELY(root_source))
2045                 set_shared_volume_within_thread(root_source);
2046
2047             return 0;
2048         }
2049
2050         case PA_SOURCE_MESSAGE_SET_VOLUME_SYNCED:
2051
2052             if (s->flags & PA_SOURCE_DEFERRED_VOLUME) {
2053                 s->set_volume(s);
2054                 pa_source_volume_change_push(s);
2055             }
2056             /* Fall through ... */
2057
2058         case PA_SOURCE_MESSAGE_SET_VOLUME:
2059
2060             if (!pa_cvolume_equal(&s->thread_info.soft_volume, &s->soft_volume)) {
2061                 s->thread_info.soft_volume = s->soft_volume;
2062             }
2063
2064             /* Fall through ... */
2065
2066         case PA_SOURCE_MESSAGE_SYNC_VOLUMES:
2067             sync_output_volumes_within_thread(s);
2068             return 0;
2069
2070         case PA_SOURCE_MESSAGE_GET_VOLUME:
2071
2072             if ((s->flags & PA_SOURCE_DEFERRED_VOLUME) && s->get_volume) {
2073                 s->get_volume(s);
2074                 pa_source_volume_change_flush(s);
2075                 pa_sw_cvolume_divide(&s->thread_info.current_hw_volume, &s->real_volume, &s->soft_volume);
2076             }
2077
2078             /* In case source implementor reset SW volume. */
2079             if (!pa_cvolume_equal(&s->thread_info.soft_volume, &s->soft_volume)) {
2080                 s->thread_info.soft_volume = s->soft_volume;
2081             }
2082
2083             return 0;
2084
2085         case PA_SOURCE_MESSAGE_SET_MUTE:
2086
2087             if (s->thread_info.soft_muted != s->muted) {
2088                 s->thread_info.soft_muted = s->muted;
2089             }
2090
2091             if (s->flags & PA_SOURCE_DEFERRED_VOLUME && s->set_mute)
2092                 s->set_mute(s);
2093
2094             return 0;
2095
2096         case PA_SOURCE_MESSAGE_GET_MUTE:
2097
2098             if (s->flags & PA_SOURCE_DEFERRED_VOLUME && s->get_mute)
2099                 s->get_mute(s);
2100
2101             return 0;
2102
2103         case PA_SOURCE_MESSAGE_SET_STATE: {
2104
2105             bool suspend_change =
2106                 (s->thread_info.state == PA_SOURCE_SUSPENDED && PA_SOURCE_IS_OPENED(PA_PTR_TO_UINT(userdata))) ||
2107                 (PA_SOURCE_IS_OPENED(s->thread_info.state) && PA_PTR_TO_UINT(userdata) == PA_SOURCE_SUSPENDED);
2108
2109             s->thread_info.state = PA_PTR_TO_UINT(userdata);
2110
2111             if (suspend_change) {
2112                 pa_source_output *o;
2113                 void *state = NULL;
2114
2115                 while ((o = pa_hashmap_iterate(s->thread_info.outputs, &state, NULL)))
2116                     if (o->suspend_within_thread)
2117                         o->suspend_within_thread(o, s->thread_info.state == PA_SOURCE_SUSPENDED);
2118             }
2119
2120             return 0;
2121         }
2122
2123         case PA_SOURCE_MESSAGE_DETACH:
2124
2125             /* Detach all streams */
2126             pa_source_detach_within_thread(s);
2127             return 0;
2128
2129         case PA_SOURCE_MESSAGE_ATTACH:
2130
2131             /* Reattach all streams */
2132             pa_source_attach_within_thread(s);
2133             return 0;
2134
2135         case PA_SOURCE_MESSAGE_GET_REQUESTED_LATENCY: {
2136
2137             pa_usec_t *usec = userdata;
2138             *usec = pa_source_get_requested_latency_within_thread(s);
2139
2140             /* Yes, that's right, the IO thread will see -1 when no
2141              * explicit requested latency is configured, the main
2142              * thread will see max_latency */
2143             if (*usec == (pa_usec_t) -1)
2144                 *usec = s->thread_info.max_latency;
2145
2146             return 0;
2147         }
2148
2149         case PA_SOURCE_MESSAGE_SET_LATENCY_RANGE: {
2150             pa_usec_t *r = userdata;
2151
2152             pa_source_set_latency_range_within_thread(s, r[0], r[1]);
2153
2154             return 0;
2155         }
2156
2157         case PA_SOURCE_MESSAGE_GET_LATENCY_RANGE: {
2158             pa_usec_t *r = userdata;
2159
2160             r[0] = s->thread_info.min_latency;
2161             r[1] = s->thread_info.max_latency;
2162
2163             return 0;
2164         }
2165
2166         case PA_SOURCE_MESSAGE_GET_FIXED_LATENCY:
2167
2168             *((pa_usec_t*) userdata) = s->thread_info.fixed_latency;
2169             return 0;
2170
2171         case PA_SOURCE_MESSAGE_SET_FIXED_LATENCY:
2172
2173             pa_source_set_fixed_latency_within_thread(s, (pa_usec_t) offset);
2174             return 0;
2175
2176         case PA_SOURCE_MESSAGE_GET_MAX_REWIND:
2177
2178             *((size_t*) userdata) = s->thread_info.max_rewind;
2179             return 0;
2180
2181         case PA_SOURCE_MESSAGE_SET_MAX_REWIND:
2182
2183             pa_source_set_max_rewind_within_thread(s, (size_t) offset);
2184             return 0;
2185
2186         case PA_SOURCE_MESSAGE_GET_LATENCY:
2187
2188             if (s->monitor_of) {
2189                 *((pa_usec_t*) userdata) = 0;
2190                 return 0;
2191             }
2192
2193             /* Implementors need to overwrite this implementation! */
2194             return -1;
2195
2196         case PA_SOURCE_MESSAGE_SET_PORT:
2197
2198             pa_assert(userdata);
2199             if (s->set_port) {
2200                 struct source_message_set_port *msg_data = userdata;
2201                 msg_data->ret = s->set_port(s, msg_data->port);
2202             }
2203             return 0;
2204
2205         case PA_SOURCE_MESSAGE_UPDATE_VOLUME_AND_MUTE:
2206             /* This message is sent from IO-thread and handled in main thread. */
2207             pa_assert_ctl_context();
2208
2209             /* Make sure we're not messing with main thread when no longer linked */
2210             if (!PA_SOURCE_IS_LINKED(s->state))
2211                 return 0;
2212
2213             pa_source_get_volume(s, true);
2214             pa_source_get_mute(s, true);
2215             return 0;
2216
2217         case PA_SOURCE_MESSAGE_SET_LATENCY_OFFSET:
2218             s->thread_info.latency_offset = offset;
2219             return 0;
2220
2221         case PA_SOURCE_MESSAGE_MAX:
2222             ;
2223     }
2224
2225     return -1;
2226 }
2227
2228 /* Called from main thread */
2229 int pa_source_suspend_all(pa_core *c, bool suspend, pa_suspend_cause_t cause) {
2230     pa_source *source;
2231     uint32_t idx;
2232     int ret = 0;
2233
2234     pa_core_assert_ref(c);
2235     pa_assert_ctl_context();
2236     pa_assert(cause != 0);
2237
2238     for (source = PA_SOURCE(pa_idxset_first(c->sources, &idx)); source; source = PA_SOURCE(pa_idxset_next(c->sources, &idx))) {
2239         int r;
2240
2241         if (source->monitor_of)
2242             continue;
2243
2244         if ((r = pa_source_suspend(source, suspend, cause)) < 0)
2245             ret = r;
2246     }
2247
2248     return ret;
2249 }
2250
2251 /* Called from main thread */
2252 void pa_source_detach(pa_source *s) {
2253     pa_source_assert_ref(s);
2254     pa_assert_ctl_context();
2255     pa_assert(PA_SOURCE_IS_LINKED(s->state));
2256
2257     pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SOURCE_MESSAGE_DETACH, NULL, 0, NULL) == 0);
2258 }
2259
2260 /* Called from main thread */
2261 void pa_source_attach(pa_source *s) {
2262     pa_source_assert_ref(s);
2263     pa_assert_ctl_context();
2264     pa_assert(PA_SOURCE_IS_LINKED(s->state));
2265
2266     pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SOURCE_MESSAGE_ATTACH, NULL, 0, NULL) == 0);
2267 }
2268
2269 /* Called from IO thread */
2270 void pa_source_detach_within_thread(pa_source *s) {
2271     pa_source_output *o;
2272     void *state = NULL;
2273
2274     pa_source_assert_ref(s);
2275     pa_source_assert_io_context(s);
2276     pa_assert(PA_SOURCE_IS_LINKED(s->thread_info.state));
2277
2278     PA_HASHMAP_FOREACH(o, s->thread_info.outputs, state)
2279         if (o->detach)
2280             o->detach(o);
2281 }
2282
2283 /* Called from IO thread */
2284 void pa_source_attach_within_thread(pa_source *s) {
2285     pa_source_output *o;
2286     void *state = NULL;
2287
2288     pa_source_assert_ref(s);
2289     pa_source_assert_io_context(s);
2290     pa_assert(PA_SOURCE_IS_LINKED(s->thread_info.state));
2291
2292     PA_HASHMAP_FOREACH(o, s->thread_info.outputs, state)
2293         if (o->attach)
2294             o->attach(o);
2295 }
2296
2297 /* Called from IO thread */
2298 pa_usec_t pa_source_get_requested_latency_within_thread(pa_source *s) {
2299     pa_usec_t result = (pa_usec_t) -1;
2300     pa_source_output *o;
2301     void *state = NULL;
2302
2303     pa_source_assert_ref(s);
2304     pa_source_assert_io_context(s);
2305
2306     if (!(s->flags & PA_SOURCE_DYNAMIC_LATENCY))
2307         return PA_CLAMP(s->thread_info.fixed_latency, s->thread_info.min_latency, s->thread_info.max_latency);
2308
2309     if (s->thread_info.requested_latency_valid)
2310         return s->thread_info.requested_latency;
2311
2312     PA_HASHMAP_FOREACH(o, s->thread_info.outputs, state)
2313         if (o->thread_info.requested_source_latency != (pa_usec_t) -1 &&
2314             (result == (pa_usec_t) -1 || result > o->thread_info.requested_source_latency))
2315             result = o->thread_info.requested_source_latency;
2316
2317     if (result != (pa_usec_t) -1)
2318         result = PA_CLAMP(result, s->thread_info.min_latency, s->thread_info.max_latency);
2319
2320     if (PA_SOURCE_IS_LINKED(s->thread_info.state)) {
2321         /* Only cache this if we are fully set up */
2322         s->thread_info.requested_latency = result;
2323         s->thread_info.requested_latency_valid = true;
2324     }
2325
2326     return result;
2327 }
2328
2329 /* Called from main thread */
2330 pa_usec_t pa_source_get_requested_latency(pa_source *s) {
2331     pa_usec_t usec = 0;
2332
2333     pa_source_assert_ref(s);
2334     pa_assert_ctl_context();
2335     pa_assert(PA_SOURCE_IS_LINKED(s->state));
2336
2337     if (s->state == PA_SOURCE_SUSPENDED)
2338         return 0;
2339
2340     pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SOURCE_MESSAGE_GET_REQUESTED_LATENCY, &usec, 0, NULL) == 0);
2341
2342     return usec;
2343 }
2344
2345 /* Called from IO thread */
2346 void pa_source_set_max_rewind_within_thread(pa_source *s, size_t max_rewind) {
2347     pa_source_output *o;
2348     void *state = NULL;
2349
2350     pa_source_assert_ref(s);
2351     pa_source_assert_io_context(s);
2352
2353     if (max_rewind == s->thread_info.max_rewind)
2354         return;
2355
2356     s->thread_info.max_rewind = max_rewind;
2357
2358     if (PA_SOURCE_IS_LINKED(s->thread_info.state))
2359         PA_HASHMAP_FOREACH(o, s->thread_info.outputs, state)
2360             pa_source_output_update_max_rewind(o, s->thread_info.max_rewind);
2361 }
2362
2363 /* Called from main thread */
2364 void pa_source_set_max_rewind(pa_source *s, size_t max_rewind) {
2365     pa_source_assert_ref(s);
2366     pa_assert_ctl_context();
2367
2368     if (PA_SOURCE_IS_LINKED(s->state))
2369         pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SOURCE_MESSAGE_SET_MAX_REWIND, NULL, max_rewind, NULL) == 0);
2370     else
2371         pa_source_set_max_rewind_within_thread(s, max_rewind);
2372 }
2373
2374 /* Called from IO thread */
2375 void pa_source_invalidate_requested_latency(pa_source *s, bool dynamic) {
2376     pa_source_output *o;
2377     void *state = NULL;
2378
2379     pa_source_assert_ref(s);
2380     pa_source_assert_io_context(s);
2381
2382     if ((s->flags & PA_SOURCE_DYNAMIC_LATENCY))
2383         s->thread_info.requested_latency_valid = false;
2384     else if (dynamic)
2385         return;
2386
2387     if (PA_SOURCE_IS_LINKED(s->thread_info.state)) {
2388
2389         if (s->update_requested_latency)
2390             s->update_requested_latency(s);
2391
2392         while ((o = pa_hashmap_iterate(s->thread_info.outputs, &state, NULL)))
2393             if (o->update_source_requested_latency)
2394                 o->update_source_requested_latency(o);
2395     }
2396
2397     if (s->monitor_of)
2398         pa_sink_invalidate_requested_latency(s->monitor_of, dynamic);
2399 }
2400
2401 /* Called from main thread */
2402 void pa_source_set_latency_range(pa_source *s, pa_usec_t min_latency, pa_usec_t max_latency) {
2403     pa_source_assert_ref(s);
2404     pa_assert_ctl_context();
2405
2406     /* min_latency == 0:           no limit
2407      * min_latency anything else:  specified limit
2408      *
2409      * Similar for max_latency */
2410
2411     if (min_latency < ABSOLUTE_MIN_LATENCY)
2412         min_latency = ABSOLUTE_MIN_LATENCY;
2413
2414     if (max_latency <= 0 ||
2415         max_latency > ABSOLUTE_MAX_LATENCY)
2416         max_latency = ABSOLUTE_MAX_LATENCY;
2417
2418     pa_assert(min_latency <= max_latency);
2419
2420     /* Hmm, let's see if someone forgot to set PA_SOURCE_DYNAMIC_LATENCY here... */
2421     pa_assert((min_latency == ABSOLUTE_MIN_LATENCY &&
2422                max_latency == ABSOLUTE_MAX_LATENCY) ||
2423               (s->flags & PA_SOURCE_DYNAMIC_LATENCY));
2424
2425     if (PA_SOURCE_IS_LINKED(s->state)) {
2426         pa_usec_t r[2];
2427
2428         r[0] = min_latency;
2429         r[1] = max_latency;
2430
2431         pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SOURCE_MESSAGE_SET_LATENCY_RANGE, r, 0, NULL) == 0);
2432     } else
2433         pa_source_set_latency_range_within_thread(s, min_latency, max_latency);
2434 }
2435
2436 /* Called from main thread */
2437 void pa_source_get_latency_range(pa_source *s, pa_usec_t *min_latency, pa_usec_t *max_latency) {
2438     pa_source_assert_ref(s);
2439     pa_assert_ctl_context();
2440     pa_assert(min_latency);
2441     pa_assert(max_latency);
2442
2443     if (PA_SOURCE_IS_LINKED(s->state)) {
2444         pa_usec_t r[2] = { 0, 0 };
2445
2446         pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SOURCE_MESSAGE_GET_LATENCY_RANGE, r, 0, NULL) == 0);
2447
2448         *min_latency = r[0];
2449         *max_latency = r[1];
2450     } else {
2451         *min_latency = s->thread_info.min_latency;
2452         *max_latency = s->thread_info.max_latency;
2453     }
2454 }
2455
2456 /* Called from IO thread, and from main thread before pa_source_put() is called */
2457 void pa_source_set_latency_range_within_thread(pa_source *s, pa_usec_t min_latency, pa_usec_t max_latency) {
2458     pa_source_assert_ref(s);
2459     pa_source_assert_io_context(s);
2460
2461     pa_assert(min_latency >= ABSOLUTE_MIN_LATENCY);
2462     pa_assert(max_latency <= ABSOLUTE_MAX_LATENCY);
2463     pa_assert(min_latency <= max_latency);
2464
2465     /* Hmm, let's see if someone forgot to set PA_SOURCE_DYNAMIC_LATENCY here... */
2466     pa_assert((min_latency == ABSOLUTE_MIN_LATENCY &&
2467                max_latency == ABSOLUTE_MAX_LATENCY) ||
2468               (s->flags & PA_SOURCE_DYNAMIC_LATENCY) ||
2469               s->monitor_of);
2470
2471     if (s->thread_info.min_latency == min_latency &&
2472         s->thread_info.max_latency == max_latency)
2473         return;
2474
2475     s->thread_info.min_latency = min_latency;
2476     s->thread_info.max_latency = max_latency;
2477
2478     if (PA_SOURCE_IS_LINKED(s->thread_info.state)) {
2479         pa_source_output *o;
2480         void *state = NULL;
2481
2482         PA_HASHMAP_FOREACH(o, s->thread_info.outputs, state)
2483             if (o->update_source_latency_range)
2484                 o->update_source_latency_range(o);
2485     }
2486
2487     pa_source_invalidate_requested_latency(s, false);
2488 }
2489
2490 /* Called from main thread, before the source is put */
2491 void pa_source_set_fixed_latency(pa_source *s, pa_usec_t latency) {
2492     pa_source_assert_ref(s);
2493     pa_assert_ctl_context();
2494
2495     if (s->flags & PA_SOURCE_DYNAMIC_LATENCY) {
2496         pa_assert(latency == 0);
2497         return;
2498     }
2499
2500     if (latency < ABSOLUTE_MIN_LATENCY)
2501         latency = ABSOLUTE_MIN_LATENCY;
2502
2503     if (latency > ABSOLUTE_MAX_LATENCY)
2504         latency = ABSOLUTE_MAX_LATENCY;
2505
2506     if (PA_SOURCE_IS_LINKED(s->state))
2507         pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SOURCE_MESSAGE_SET_FIXED_LATENCY, NULL, (int64_t) latency, NULL) == 0);
2508     else
2509         s->thread_info.fixed_latency = latency;
2510 }
2511
2512 /* Called from main thread */
2513 pa_usec_t pa_source_get_fixed_latency(pa_source *s) {
2514     pa_usec_t latency;
2515
2516     pa_source_assert_ref(s);
2517     pa_assert_ctl_context();
2518
2519     if (s->flags & PA_SOURCE_DYNAMIC_LATENCY)
2520         return 0;
2521
2522     if (PA_SOURCE_IS_LINKED(s->state))
2523         pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SOURCE_MESSAGE_GET_FIXED_LATENCY, &latency, 0, NULL) == 0);
2524     else
2525         latency = s->thread_info.fixed_latency;
2526
2527     return latency;
2528 }
2529
2530 /* Called from IO thread */
2531 void pa_source_set_fixed_latency_within_thread(pa_source *s, pa_usec_t latency) {
2532     pa_source_assert_ref(s);
2533     pa_source_assert_io_context(s);
2534
2535     if (s->flags & PA_SOURCE_DYNAMIC_LATENCY) {
2536         pa_assert(latency == 0);
2537         s->thread_info.fixed_latency = 0;
2538
2539         return;
2540     }
2541
2542     pa_assert(latency >= ABSOLUTE_MIN_LATENCY);
2543     pa_assert(latency <= ABSOLUTE_MAX_LATENCY);
2544
2545     if (s->thread_info.fixed_latency == latency)
2546         return;
2547
2548     s->thread_info.fixed_latency = latency;
2549
2550     if (PA_SOURCE_IS_LINKED(s->thread_info.state)) {
2551         pa_source_output *o;
2552         void *state = NULL;
2553
2554         PA_HASHMAP_FOREACH(o, s->thread_info.outputs, state)
2555             if (o->update_source_fixed_latency)
2556                 o->update_source_fixed_latency(o);
2557     }
2558
2559     pa_source_invalidate_requested_latency(s, false);
2560 }
2561
2562 /* Called from main thread */
2563 void pa_source_set_latency_offset(pa_source *s, int64_t offset) {
2564     pa_source_assert_ref(s);
2565
2566     s->latency_offset = offset;
2567
2568     if (PA_SOURCE_IS_LINKED(s->state))
2569         pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SOURCE_MESSAGE_SET_LATENCY_OFFSET, NULL, offset, NULL) == 0);
2570     else
2571         s->thread_info.latency_offset = offset;
2572 }
2573
2574 /* Called from main thread */
2575 size_t pa_source_get_max_rewind(pa_source *s) {
2576     size_t r;
2577     pa_assert_ctl_context();
2578     pa_source_assert_ref(s);
2579
2580     if (!PA_SOURCE_IS_LINKED(s->state))
2581         return s->thread_info.max_rewind;
2582
2583     pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SOURCE_MESSAGE_GET_MAX_REWIND, &r, 0, NULL) == 0);
2584
2585     return r;
2586 }
2587
2588 /* Called from main context */
2589 int pa_source_set_port(pa_source *s, const char *name, bool save) {
2590     pa_device_port *port;
2591     int ret;
2592
2593     pa_source_assert_ref(s);
2594     pa_assert_ctl_context();
2595
2596     if (!s->set_port) {
2597         pa_log_debug("set_port() operation not implemented for source %u \"%s\"", s->index, s->name);
2598         return -PA_ERR_NOTIMPLEMENTED;
2599     }
2600
2601     if (!name)
2602         return -PA_ERR_NOENTITY;
2603
2604     if (!(port = pa_hashmap_get(s->ports, name)))
2605         return -PA_ERR_NOENTITY;
2606
2607     if (s->active_port == port) {
2608         s->save_port = s->save_port || save;
2609         return 0;
2610     }
2611
2612     if (s->flags & PA_SOURCE_DEFERRED_VOLUME) {
2613         struct source_message_set_port msg = { .port = port, .ret = 0 };
2614         pa_assert_se(pa_asyncmsgq_send(s->asyncmsgq, PA_MSGOBJECT(s), PA_SOURCE_MESSAGE_SET_PORT, &msg, 0, NULL) == 0);
2615         ret = msg.ret;
2616     }
2617     else
2618         ret = s->set_port(s, port);
2619
2620     if (ret < 0)
2621         return -PA_ERR_NOENTITY;
2622
2623     pa_subscription_post(s->core, PA_SUBSCRIPTION_EVENT_SOURCE|PA_SUBSCRIPTION_EVENT_CHANGE, s->index);
2624
2625     pa_log_info("Changed port of source %u \"%s\" to %s", s->index, s->name, port->name);
2626
2627     s->active_port = port;
2628     s->save_port = save;
2629
2630     pa_hook_fire(&s->core->hooks[PA_CORE_HOOK_SOURCE_PORT_CHANGED], s);
2631
2632     return 0;
2633 }
2634
2635 PA_STATIC_FLIST_DECLARE(pa_source_volume_change, 0, pa_xfree);
2636
2637 /* Called from the IO thread. */
2638 static pa_source_volume_change *pa_source_volume_change_new(pa_source *s) {
2639     pa_source_volume_change *c;
2640     if (!(c = pa_flist_pop(PA_STATIC_FLIST_GET(pa_source_volume_change))))
2641         c = pa_xnew(pa_source_volume_change, 1);
2642
2643     PA_LLIST_INIT(pa_source_volume_change, c);
2644     c->at = 0;
2645     pa_cvolume_reset(&c->hw_volume, s->sample_spec.channels);
2646     return c;
2647 }
2648
2649 /* Called from the IO thread. */
2650 static void pa_source_volume_change_free(pa_source_volume_change *c) {
2651     pa_assert(c);
2652     if (pa_flist_push(PA_STATIC_FLIST_GET(pa_source_volume_change), c) < 0)
2653         pa_xfree(c);
2654 }
2655
2656 /* Called from the IO thread. */
2657 void pa_source_volume_change_push(pa_source *s) {
2658     pa_source_volume_change *c = NULL;
2659     pa_source_volume_change *nc = NULL;
2660     uint32_t safety_margin = s->thread_info.volume_change_safety_margin;
2661
2662     const char *direction = NULL;
2663
2664     pa_assert(s);
2665     nc = pa_source_volume_change_new(s);
2666
2667     /* NOTE: There is already more different volumes in pa_source that I can remember.
2668      *       Adding one more volume for HW would get us rid of this, but I am trying
2669      *       to survive with the ones we already have. */
2670     pa_sw_cvolume_divide(&nc->hw_volume, &s->real_volume, &s->soft_volume);
2671
2672     if (!s->thread_info.volume_changes && pa_cvolume_equal(&nc->hw_volume, &s->thread_info.current_hw_volume)) {
2673         pa_log_debug("Volume not changing");
2674         pa_source_volume_change_free(nc);
2675         return;
2676     }
2677
2678     nc->at = pa_source_get_latency_within_thread(s);
2679     nc->at += pa_rtclock_now() + s->thread_info.volume_change_extra_delay;
2680
2681     if (s->thread_info.volume_changes_tail) {
2682         for (c = s->thread_info.volume_changes_tail; c; c = c->prev) {
2683             /* If volume is going up let's do it a bit late. If it is going
2684              * down let's do it a bit early. */
2685             if (pa_cvolume_avg(&nc->hw_volume) > pa_cvolume_avg(&c->hw_volume)) {
2686                 if (nc->at + safety_margin > c->at) {
2687                     nc->at += safety_margin;
2688                     direction = "up";
2689                     break;
2690                 }
2691             }
2692             else if (nc->at - safety_margin > c->at) {
2693                     nc->at -= safety_margin;
2694                     direction = "down";
2695                     break;
2696             }
2697         }
2698     }
2699
2700     if (c == NULL) {
2701         if (pa_cvolume_avg(&nc->hw_volume) > pa_cvolume_avg(&s->thread_info.current_hw_volume)) {
2702             nc->at += safety_margin;
2703             direction = "up";
2704         } else {
2705             nc->at -= safety_margin;
2706             direction = "down";
2707         }
2708         PA_LLIST_PREPEND(pa_source_volume_change, s->thread_info.volume_changes, nc);
2709     }
2710     else {
2711         PA_LLIST_INSERT_AFTER(pa_source_volume_change, s->thread_info.volume_changes, c, nc);
2712     }
2713
2714     pa_log_debug("Volume going %s to %d at %llu", direction, pa_cvolume_avg(&nc->hw_volume), (long long unsigned) nc->at);
2715
2716     /* We can ignore volume events that came earlier but should happen later than this. */
2717     PA_LLIST_FOREACH(c, nc->next) {
2718         pa_log_debug("Volume change to %d at %llu was dropped", pa_cvolume_avg(&c->hw_volume), (long long unsigned) c->at);
2719         pa_source_volume_change_free(c);
2720     }
2721     nc->next = NULL;
2722     s->thread_info.volume_changes_tail = nc;
2723 }
2724
2725 /* Called from the IO thread. */
2726 static void pa_source_volume_change_flush(pa_source *s) {
2727     pa_source_volume_change *c = s->thread_info.volume_changes;
2728     pa_assert(s);
2729     s->thread_info.volume_changes = NULL;
2730     s->thread_info.volume_changes_tail = NULL;
2731     while (c) {
2732         pa_source_volume_change *next = c->next;
2733         pa_source_volume_change_free(c);
2734         c = next;
2735     }
2736 }
2737
2738 /* Called from the IO thread. */
2739 bool pa_source_volume_change_apply(pa_source *s, pa_usec_t *usec_to_next) {
2740     pa_usec_t now;
2741     bool ret = false;
2742
2743     pa_assert(s);
2744
2745     if (!s->thread_info.volume_changes || !PA_SOURCE_IS_LINKED(s->state)) {
2746         if (usec_to_next)
2747             *usec_to_next = 0;
2748         return ret;
2749     }
2750
2751     pa_assert(s->write_volume);
2752
2753     now = pa_rtclock_now();
2754
2755     while (s->thread_info.volume_changes && now >= s->thread_info.volume_changes->at) {
2756         pa_source_volume_change *c = s->thread_info.volume_changes;
2757         PA_LLIST_REMOVE(pa_source_volume_change, s->thread_info.volume_changes, c);
2758         pa_log_debug("Volume change to %d at %llu was written %llu usec late",
2759                      pa_cvolume_avg(&c->hw_volume), (long long unsigned) c->at, (long long unsigned) (now - c->at));
2760         ret = true;
2761         s->thread_info.current_hw_volume = c->hw_volume;
2762         pa_source_volume_change_free(c);
2763     }
2764
2765     if (ret)
2766         s->write_volume(s);
2767
2768     if (s->thread_info.volume_changes) {
2769         if (usec_to_next)
2770             *usec_to_next = s->thread_info.volume_changes->at - now;
2771         if (pa_log_ratelimit(PA_LOG_DEBUG))
2772             pa_log_debug("Next volume change in %lld usec", (long long) (s->thread_info.volume_changes->at - now));
2773     }
2774     else {
2775         if (usec_to_next)
2776             *usec_to_next = 0;
2777         s->thread_info.volume_changes_tail = NULL;
2778     }
2779     return ret;
2780 }
2781
2782 /* Called from the main thread */
2783 /* Gets the list of formats supported by the source. The members and idxset must
2784  * be freed by the caller. */
2785 pa_idxset* pa_source_get_formats(pa_source *s) {
2786     pa_idxset *ret;
2787
2788     pa_assert(s);
2789
2790     if (s->get_formats) {
2791         /* Source supports format query, all is good */
2792         ret = s->get_formats(s);
2793     } else {
2794         /* Source doesn't support format query, so assume it does PCM */
2795         pa_format_info *f = pa_format_info_new();
2796         f->encoding = PA_ENCODING_PCM;
2797
2798         ret = pa_idxset_new(NULL, NULL);
2799         pa_idxset_put(ret, f, NULL);
2800     }
2801
2802     return ret;
2803 }
2804
2805 /* Called from the main thread */
2806 /* Checks if the source can accept this format */
2807 bool pa_source_check_format(pa_source *s, pa_format_info *f) {
2808     pa_idxset *formats = NULL;
2809     bool ret = false;
2810
2811     pa_assert(s);
2812     pa_assert(f);
2813
2814     formats = pa_source_get_formats(s);
2815
2816     if (formats) {
2817         pa_format_info *finfo_device;
2818         uint32_t i;
2819
2820         PA_IDXSET_FOREACH(finfo_device, formats, i) {
2821             if (pa_format_info_is_compatible(finfo_device, f)) {
2822                 ret = true;
2823                 break;
2824             }
2825         }
2826
2827         pa_idxset_free(formats, (pa_free_cb_t) pa_format_info_free);
2828     }
2829
2830     return ret;
2831 }
2832
2833 /* Called from the main thread */
2834 /* Calculates the intersection between formats supported by the source and
2835  * in_formats, and returns these, in the order of the source's formats. */
2836 pa_idxset* pa_source_check_formats(pa_source *s, pa_idxset *in_formats) {
2837     pa_idxset *out_formats = pa_idxset_new(NULL, NULL), *source_formats = NULL;
2838     pa_format_info *f_source, *f_in;
2839     uint32_t i, j;
2840
2841     pa_assert(s);
2842
2843     if (!in_formats || pa_idxset_isempty(in_formats))
2844         goto done;
2845
2846     source_formats = pa_source_get_formats(s);
2847
2848     PA_IDXSET_FOREACH(f_source, source_formats, i) {
2849         PA_IDXSET_FOREACH(f_in, in_formats, j) {
2850             if (pa_format_info_is_compatible(f_source, f_in))
2851                 pa_idxset_put(out_formats, pa_format_info_copy(f_in), NULL);
2852         }
2853     }
2854
2855 done:
2856     if (source_formats)
2857         pa_idxset_free(source_formats, (pa_free_cb_t) pa_format_info_free);
2858
2859     return out_formats;
2860 }