9pfs: remove useless return
[sdk/emulator/qemu.git] / cpus.c
1 /*
2  * QEMU System Emulator
3  *
4  * Copyright (c) 2003-2008 Fabrice Bellard
5  *
6  * Permission is hereby granted, free of charge, to any person obtaining a copy
7  * of this software and associated documentation files (the "Software"), to deal
8  * in the Software without restriction, including without limitation the rights
9  * to use, copy, modify, merge, publish, distribute, sublicense, and/or sell
10  * copies of the Software, and to permit persons to whom the Software is
11  * furnished to do so, subject to the following conditions:
12  *
13  * The above copyright notice and this permission notice shall be included in
14  * all copies or substantial portions of the Software.
15  *
16  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
17  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
18  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL
19  * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
20  * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
21  * OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN
22  * THE SOFTWARE.
23  */
24
25 /* Needed early for CONFIG_BSD etc. */
26 #include "config-host.h"
27
28 #include "monitor/monitor.h"
29 #include "qapi/qmp/qerror.h"
30 #include "sysemu/sysemu.h"
31 #include "exec/gdbstub.h"
32 #include "sysemu/dma.h"
33 #include "sysemu/kvm.h"
34 #include "qmp-commands.h"
35
36 #include "qemu/thread.h"
37 #include "sysemu/cpus.h"
38 #include "sysemu/qtest.h"
39 #include "qemu/main-loop.h"
40 #include "qemu/bitmap.h"
41 #include "qemu/seqlock.h"
42 #include "qapi-event.h"
43 #include "hw/nmi.h"
44
45 #ifndef _WIN32
46 #include "qemu/compatfd.h"
47 #endif
48
49 #ifdef CONFIG_LINUX
50
51 #include <sys/prctl.h>
52
53 #ifndef PR_MCE_KILL
54 #define PR_MCE_KILL 33
55 #endif
56
57 #ifndef PR_MCE_KILL_SET
58 #define PR_MCE_KILL_SET 1
59 #endif
60
61 #ifndef PR_MCE_KILL_EARLY
62 #define PR_MCE_KILL_EARLY 1
63 #endif
64
65 #endif /* CONFIG_LINUX */
66
67 static CPUState *next_cpu;
68 int64_t max_delay;
69 int64_t max_advance;
70
71 bool cpu_is_stopped(CPUState *cpu)
72 {
73     return cpu->stopped || !runstate_is_running();
74 }
75
76 static bool cpu_thread_is_idle(CPUState *cpu)
77 {
78     if (cpu->stop || cpu->queued_work_first) {
79         return false;
80     }
81     if (cpu_is_stopped(cpu)) {
82         return true;
83     }
84     if (!cpu->halted || cpu_has_work(cpu) ||
85         kvm_halt_in_kernel()) {
86         return false;
87     }
88     return true;
89 }
90
91 static bool all_cpu_threads_idle(void)
92 {
93     CPUState *cpu;
94
95     CPU_FOREACH(cpu) {
96         if (!cpu_thread_is_idle(cpu)) {
97             return false;
98         }
99     }
100     return true;
101 }
102
103 /***********************************************************/
104 /* guest cycle counter */
105
106 /* Protected by TimersState seqlock */
107
108 static int64_t vm_clock_warp_start = -1;
109 /* Conversion factor from emulated instructions to virtual clock ticks.  */
110 static int icount_time_shift;
111 /* Arbitrarily pick 1MIPS as the minimum allowable speed.  */
112 #define MAX_ICOUNT_SHIFT 10
113
114 static QEMUTimer *icount_rt_timer;
115 static QEMUTimer *icount_vm_timer;
116 static QEMUTimer *icount_warp_timer;
117
118 typedef struct TimersState {
119     /* Protected by BQL.  */
120     int64_t cpu_ticks_prev;
121     int64_t cpu_ticks_offset;
122
123     /* cpu_clock_offset can be read out of BQL, so protect it with
124      * this lock.
125      */
126     QemuSeqLock vm_clock_seqlock;
127     int64_t cpu_clock_offset;
128     int32_t cpu_ticks_enabled;
129     int64_t dummy;
130
131     /* Compensate for varying guest execution speed.  */
132     int64_t qemu_icount_bias;
133     /* Only written by TCG thread */
134     int64_t qemu_icount;
135 } TimersState;
136
137 static TimersState timers_state;
138
139 int64_t cpu_get_icount_raw(void)
140 {
141     int64_t icount;
142     CPUState *cpu = current_cpu;
143
144     icount = timers_state.qemu_icount;
145     if (cpu) {
146         if (!cpu_can_do_io(cpu)) {
147             fprintf(stderr, "Bad icount read\n");
148             exit(1);
149         }
150         icount -= (cpu->icount_decr.u16.low + cpu->icount_extra);
151     }
152     return icount;
153 }
154
155 /* Return the virtual CPU time, based on the instruction counter.  */
156 static int64_t cpu_get_icount_locked(void)
157 {
158     int64_t icount = cpu_get_icount_raw();
159     return timers_state.qemu_icount_bias + cpu_icount_to_ns(icount);
160 }
161
162 int64_t cpu_get_icount(void)
163 {
164     int64_t icount;
165     unsigned start;
166
167     do {
168         start = seqlock_read_begin(&timers_state.vm_clock_seqlock);
169         icount = cpu_get_icount_locked();
170     } while (seqlock_read_retry(&timers_state.vm_clock_seqlock, start));
171
172     return icount;
173 }
174
175 int64_t cpu_icount_to_ns(int64_t icount)
176 {
177     return icount << icount_time_shift;
178 }
179
180 /* return the host CPU cycle counter and handle stop/restart */
181 /* Caller must hold the BQL */
182 int64_t cpu_get_ticks(void)
183 {
184     int64_t ticks;
185
186     if (use_icount) {
187         return cpu_get_icount();
188     }
189
190     ticks = timers_state.cpu_ticks_offset;
191     if (timers_state.cpu_ticks_enabled) {
192         ticks += cpu_get_real_ticks();
193     }
194
195     if (timers_state.cpu_ticks_prev > ticks) {
196         /* Note: non increasing ticks may happen if the host uses
197            software suspend */
198         timers_state.cpu_ticks_offset += timers_state.cpu_ticks_prev - ticks;
199         ticks = timers_state.cpu_ticks_prev;
200     }
201
202     timers_state.cpu_ticks_prev = ticks;
203     return ticks;
204 }
205
206 static int64_t cpu_get_clock_locked(void)
207 {
208     int64_t ticks;
209
210     ticks = timers_state.cpu_clock_offset;
211     if (timers_state.cpu_ticks_enabled) {
212         ticks += get_clock();
213     }
214
215     return ticks;
216 }
217
218 /* return the host CPU monotonic timer and handle stop/restart */
219 int64_t cpu_get_clock(void)
220 {
221     int64_t ti;
222     unsigned start;
223
224     do {
225         start = seqlock_read_begin(&timers_state.vm_clock_seqlock);
226         ti = cpu_get_clock_locked();
227     } while (seqlock_read_retry(&timers_state.vm_clock_seqlock, start));
228
229     return ti;
230 }
231
232 /* enable cpu_get_ticks()
233  * Caller must hold BQL which server as mutex for vm_clock_seqlock.
234  */
235 void cpu_enable_ticks(void)
236 {
237     /* Here, the really thing protected by seqlock is cpu_clock_offset. */
238     seqlock_write_lock(&timers_state.vm_clock_seqlock);
239     if (!timers_state.cpu_ticks_enabled) {
240         timers_state.cpu_ticks_offset -= cpu_get_real_ticks();
241         timers_state.cpu_clock_offset -= get_clock();
242         timers_state.cpu_ticks_enabled = 1;
243     }
244     seqlock_write_unlock(&timers_state.vm_clock_seqlock);
245 }
246
247 /* disable cpu_get_ticks() : the clock is stopped. You must not call
248  * cpu_get_ticks() after that.
249  * Caller must hold BQL which server as mutex for vm_clock_seqlock.
250  */
251 void cpu_disable_ticks(void)
252 {
253     /* Here, the really thing protected by seqlock is cpu_clock_offset. */
254     seqlock_write_lock(&timers_state.vm_clock_seqlock);
255     if (timers_state.cpu_ticks_enabled) {
256         timers_state.cpu_ticks_offset += cpu_get_real_ticks();
257         timers_state.cpu_clock_offset = cpu_get_clock_locked();
258         timers_state.cpu_ticks_enabled = 0;
259     }
260     seqlock_write_unlock(&timers_state.vm_clock_seqlock);
261 }
262
263 /* Correlation between real and virtual time is always going to be
264    fairly approximate, so ignore small variation.
265    When the guest is idle real and virtual time will be aligned in
266    the IO wait loop.  */
267 #define ICOUNT_WOBBLE (get_ticks_per_sec() / 10)
268
269 static void icount_adjust(void)
270 {
271     int64_t cur_time;
272     int64_t cur_icount;
273     int64_t delta;
274
275     /* Protected by TimersState mutex.  */
276     static int64_t last_delta;
277
278     /* If the VM is not running, then do nothing.  */
279     if (!runstate_is_running()) {
280         return;
281     }
282
283     seqlock_write_lock(&timers_state.vm_clock_seqlock);
284     cur_time = cpu_get_clock_locked();
285     cur_icount = cpu_get_icount_locked();
286
287     delta = cur_icount - cur_time;
288     /* FIXME: This is a very crude algorithm, somewhat prone to oscillation.  */
289     if (delta > 0
290         && last_delta + ICOUNT_WOBBLE < delta * 2
291         && icount_time_shift > 0) {
292         /* The guest is getting too far ahead.  Slow time down.  */
293         icount_time_shift--;
294     }
295     if (delta < 0
296         && last_delta - ICOUNT_WOBBLE > delta * 2
297         && icount_time_shift < MAX_ICOUNT_SHIFT) {
298         /* The guest is getting too far behind.  Speed time up.  */
299         icount_time_shift++;
300     }
301     last_delta = delta;
302     timers_state.qemu_icount_bias = cur_icount
303                               - (timers_state.qemu_icount << icount_time_shift);
304     seqlock_write_unlock(&timers_state.vm_clock_seqlock);
305 }
306
307 static void icount_adjust_rt(void *opaque)
308 {
309     timer_mod(icount_rt_timer,
310               qemu_clock_get_ms(QEMU_CLOCK_VIRTUAL_RT) + 1000);
311     icount_adjust();
312 }
313
314 static void icount_adjust_vm(void *opaque)
315 {
316     timer_mod(icount_vm_timer,
317                    qemu_clock_get_ns(QEMU_CLOCK_VIRTUAL) +
318                    get_ticks_per_sec() / 10);
319     icount_adjust();
320 }
321
322 static int64_t qemu_icount_round(int64_t count)
323 {
324     return (count + (1 << icount_time_shift) - 1) >> icount_time_shift;
325 }
326
327 static void icount_warp_rt(void *opaque)
328 {
329     /* The icount_warp_timer is rescheduled soon after vm_clock_warp_start
330      * changes from -1 to another value, so the race here is okay.
331      */
332     if (atomic_read(&vm_clock_warp_start) == -1) {
333         return;
334     }
335
336     seqlock_write_lock(&timers_state.vm_clock_seqlock);
337     if (runstate_is_running()) {
338         int64_t clock = cpu_get_clock_locked();
339         int64_t warp_delta;
340
341         warp_delta = clock - vm_clock_warp_start;
342         if (use_icount == 2) {
343             /*
344              * In adaptive mode, do not let QEMU_CLOCK_VIRTUAL run too
345              * far ahead of real time.
346              */
347             int64_t cur_icount = cpu_get_icount_locked();
348             int64_t delta = clock - cur_icount;
349             warp_delta = MIN(warp_delta, delta);
350         }
351         timers_state.qemu_icount_bias += warp_delta;
352     }
353     vm_clock_warp_start = -1;
354     seqlock_write_unlock(&timers_state.vm_clock_seqlock);
355
356     if (qemu_clock_expired(QEMU_CLOCK_VIRTUAL)) {
357         qemu_clock_notify(QEMU_CLOCK_VIRTUAL);
358     }
359 }
360
361 void qtest_clock_warp(int64_t dest)
362 {
363     int64_t clock = qemu_clock_get_ns(QEMU_CLOCK_VIRTUAL);
364     AioContext *aio_context;
365     assert(qtest_enabled());
366     aio_context = qemu_get_aio_context();
367     while (clock < dest) {
368         int64_t deadline = qemu_clock_deadline_ns_all(QEMU_CLOCK_VIRTUAL);
369         int64_t warp = qemu_soonest_timeout(dest - clock, deadline);
370
371         seqlock_write_lock(&timers_state.vm_clock_seqlock);
372         timers_state.qemu_icount_bias += warp;
373         seqlock_write_unlock(&timers_state.vm_clock_seqlock);
374
375         qemu_clock_run_timers(QEMU_CLOCK_VIRTUAL);
376         timerlist_run_timers(aio_context->tlg.tl[QEMU_CLOCK_VIRTUAL]);
377         clock = qemu_clock_get_ns(QEMU_CLOCK_VIRTUAL);
378     }
379     qemu_clock_notify(QEMU_CLOCK_VIRTUAL);
380 }
381
382 void qemu_clock_warp(QEMUClockType type)
383 {
384     int64_t clock;
385     int64_t deadline;
386
387     /*
388      * There are too many global variables to make the "warp" behavior
389      * applicable to other clocks.  But a clock argument removes the
390      * need for if statements all over the place.
391      */
392     if (type != QEMU_CLOCK_VIRTUAL || !use_icount) {
393         return;
394     }
395
396     /*
397      * If the CPUs have been sleeping, advance QEMU_CLOCK_VIRTUAL timer now.
398      * This ensures that the deadline for the timer is computed correctly below.
399      * This also makes sure that the insn counter is synchronized before the
400      * CPU starts running, in case the CPU is woken by an event other than
401      * the earliest QEMU_CLOCK_VIRTUAL timer.
402      */
403     icount_warp_rt(NULL);
404     timer_del(icount_warp_timer);
405     if (!all_cpu_threads_idle()) {
406         return;
407     }
408
409     if (qtest_enabled()) {
410         /* When testing, qtest commands advance icount.  */
411         return;
412     }
413
414     /* We want to use the earliest deadline from ALL vm_clocks */
415     clock = qemu_clock_get_ns(QEMU_CLOCK_VIRTUAL_RT);
416     deadline = qemu_clock_deadline_ns_all(QEMU_CLOCK_VIRTUAL);
417     if (deadline < 0) {
418         return;
419     }
420
421     if (deadline > 0) {
422         /*
423          * Ensure QEMU_CLOCK_VIRTUAL proceeds even when the virtual CPU goes to
424          * sleep.  Otherwise, the CPU might be waiting for a future timer
425          * interrupt to wake it up, but the interrupt never comes because
426          * the vCPU isn't running any insns and thus doesn't advance the
427          * QEMU_CLOCK_VIRTUAL.
428          *
429          * An extreme solution for this problem would be to never let VCPUs
430          * sleep in icount mode if there is a pending QEMU_CLOCK_VIRTUAL
431          * timer; rather time could just advance to the next QEMU_CLOCK_VIRTUAL
432          * event.  Instead, we do stop VCPUs and only advance QEMU_CLOCK_VIRTUAL
433          * after some "real" time, (related to the time left until the next
434          * event) has passed. The QEMU_CLOCK_VIRTUAL_RT clock will do this.
435          * This avoids that the warps are visible externally; for example,
436          * you will not be sending network packets continuously instead of
437          * every 100ms.
438          */
439         seqlock_write_lock(&timers_state.vm_clock_seqlock);
440         if (vm_clock_warp_start == -1 || vm_clock_warp_start > clock) {
441             vm_clock_warp_start = clock;
442         }
443         seqlock_write_unlock(&timers_state.vm_clock_seqlock);
444         timer_mod_anticipate(icount_warp_timer, clock + deadline);
445     } else if (deadline == 0) {
446         qemu_clock_notify(QEMU_CLOCK_VIRTUAL);
447     }
448 }
449
450 static bool icount_state_needed(void *opaque)
451 {
452     return use_icount;
453 }
454
455 /*
456  * This is a subsection for icount migration.
457  */
458 static const VMStateDescription icount_vmstate_timers = {
459     .name = "timer/icount",
460     .version_id = 1,
461     .minimum_version_id = 1,
462     .fields = (VMStateField[]) {
463         VMSTATE_INT64(qemu_icount_bias, TimersState),
464         VMSTATE_INT64(qemu_icount, TimersState),
465         VMSTATE_END_OF_LIST()
466     }
467 };
468
469 static const VMStateDescription vmstate_timers = {
470     .name = "timer",
471     .version_id = 2,
472     .minimum_version_id = 1,
473     .fields = (VMStateField[]) {
474         VMSTATE_INT64(cpu_ticks_offset, TimersState),
475         VMSTATE_INT64(dummy, TimersState),
476         VMSTATE_INT64_V(cpu_clock_offset, TimersState, 2),
477         VMSTATE_END_OF_LIST()
478     },
479     .subsections = (VMStateSubsection[]) {
480         {
481             .vmsd = &icount_vmstate_timers,
482             .needed = icount_state_needed,
483         }, {
484             /* empty */
485         }
486     }
487 };
488
489 void cpu_ticks_init(void)
490 {
491     seqlock_init(&timers_state.vm_clock_seqlock, NULL);
492     vmstate_register(NULL, 0, &vmstate_timers, &timers_state);
493 }
494
495 void configure_icount(QemuOpts *opts, Error **errp)
496 {
497     const char *option;
498     char *rem_str = NULL;
499
500     option = qemu_opt_get(opts, "shift");
501     if (!option) {
502         if (qemu_opt_get(opts, "align") != NULL) {
503             error_setg(errp, "Please specify shift option when using align");
504         }
505         return;
506     }
507     icount_align_option = qemu_opt_get_bool(opts, "align", false);
508     icount_warp_timer = timer_new_ns(QEMU_CLOCK_VIRTUAL_RT,
509                                      icount_warp_rt, NULL);
510     if (strcmp(option, "auto") != 0) {
511         errno = 0;
512         icount_time_shift = strtol(option, &rem_str, 0);
513         if (errno != 0 || *rem_str != '\0' || !strlen(option)) {
514             error_setg(errp, "icount: Invalid shift value");
515         }
516         use_icount = 1;
517         return;
518     } else if (icount_align_option) {
519         error_setg(errp, "shift=auto and align=on are incompatible");
520     }
521
522     use_icount = 2;
523
524     /* 125MIPS seems a reasonable initial guess at the guest speed.
525        It will be corrected fairly quickly anyway.  */
526     icount_time_shift = 3;
527
528     /* Have both realtime and virtual time triggers for speed adjustment.
529        The realtime trigger catches emulated time passing too slowly,
530        the virtual time trigger catches emulated time passing too fast.
531        Realtime triggers occur even when idle, so use them less frequently
532        than VM triggers.  */
533     icount_rt_timer = timer_new_ms(QEMU_CLOCK_VIRTUAL_RT,
534                                    icount_adjust_rt, NULL);
535     timer_mod(icount_rt_timer,
536                    qemu_clock_get_ms(QEMU_CLOCK_VIRTUAL_RT) + 1000);
537     icount_vm_timer = timer_new_ns(QEMU_CLOCK_VIRTUAL,
538                                         icount_adjust_vm, NULL);
539     timer_mod(icount_vm_timer,
540                    qemu_clock_get_ns(QEMU_CLOCK_VIRTUAL) +
541                    get_ticks_per_sec() / 10);
542 }
543
544 /***********************************************************/
545 void hw_error(const char *fmt, ...)
546 {
547     va_list ap;
548     CPUState *cpu;
549
550     va_start(ap, fmt);
551     fprintf(stderr, "qemu: hardware error: ");
552     vfprintf(stderr, fmt, ap);
553     fprintf(stderr, "\n");
554     CPU_FOREACH(cpu) {
555         fprintf(stderr, "CPU #%d:\n", cpu->cpu_index);
556         cpu_dump_state(cpu, stderr, fprintf, CPU_DUMP_FPU);
557     }
558     va_end(ap);
559     abort();
560 }
561
562 void cpu_synchronize_all_states(void)
563 {
564     CPUState *cpu;
565
566     CPU_FOREACH(cpu) {
567         cpu_synchronize_state(cpu);
568     }
569 }
570
571 void cpu_synchronize_all_post_reset(void)
572 {
573     CPUState *cpu;
574
575     CPU_FOREACH(cpu) {
576         cpu_synchronize_post_reset(cpu);
577     }
578 }
579
580 void cpu_synchronize_all_post_init(void)
581 {
582     CPUState *cpu;
583
584     CPU_FOREACH(cpu) {
585         cpu_synchronize_post_init(cpu);
586     }
587 }
588
589 void cpu_clean_all_dirty(void)
590 {
591     CPUState *cpu;
592
593     CPU_FOREACH(cpu) {
594         cpu_clean_state(cpu);
595     }
596 }
597
598 static int do_vm_stop(RunState state)
599 {
600     int ret = 0;
601
602     if (runstate_is_running()) {
603         cpu_disable_ticks();
604         pause_all_vcpus();
605         runstate_set(state);
606         vm_state_notify(0, state);
607         qapi_event_send_stop(&error_abort);
608     }
609
610     bdrv_drain_all();
611     ret = bdrv_flush_all();
612
613     return ret;
614 }
615
616 static bool cpu_can_run(CPUState *cpu)
617 {
618     if (cpu->stop) {
619         return false;
620     }
621     if (cpu_is_stopped(cpu)) {
622         return false;
623     }
624     return true;
625 }
626
627 static void cpu_handle_guest_debug(CPUState *cpu)
628 {
629     gdb_set_stop_cpu(cpu);
630     qemu_system_debug_request();
631     cpu->stopped = true;
632 }
633
634 static void cpu_signal(int sig)
635 {
636     if (current_cpu) {
637         cpu_exit(current_cpu);
638     }
639     exit_request = 1;
640 }
641
642 #ifdef CONFIG_LINUX
643 static void sigbus_reraise(void)
644 {
645     sigset_t set;
646     struct sigaction action;
647
648     memset(&action, 0, sizeof(action));
649     action.sa_handler = SIG_DFL;
650     if (!sigaction(SIGBUS, &action, NULL)) {
651         raise(SIGBUS);
652         sigemptyset(&set);
653         sigaddset(&set, SIGBUS);
654         sigprocmask(SIG_UNBLOCK, &set, NULL);
655     }
656     perror("Failed to re-raise SIGBUS!\n");
657     abort();
658 }
659
660 static void sigbus_handler(int n, struct qemu_signalfd_siginfo *siginfo,
661                            void *ctx)
662 {
663     if (kvm_on_sigbus(siginfo->ssi_code,
664                       (void *)(intptr_t)siginfo->ssi_addr)) {
665         sigbus_reraise();
666     }
667 }
668
669 static void qemu_init_sigbus(void)
670 {
671     struct sigaction action;
672
673     memset(&action, 0, sizeof(action));
674     action.sa_flags = SA_SIGINFO;
675     action.sa_sigaction = (void (*)(int, siginfo_t*, void*))sigbus_handler;
676     sigaction(SIGBUS, &action, NULL);
677
678     prctl(PR_MCE_KILL, PR_MCE_KILL_SET, PR_MCE_KILL_EARLY, 0, 0);
679 }
680
681 static void qemu_kvm_eat_signals(CPUState *cpu)
682 {
683     struct timespec ts = { 0, 0 };
684     siginfo_t siginfo;
685     sigset_t waitset;
686     sigset_t chkset;
687     int r;
688
689     sigemptyset(&waitset);
690     sigaddset(&waitset, SIG_IPI);
691     sigaddset(&waitset, SIGBUS);
692
693     do {
694         r = sigtimedwait(&waitset, &siginfo, &ts);
695         if (r == -1 && !(errno == EAGAIN || errno == EINTR)) {
696             perror("sigtimedwait");
697             exit(1);
698         }
699
700         switch (r) {
701         case SIGBUS:
702             if (kvm_on_sigbus_vcpu(cpu, siginfo.si_code, siginfo.si_addr)) {
703                 sigbus_reraise();
704             }
705             break;
706         default:
707             break;
708         }
709
710         r = sigpending(&chkset);
711         if (r == -1) {
712             perror("sigpending");
713             exit(1);
714         }
715     } while (sigismember(&chkset, SIG_IPI) || sigismember(&chkset, SIGBUS));
716 }
717
718 #else /* !CONFIG_LINUX */
719
720 static void qemu_init_sigbus(void)
721 {
722 }
723
724 static void qemu_kvm_eat_signals(CPUState *cpu)
725 {
726 }
727 #endif /* !CONFIG_LINUX */
728
729 #ifndef _WIN32
730 static void dummy_signal(int sig)
731 {
732 }
733
734 static void qemu_kvm_init_cpu_signals(CPUState *cpu)
735 {
736     int r;
737     sigset_t set;
738     struct sigaction sigact;
739
740     memset(&sigact, 0, sizeof(sigact));
741     sigact.sa_handler = dummy_signal;
742     sigaction(SIG_IPI, &sigact, NULL);
743
744     pthread_sigmask(SIG_BLOCK, NULL, &set);
745     sigdelset(&set, SIG_IPI);
746     sigdelset(&set, SIGBUS);
747     r = kvm_set_signal_mask(cpu, &set);
748     if (r) {
749         fprintf(stderr, "kvm_set_signal_mask: %s\n", strerror(-r));
750         exit(1);
751     }
752 }
753
754 static void qemu_tcg_init_cpu_signals(void)
755 {
756     sigset_t set;
757     struct sigaction sigact;
758
759     memset(&sigact, 0, sizeof(sigact));
760     sigact.sa_handler = cpu_signal;
761     sigaction(SIG_IPI, &sigact, NULL);
762
763     sigemptyset(&set);
764     sigaddset(&set, SIG_IPI);
765     pthread_sigmask(SIG_UNBLOCK, &set, NULL);
766 }
767
768 #else /* _WIN32 */
769 static void qemu_kvm_init_cpu_signals(CPUState *cpu)
770 {
771     abort();
772 }
773
774 static void qemu_tcg_init_cpu_signals(void)
775 {
776 }
777 #endif /* _WIN32 */
778
779 static QemuMutex qemu_global_mutex;
780 static QemuCond qemu_io_proceeded_cond;
781 static unsigned iothread_requesting_mutex;
782
783 static QemuThread io_thread;
784
785 static QemuThread *tcg_cpu_thread;
786 static QemuCond *tcg_halt_cond;
787
788 /* cpu creation */
789 static QemuCond qemu_cpu_cond;
790 /* system init */
791 static QemuCond qemu_pause_cond;
792 static QemuCond qemu_work_cond;
793
794 void qemu_init_cpu_loop(void)
795 {
796     qemu_init_sigbus();
797     qemu_cond_init(&qemu_cpu_cond);
798     qemu_cond_init(&qemu_pause_cond);
799     qemu_cond_init(&qemu_work_cond);
800     qemu_cond_init(&qemu_io_proceeded_cond);
801     qemu_mutex_init(&qemu_global_mutex);
802
803     qemu_thread_get_self(&io_thread);
804 }
805
806 void run_on_cpu(CPUState *cpu, void (*func)(void *data), void *data)
807 {
808     struct qemu_work_item wi;
809
810     if (qemu_cpu_is_self(cpu)) {
811         func(data);
812         return;
813     }
814
815     wi.func = func;
816     wi.data = data;
817     wi.free = false;
818     if (cpu->queued_work_first == NULL) {
819         cpu->queued_work_first = &wi;
820     } else {
821         cpu->queued_work_last->next = &wi;
822     }
823     cpu->queued_work_last = &wi;
824     wi.next = NULL;
825     wi.done = false;
826
827     qemu_cpu_kick(cpu);
828     while (!wi.done) {
829         CPUState *self_cpu = current_cpu;
830
831         qemu_cond_wait(&qemu_work_cond, &qemu_global_mutex);
832         current_cpu = self_cpu;
833     }
834 }
835
836 void async_run_on_cpu(CPUState *cpu, void (*func)(void *data), void *data)
837 {
838     struct qemu_work_item *wi;
839
840     if (qemu_cpu_is_self(cpu)) {
841         func(data);
842         return;
843     }
844
845     wi = g_malloc0(sizeof(struct qemu_work_item));
846     wi->func = func;
847     wi->data = data;
848     wi->free = true;
849     if (cpu->queued_work_first == NULL) {
850         cpu->queued_work_first = wi;
851     } else {
852         cpu->queued_work_last->next = wi;
853     }
854     cpu->queued_work_last = wi;
855     wi->next = NULL;
856     wi->done = false;
857
858     qemu_cpu_kick(cpu);
859 }
860
861 static void flush_queued_work(CPUState *cpu)
862 {
863     struct qemu_work_item *wi;
864
865     if (cpu->queued_work_first == NULL) {
866         return;
867     }
868
869     while ((wi = cpu->queued_work_first)) {
870         cpu->queued_work_first = wi->next;
871         wi->func(wi->data);
872         wi->done = true;
873         if (wi->free) {
874             g_free(wi);
875         }
876     }
877     cpu->queued_work_last = NULL;
878     qemu_cond_broadcast(&qemu_work_cond);
879 }
880
881 static void qemu_wait_io_event_common(CPUState *cpu)
882 {
883     if (cpu->stop) {
884         cpu->stop = false;
885         cpu->stopped = true;
886         qemu_cond_signal(&qemu_pause_cond);
887     }
888     flush_queued_work(cpu);
889     cpu->thread_kicked = false;
890 }
891
892 static void qemu_tcg_wait_io_event(void)
893 {
894     CPUState *cpu;
895
896     while (all_cpu_threads_idle()) {
897        /* Start accounting real time to the virtual clock if the CPUs
898           are idle.  */
899         qemu_clock_warp(QEMU_CLOCK_VIRTUAL);
900         qemu_cond_wait(tcg_halt_cond, &qemu_global_mutex);
901     }
902
903     while (iothread_requesting_mutex) {
904         qemu_cond_wait(&qemu_io_proceeded_cond, &qemu_global_mutex);
905     }
906
907     CPU_FOREACH(cpu) {
908         qemu_wait_io_event_common(cpu);
909     }
910 }
911
912 static void qemu_kvm_wait_io_event(CPUState *cpu)
913 {
914     while (cpu_thread_is_idle(cpu)) {
915         qemu_cond_wait(cpu->halt_cond, &qemu_global_mutex);
916     }
917
918     qemu_kvm_eat_signals(cpu);
919     qemu_wait_io_event_common(cpu);
920 }
921
922 static void *qemu_kvm_cpu_thread_fn(void *arg)
923 {
924     CPUState *cpu = arg;
925     int r;
926
927     qemu_mutex_lock(&qemu_global_mutex);
928     qemu_thread_get_self(cpu->thread);
929     cpu->thread_id = qemu_get_thread_id();
930     cpu->can_do_io = 1;
931     current_cpu = cpu;
932
933     r = kvm_init_vcpu(cpu);
934     if (r < 0) {
935         fprintf(stderr, "kvm_init_vcpu failed: %s\n", strerror(-r));
936         exit(1);
937     }
938
939     qemu_kvm_init_cpu_signals(cpu);
940
941     /* signal CPU creation */
942     cpu->created = true;
943     qemu_cond_signal(&qemu_cpu_cond);
944
945     while (1) {
946         if (cpu_can_run(cpu)) {
947             r = kvm_cpu_exec(cpu);
948             if (r == EXCP_DEBUG) {
949                 cpu_handle_guest_debug(cpu);
950             }
951         }
952         qemu_kvm_wait_io_event(cpu);
953     }
954
955     return NULL;
956 }
957
958 static void *qemu_dummy_cpu_thread_fn(void *arg)
959 {
960 #ifdef _WIN32
961     fprintf(stderr, "qtest is not supported under Windows\n");
962     exit(1);
963 #else
964     CPUState *cpu = arg;
965     sigset_t waitset;
966     int r;
967
968     qemu_mutex_lock_iothread();
969     qemu_thread_get_self(cpu->thread);
970     cpu->thread_id = qemu_get_thread_id();
971     cpu->can_do_io = 1;
972
973     sigemptyset(&waitset);
974     sigaddset(&waitset, SIG_IPI);
975
976     /* signal CPU creation */
977     cpu->created = true;
978     qemu_cond_signal(&qemu_cpu_cond);
979
980     current_cpu = cpu;
981     while (1) {
982         current_cpu = NULL;
983         qemu_mutex_unlock_iothread();
984         do {
985             int sig;
986             r = sigwait(&waitset, &sig);
987         } while (r == -1 && (errno == EAGAIN || errno == EINTR));
988         if (r == -1) {
989             perror("sigwait");
990             exit(1);
991         }
992         qemu_mutex_lock_iothread();
993         current_cpu = cpu;
994         qemu_wait_io_event_common(cpu);
995     }
996
997     return NULL;
998 #endif
999 }
1000
1001 static void tcg_exec_all(void);
1002
1003 static void *qemu_tcg_cpu_thread_fn(void *arg)
1004 {
1005     CPUState *cpu = arg;
1006
1007     qemu_tcg_init_cpu_signals();
1008     qemu_thread_get_self(cpu->thread);
1009
1010     qemu_mutex_lock(&qemu_global_mutex);
1011     CPU_FOREACH(cpu) {
1012         cpu->thread_id = qemu_get_thread_id();
1013         cpu->created = true;
1014         cpu->can_do_io = 1;
1015     }
1016     qemu_cond_signal(&qemu_cpu_cond);
1017
1018     /* wait for initial kick-off after machine start */
1019     while (QTAILQ_FIRST(&cpus)->stopped) {
1020         qemu_cond_wait(tcg_halt_cond, &qemu_global_mutex);
1021
1022         /* process any pending work */
1023         CPU_FOREACH(cpu) {
1024             qemu_wait_io_event_common(cpu);
1025         }
1026     }
1027
1028     /* process any pending work */
1029     exit_request = 1;
1030
1031     while (1) {
1032         tcg_exec_all();
1033
1034         if (use_icount) {
1035             int64_t deadline = qemu_clock_deadline_ns_all(QEMU_CLOCK_VIRTUAL);
1036
1037             if (deadline == 0) {
1038                 qemu_clock_notify(QEMU_CLOCK_VIRTUAL);
1039             }
1040         }
1041         qemu_tcg_wait_io_event();
1042     }
1043
1044     return NULL;
1045 }
1046
1047 static void qemu_cpu_kick_thread(CPUState *cpu)
1048 {
1049 #ifndef _WIN32
1050     int err;
1051
1052     err = pthread_kill(cpu->thread->thread, SIG_IPI);
1053     if (err) {
1054         fprintf(stderr, "qemu:%s: %s", __func__, strerror(err));
1055         exit(1);
1056     }
1057 #else /* _WIN32 */
1058     if (!qemu_cpu_is_self(cpu)) {
1059         CONTEXT tcgContext;
1060
1061         if (SuspendThread(cpu->hThread) == (DWORD)-1) {
1062             fprintf(stderr, "qemu:%s: GetLastError:%lu\n", __func__,
1063                     GetLastError());
1064             exit(1);
1065         }
1066
1067         /* On multi-core systems, we are not sure that the thread is actually
1068          * suspended until we can get the context.
1069          */
1070         tcgContext.ContextFlags = CONTEXT_CONTROL;
1071         while (GetThreadContext(cpu->hThread, &tcgContext) != 0) {
1072             continue;
1073         }
1074
1075         cpu_signal(0);
1076
1077         if (ResumeThread(cpu->hThread) == (DWORD)-1) {
1078             fprintf(stderr, "qemu:%s: GetLastError:%lu\n", __func__,
1079                     GetLastError());
1080             exit(1);
1081         }
1082     }
1083 #endif
1084 }
1085
1086 void qemu_cpu_kick(CPUState *cpu)
1087 {
1088     qemu_cond_broadcast(cpu->halt_cond);
1089     if (!tcg_enabled() && !cpu->thread_kicked) {
1090         qemu_cpu_kick_thread(cpu);
1091         cpu->thread_kicked = true;
1092     }
1093 }
1094
1095 void qemu_cpu_kick_self(void)
1096 {
1097 #ifndef _WIN32
1098     assert(current_cpu);
1099
1100     if (!current_cpu->thread_kicked) {
1101         qemu_cpu_kick_thread(current_cpu);
1102         current_cpu->thread_kicked = true;
1103     }
1104 #else
1105     abort();
1106 #endif
1107 }
1108
1109 bool qemu_cpu_is_self(CPUState *cpu)
1110 {
1111     return qemu_thread_is_self(cpu->thread);
1112 }
1113
1114 bool qemu_in_vcpu_thread(void)
1115 {
1116     return current_cpu && qemu_cpu_is_self(current_cpu);
1117 }
1118
1119 void qemu_mutex_lock_iothread(void)
1120 {
1121     atomic_inc(&iothread_requesting_mutex);
1122     if (!tcg_enabled() || !first_cpu) {
1123         qemu_mutex_lock(&qemu_global_mutex);
1124         atomic_dec(&iothread_requesting_mutex);
1125     } else {
1126         if (qemu_mutex_trylock(&qemu_global_mutex)) {
1127             qemu_cpu_kick_thread(first_cpu);
1128             qemu_mutex_lock(&qemu_global_mutex);
1129         }
1130         atomic_dec(&iothread_requesting_mutex);
1131         qemu_cond_broadcast(&qemu_io_proceeded_cond);
1132     }
1133 }
1134
1135 void qemu_mutex_unlock_iothread(void)
1136 {
1137     qemu_mutex_unlock(&qemu_global_mutex);
1138 }
1139
1140 static int all_vcpus_paused(void)
1141 {
1142     CPUState *cpu;
1143
1144     CPU_FOREACH(cpu) {
1145         if (!cpu->stopped) {
1146             return 0;
1147         }
1148     }
1149
1150     return 1;
1151 }
1152
1153 void pause_all_vcpus(void)
1154 {
1155     CPUState *cpu;
1156
1157     qemu_clock_enable(QEMU_CLOCK_VIRTUAL, false);
1158     CPU_FOREACH(cpu) {
1159         cpu->stop = true;
1160         qemu_cpu_kick(cpu);
1161     }
1162
1163     if (qemu_in_vcpu_thread()) {
1164         cpu_stop_current();
1165         if (!kvm_enabled()) {
1166             CPU_FOREACH(cpu) {
1167                 cpu->stop = false;
1168                 cpu->stopped = true;
1169             }
1170             return;
1171         }
1172     }
1173
1174     while (!all_vcpus_paused()) {
1175         qemu_cond_wait(&qemu_pause_cond, &qemu_global_mutex);
1176         CPU_FOREACH(cpu) {
1177             qemu_cpu_kick(cpu);
1178         }
1179     }
1180 }
1181
1182 void cpu_resume(CPUState *cpu)
1183 {
1184     cpu->stop = false;
1185     cpu->stopped = false;
1186     qemu_cpu_kick(cpu);
1187 }
1188
1189 void resume_all_vcpus(void)
1190 {
1191     CPUState *cpu;
1192
1193     qemu_clock_enable(QEMU_CLOCK_VIRTUAL, true);
1194     CPU_FOREACH(cpu) {
1195         cpu_resume(cpu);
1196     }
1197 }
1198
1199 /* For temporary buffers for forming a name */
1200 #define VCPU_THREAD_NAME_SIZE 16
1201
1202 static void qemu_tcg_init_vcpu(CPUState *cpu)
1203 {
1204     char thread_name[VCPU_THREAD_NAME_SIZE];
1205
1206     tcg_cpu_address_space_init(cpu, cpu->as);
1207
1208     /* share a single thread for all cpus with TCG */
1209     if (!tcg_cpu_thread) {
1210         cpu->thread = g_malloc0(sizeof(QemuThread));
1211         cpu->halt_cond = g_malloc0(sizeof(QemuCond));
1212         qemu_cond_init(cpu->halt_cond);
1213         tcg_halt_cond = cpu->halt_cond;
1214         snprintf(thread_name, VCPU_THREAD_NAME_SIZE, "CPU %d/TCG",
1215                  cpu->cpu_index);
1216         qemu_thread_create(cpu->thread, thread_name, qemu_tcg_cpu_thread_fn,
1217                            cpu, QEMU_THREAD_JOINABLE);
1218 #ifdef _WIN32
1219         cpu->hThread = qemu_thread_get_handle(cpu->thread);
1220 #endif
1221         while (!cpu->created) {
1222             qemu_cond_wait(&qemu_cpu_cond, &qemu_global_mutex);
1223         }
1224         tcg_cpu_thread = cpu->thread;
1225     } else {
1226         cpu->thread = tcg_cpu_thread;
1227         cpu->halt_cond = tcg_halt_cond;
1228     }
1229 }
1230
1231 static void qemu_kvm_start_vcpu(CPUState *cpu)
1232 {
1233     char thread_name[VCPU_THREAD_NAME_SIZE];
1234
1235     cpu->thread = g_malloc0(sizeof(QemuThread));
1236     cpu->halt_cond = g_malloc0(sizeof(QemuCond));
1237     qemu_cond_init(cpu->halt_cond);
1238     snprintf(thread_name, VCPU_THREAD_NAME_SIZE, "CPU %d/KVM",
1239              cpu->cpu_index);
1240     qemu_thread_create(cpu->thread, thread_name, qemu_kvm_cpu_thread_fn,
1241                        cpu, QEMU_THREAD_JOINABLE);
1242     while (!cpu->created) {
1243         qemu_cond_wait(&qemu_cpu_cond, &qemu_global_mutex);
1244     }
1245 }
1246
1247 static void qemu_dummy_start_vcpu(CPUState *cpu)
1248 {
1249     char thread_name[VCPU_THREAD_NAME_SIZE];
1250
1251     cpu->thread = g_malloc0(sizeof(QemuThread));
1252     cpu->halt_cond = g_malloc0(sizeof(QemuCond));
1253     qemu_cond_init(cpu->halt_cond);
1254     snprintf(thread_name, VCPU_THREAD_NAME_SIZE, "CPU %d/DUMMY",
1255              cpu->cpu_index);
1256     qemu_thread_create(cpu->thread, thread_name, qemu_dummy_cpu_thread_fn, cpu,
1257                        QEMU_THREAD_JOINABLE);
1258     while (!cpu->created) {
1259         qemu_cond_wait(&qemu_cpu_cond, &qemu_global_mutex);
1260     }
1261 }
1262
1263 void qemu_init_vcpu(CPUState *cpu)
1264 {
1265     cpu->nr_cores = smp_cores;
1266     cpu->nr_threads = smp_threads;
1267     cpu->stopped = true;
1268     if (kvm_enabled()) {
1269         qemu_kvm_start_vcpu(cpu);
1270     } else if (tcg_enabled()) {
1271         qemu_tcg_init_vcpu(cpu);
1272     } else {
1273         qemu_dummy_start_vcpu(cpu);
1274     }
1275 }
1276
1277 void cpu_stop_current(void)
1278 {
1279     if (current_cpu) {
1280         current_cpu->stop = false;
1281         current_cpu->stopped = true;
1282         cpu_exit(current_cpu);
1283         qemu_cond_signal(&qemu_pause_cond);
1284     }
1285 }
1286
1287 int vm_stop(RunState state)
1288 {
1289     if (qemu_in_vcpu_thread()) {
1290         qemu_system_vmstop_request_prepare();
1291         qemu_system_vmstop_request(state);
1292         /*
1293          * FIXME: should not return to device code in case
1294          * vm_stop() has been requested.
1295          */
1296         cpu_stop_current();
1297         return 0;
1298     }
1299
1300     return do_vm_stop(state);
1301 }
1302
1303 /* does a state transition even if the VM is already stopped,
1304    current state is forgotten forever */
1305 int vm_stop_force_state(RunState state)
1306 {
1307     if (runstate_is_running()) {
1308         return vm_stop(state);
1309     } else {
1310         runstate_set(state);
1311         /* Make sure to return an error if the flush in a previous vm_stop()
1312          * failed. */
1313         return bdrv_flush_all();
1314     }
1315 }
1316
1317 static int tcg_cpu_exec(CPUArchState *env)
1318 {
1319     CPUState *cpu = ENV_GET_CPU(env);
1320     int ret;
1321 #ifdef CONFIG_PROFILER
1322     int64_t ti;
1323 #endif
1324
1325 #ifdef CONFIG_PROFILER
1326     ti = profile_getclock();
1327 #endif
1328     if (use_icount) {
1329         int64_t count;
1330         int64_t deadline;
1331         int decr;
1332         timers_state.qemu_icount -= (cpu->icount_decr.u16.low
1333                                     + cpu->icount_extra);
1334         cpu->icount_decr.u16.low = 0;
1335         cpu->icount_extra = 0;
1336         deadline = qemu_clock_deadline_ns_all(QEMU_CLOCK_VIRTUAL);
1337
1338         /* Maintain prior (possibly buggy) behaviour where if no deadline
1339          * was set (as there is no QEMU_CLOCK_VIRTUAL timer) or it is more than
1340          * INT32_MAX nanoseconds ahead, we still use INT32_MAX
1341          * nanoseconds.
1342          */
1343         if ((deadline < 0) || (deadline > INT32_MAX)) {
1344             deadline = INT32_MAX;
1345         }
1346
1347         count = qemu_icount_round(deadline);
1348         timers_state.qemu_icount += count;
1349         decr = (count > 0xffff) ? 0xffff : count;
1350         count -= decr;
1351         cpu->icount_decr.u16.low = decr;
1352         cpu->icount_extra = count;
1353     }
1354     ret = cpu_exec(env);
1355 #ifdef CONFIG_PROFILER
1356     qemu_time += profile_getclock() - ti;
1357 #endif
1358     if (use_icount) {
1359         /* Fold pending instructions back into the
1360            instruction counter, and clear the interrupt flag.  */
1361         timers_state.qemu_icount -= (cpu->icount_decr.u16.low
1362                         + cpu->icount_extra);
1363         cpu->icount_decr.u32 = 0;
1364         cpu->icount_extra = 0;
1365     }
1366     return ret;
1367 }
1368
1369 static void tcg_exec_all(void)
1370 {
1371     int r;
1372
1373     /* Account partial waits to QEMU_CLOCK_VIRTUAL.  */
1374     qemu_clock_warp(QEMU_CLOCK_VIRTUAL);
1375
1376     if (next_cpu == NULL) {
1377         next_cpu = first_cpu;
1378     }
1379     for (; next_cpu != NULL && !exit_request; next_cpu = CPU_NEXT(next_cpu)) {
1380         CPUState *cpu = next_cpu;
1381         CPUArchState *env = cpu->env_ptr;
1382
1383         qemu_clock_enable(QEMU_CLOCK_VIRTUAL,
1384                           (cpu->singlestep_enabled & SSTEP_NOTIMER) == 0);
1385
1386         if (cpu_can_run(cpu)) {
1387             r = tcg_cpu_exec(env);
1388             if (r == EXCP_DEBUG) {
1389                 cpu_handle_guest_debug(cpu);
1390                 break;
1391             }
1392         } else if (cpu->stop || cpu->stopped) {
1393             break;
1394         }
1395     }
1396     exit_request = 0;
1397 }
1398
1399 void list_cpus(FILE *f, fprintf_function cpu_fprintf, const char *optarg)
1400 {
1401     /* XXX: implement xxx_cpu_list for targets that still miss it */
1402 #if defined(cpu_list)
1403     cpu_list(f, cpu_fprintf);
1404 #endif
1405 }
1406
1407 CpuInfoList *qmp_query_cpus(Error **errp)
1408 {
1409     CpuInfoList *head = NULL, *cur_item = NULL;
1410     CPUState *cpu;
1411
1412     CPU_FOREACH(cpu) {
1413         CpuInfoList *info;
1414 #if defined(TARGET_I386)
1415         X86CPU *x86_cpu = X86_CPU(cpu);
1416         CPUX86State *env = &x86_cpu->env;
1417 #elif defined(TARGET_PPC)
1418         PowerPCCPU *ppc_cpu = POWERPC_CPU(cpu);
1419         CPUPPCState *env = &ppc_cpu->env;
1420 #elif defined(TARGET_SPARC)
1421         SPARCCPU *sparc_cpu = SPARC_CPU(cpu);
1422         CPUSPARCState *env = &sparc_cpu->env;
1423 #elif defined(TARGET_MIPS)
1424         MIPSCPU *mips_cpu = MIPS_CPU(cpu);
1425         CPUMIPSState *env = &mips_cpu->env;
1426 #elif defined(TARGET_TRICORE)
1427         TriCoreCPU *tricore_cpu = TRICORE_CPU(cpu);
1428         CPUTriCoreState *env = &tricore_cpu->env;
1429 #endif
1430
1431         cpu_synchronize_state(cpu);
1432
1433         info = g_malloc0(sizeof(*info));
1434         info->value = g_malloc0(sizeof(*info->value));
1435         info->value->CPU = cpu->cpu_index;
1436         info->value->current = (cpu == first_cpu);
1437         info->value->halted = cpu->halted;
1438         info->value->thread_id = cpu->thread_id;
1439 #if defined(TARGET_I386)
1440         info->value->has_pc = true;
1441         info->value->pc = env->eip + env->segs[R_CS].base;
1442 #elif defined(TARGET_PPC)
1443         info->value->has_nip = true;
1444         info->value->nip = env->nip;
1445 #elif defined(TARGET_SPARC)
1446         info->value->has_pc = true;
1447         info->value->pc = env->pc;
1448         info->value->has_npc = true;
1449         info->value->npc = env->npc;
1450 #elif defined(TARGET_MIPS)
1451         info->value->has_PC = true;
1452         info->value->PC = env->active_tc.PC;
1453 #elif defined(TARGET_TRICORE)
1454         info->value->has_PC = true;
1455         info->value->PC = env->PC;
1456 #endif
1457
1458         /* XXX: waiting for the qapi to support GSList */
1459         if (!cur_item) {
1460             head = cur_item = info;
1461         } else {
1462             cur_item->next = info;
1463             cur_item = info;
1464         }
1465     }
1466
1467     return head;
1468 }
1469
1470 void qmp_memsave(int64_t addr, int64_t size, const char *filename,
1471                  bool has_cpu, int64_t cpu_index, Error **errp)
1472 {
1473     FILE *f;
1474     uint32_t l;
1475     CPUState *cpu;
1476     uint8_t buf[1024];
1477     int64_t orig_addr = addr, orig_size = size;
1478
1479     if (!has_cpu) {
1480         cpu_index = 0;
1481     }
1482
1483     cpu = qemu_get_cpu(cpu_index);
1484     if (cpu == NULL) {
1485         error_set(errp, QERR_INVALID_PARAMETER_VALUE, "cpu-index",
1486                   "a CPU number");
1487         return;
1488     }
1489
1490     f = fopen(filename, "wb");
1491     if (!f) {
1492         error_setg_file_open(errp, errno, filename);
1493         return;
1494     }
1495
1496     while (size != 0) {
1497         l = sizeof(buf);
1498         if (l > size)
1499             l = size;
1500         if (cpu_memory_rw_debug(cpu, addr, buf, l, 0) != 0) {
1501             error_setg(errp, "Invalid addr 0x%016" PRIx64 "/size %" PRId64
1502                              " specified", orig_addr, orig_size);
1503             goto exit;
1504         }
1505         if (fwrite(buf, 1, l, f) != l) {
1506             error_set(errp, QERR_IO_ERROR);
1507             goto exit;
1508         }
1509         addr += l;
1510         size -= l;
1511     }
1512
1513 exit:
1514     fclose(f);
1515 }
1516
1517 void qmp_pmemsave(int64_t addr, int64_t size, const char *filename,
1518                   Error **errp)
1519 {
1520     FILE *f;
1521     uint32_t l;
1522     uint8_t buf[1024];
1523
1524     f = fopen(filename, "wb");
1525     if (!f) {
1526         error_setg_file_open(errp, errno, filename);
1527         return;
1528     }
1529
1530     while (size != 0) {
1531         l = sizeof(buf);
1532         if (l > size)
1533             l = size;
1534         cpu_physical_memory_read(addr, buf, l);
1535         if (fwrite(buf, 1, l, f) != l) {
1536             error_set(errp, QERR_IO_ERROR);
1537             goto exit;
1538         }
1539         addr += l;
1540         size -= l;
1541     }
1542
1543 exit:
1544     fclose(f);
1545 }
1546
1547 void qmp_inject_nmi(Error **errp)
1548 {
1549 #if defined(TARGET_I386)
1550     CPUState *cs;
1551
1552     CPU_FOREACH(cs) {
1553         X86CPU *cpu = X86_CPU(cs);
1554
1555         if (!cpu->apic_state) {
1556             cpu_interrupt(cs, CPU_INTERRUPT_NMI);
1557         } else {
1558             apic_deliver_nmi(cpu->apic_state);
1559         }
1560     }
1561 #else
1562     nmi_monitor_handle(monitor_get_cpu_index(), errp);
1563 #endif
1564 }
1565
1566 void dump_drift_info(FILE *f, fprintf_function cpu_fprintf)
1567 {
1568     if (!use_icount) {
1569         return;
1570     }
1571
1572     cpu_fprintf(f, "Host - Guest clock  %"PRIi64" ms\n",
1573                 (cpu_get_clock() - cpu_get_icount())/SCALE_MS);
1574     if (icount_align_option) {
1575         cpu_fprintf(f, "Max guest delay     %"PRIi64" ms\n", -max_delay/SCALE_MS);
1576         cpu_fprintf(f, "Max guest advance   %"PRIi64" ms\n", max_advance/SCALE_MS);
1577     } else {
1578         cpu_fprintf(f, "Max guest delay     NA\n");
1579         cpu_fprintf(f, "Max guest advance   NA\n");
1580     }
1581 }