sync with latest
[sdk/emulator/qemu.git] / kvm.h
1 /*
2  * QEMU KVM support
3  *
4  * Copyright IBM, Corp. 2008
5  *
6  * Authors:
7  *  Anthony Liguori   <aliguori@us.ibm.com>
8  *
9  * This work is licensed under the terms of the GNU GPL, version 2 or later.
10  * See the COPYING file in the top-level directory.
11  *
12  */
13
14 #ifndef QEMU_KVM_H
15 #define QEMU_KVM_H
16
17 #include <errno.h>
18 #include "config-host.h"
19 #include "qemu-queue.h"
20
21 #ifdef CONFIG_KVM
22 #include <linux/kvm.h>
23 #endif
24
25 extern int kvm_allowed;
26 extern bool kvm_kernel_irqchip;
27 extern bool kvm_async_interrupts_allowed;
28 extern bool kvm_irqfds_allowed;
29 extern bool kvm_msi_via_irqfd_allowed;
30 extern bool kvm_gsi_routing_allowed;
31
32 #if defined CONFIG_KVM || !defined NEED_CPU_H
33 #define kvm_enabled()           (kvm_allowed)
34 /**
35  * kvm_irqchip_in_kernel:
36  *
37  * Returns: true if the user asked us to create an in-kernel
38  * irqchip via the "kernel_irqchip=on" machine option.
39  * What this actually means is architecture and machine model
40  * specific: on PC, for instance, it means that the LAPIC,
41  * IOAPIC and PIT are all in kernel. This function should never
42  * be used from generic target-independent code: use one of the
43  * following functions or some other specific check instead.
44  */
45 #define kvm_irqchip_in_kernel() (kvm_kernel_irqchip)
46
47 /**
48  * kvm_async_interrupts_enabled:
49  *
50  * Returns: true if we can deliver interrupts to KVM
51  * asynchronously (ie by ioctl from any thread at any time)
52  * rather than having to do interrupt delivery synchronously
53  * (where the vcpu must be stopped at a suitable point first).
54  */
55 #define kvm_async_interrupts_enabled() (kvm_async_interrupts_allowed)
56
57 /**
58  * kvm_irqfds_enabled:
59  *
60  * Returns: true if we can use irqfds to inject interrupts into
61  * a KVM CPU (ie the kernel supports irqfds and we are running
62  * with a configuration where it is meaningful to use them).
63  */
64 #define kvm_irqfds_enabled() (kvm_irqfds_allowed)
65
66 /**
67  * kvm_msi_via_irqfd_enabled:
68  *
69  * Returns: true if we can route a PCI MSI (Message Signaled Interrupt)
70  * to a KVM CPU via an irqfd. This requires that the kernel supports
71  * this and that we're running in a configuration that permits it.
72  */
73 #define kvm_msi_via_irqfd_enabled() (kvm_msi_via_irqfd_allowed)
74
75 /**
76  * kvm_gsi_routing_enabled:
77  *
78  * Returns: true if GSI routing is enabled (ie the kernel supports
79  * it and we're running in a configuration that permits it).
80  */
81 #define kvm_gsi_routing_enabled() (kvm_gsi_routing_allowed)
82
83 #else
84 #define kvm_enabled()           (0)
85 #define kvm_irqchip_in_kernel() (false)
86 #define kvm_async_interrupts_enabled() (false)
87 #define kvm_irqfds_enabled() (false)
88 #define kvm_msi_via_irqfd_enabled() (false)
89 #define kvm_gsi_routing_allowed() (false)
90 #endif
91
92 struct kvm_run;
93 struct kvm_lapic_state;
94
95 typedef struct KVMCapabilityInfo {
96     const char *name;
97     int value;
98 } KVMCapabilityInfo;
99
100 #define KVM_CAP_INFO(CAP) { "KVM_CAP_" stringify(CAP), KVM_CAP_##CAP }
101 #define KVM_CAP_LAST_INFO { NULL, 0 }
102
103 struct KVMState;
104 typedef struct KVMState KVMState;
105 extern KVMState *kvm_state;
106
107 /* external API */
108
109 int kvm_init(void);
110
111 int kvm_has_sync_mmu(void);
112 int kvm_has_vcpu_events(void);
113 int kvm_has_robust_singlestep(void);
114 int kvm_has_debugregs(void);
115 int kvm_has_xsave(void);
116 int kvm_has_xcrs(void);
117 int kvm_has_pit_state2(void);
118 int kvm_has_many_ioeventfds(void);
119 int kvm_has_gsi_routing(void);
120
121 #ifdef NEED_CPU_H
122 int kvm_init_vcpu(CPUArchState *env);
123
124 int kvm_cpu_exec(CPUArchState *env);
125
126 #if !defined(CONFIG_USER_ONLY)
127 void *kvm_vmalloc(ram_addr_t size);
128 void *kvm_arch_vmalloc(ram_addr_t size);
129 void kvm_setup_guest_memory(void *start, size_t size);
130
131 int kvm_coalesce_mmio_region(target_phys_addr_t start, ram_addr_t size);
132 int kvm_uncoalesce_mmio_region(target_phys_addr_t start, ram_addr_t size);
133 void kvm_flush_coalesced_mmio_buffer(void);
134 #endif
135
136 int kvm_insert_breakpoint(CPUArchState *current_env, target_ulong addr,
137                           target_ulong len, int type);
138 int kvm_remove_breakpoint(CPUArchState *current_env, target_ulong addr,
139                           target_ulong len, int type);
140 void kvm_remove_all_breakpoints(CPUArchState *current_env);
141 int kvm_update_guest_debug(CPUArchState *env, unsigned long reinject_trap);
142 #ifndef _WIN32
143 int kvm_set_signal_mask(CPUArchState *env, const sigset_t *sigset);
144 #endif
145
146 int kvm_on_sigbus_vcpu(CPUArchState *env, int code, void *addr);
147 int kvm_on_sigbus(int code, void *addr);
148
149 /* internal API */
150
151 int kvm_ioctl(KVMState *s, int type, ...);
152
153 int kvm_vm_ioctl(KVMState *s, int type, ...);
154
155 int kvm_vcpu_ioctl(CPUArchState *env, int type, ...);
156
157 /* Arch specific hooks */
158
159 extern const KVMCapabilityInfo kvm_arch_required_capabilities[];
160
161 void kvm_arch_pre_run(CPUArchState *env, struct kvm_run *run);
162 void kvm_arch_post_run(CPUArchState *env, struct kvm_run *run);
163
164 int kvm_arch_handle_exit(CPUArchState *env, struct kvm_run *run);
165
166 int kvm_arch_process_async_events(CPUArchState *env);
167
168 int kvm_arch_get_registers(CPUArchState *env);
169
170 /* state subset only touched by the VCPU itself during runtime */
171 #define KVM_PUT_RUNTIME_STATE   1
172 /* state subset modified during VCPU reset */
173 #define KVM_PUT_RESET_STATE     2
174 /* full state set, modified during initialization or on vmload */
175 #define KVM_PUT_FULL_STATE      3
176
177 int kvm_arch_put_registers(CPUArchState *env, int level);
178
179 int kvm_arch_init(KVMState *s);
180
181 int kvm_arch_init_vcpu(CPUArchState *env);
182
183 void kvm_arch_reset_vcpu(CPUArchState *env);
184
185 int kvm_arch_on_sigbus_vcpu(CPUArchState *env, int code, void *addr);
186 int kvm_arch_on_sigbus(int code, void *addr);
187
188 void kvm_arch_init_irq_routing(KVMState *s);
189
190 int kvm_set_irq(KVMState *s, int irq, int level);
191 int kvm_irqchip_send_msi(KVMState *s, MSIMessage msg);
192
193 void kvm_irqchip_add_irq_route(KVMState *s, int gsi, int irqchip, int pin);
194
195 void kvm_put_apic_state(DeviceState *d, struct kvm_lapic_state *kapic);
196 void kvm_get_apic_state(DeviceState *d, struct kvm_lapic_state *kapic);
197
198 struct kvm_guest_debug;
199 struct kvm_debug_exit_arch;
200
201 struct kvm_sw_breakpoint {
202     target_ulong pc;
203     target_ulong saved_insn;
204     int use_count;
205     QTAILQ_ENTRY(kvm_sw_breakpoint) entry;
206 };
207
208 QTAILQ_HEAD(kvm_sw_breakpoint_head, kvm_sw_breakpoint);
209
210 struct kvm_sw_breakpoint *kvm_find_sw_breakpoint(CPUArchState *env,
211                                                  target_ulong pc);
212
213 int kvm_sw_breakpoints_active(CPUArchState *env);
214
215 int kvm_arch_insert_sw_breakpoint(CPUArchState *current_env,
216                                   struct kvm_sw_breakpoint *bp);
217 int kvm_arch_remove_sw_breakpoint(CPUArchState *current_env,
218                                   struct kvm_sw_breakpoint *bp);
219 int kvm_arch_insert_hw_breakpoint(target_ulong addr,
220                                   target_ulong len, int type);
221 int kvm_arch_remove_hw_breakpoint(target_ulong addr,
222                                   target_ulong len, int type);
223 void kvm_arch_remove_all_hw_breakpoints(void);
224
225 void kvm_arch_update_guest_debug(CPUArchState *env, struct kvm_guest_debug *dbg);
226
227 bool kvm_arch_stop_on_emulation_error(CPUArchState *env);
228
229 int kvm_check_extension(KVMState *s, unsigned int extension);
230
231 uint32_t kvm_arch_get_supported_cpuid(KVMState *env, uint32_t function,
232                                       uint32_t index, int reg);
233 void kvm_cpu_synchronize_state(CPUArchState *env);
234 void kvm_cpu_synchronize_post_reset(CPUArchState *env);
235 void kvm_cpu_synchronize_post_init(CPUArchState *env);
236
237 /* generic hooks - to be moved/refactored once there are more users */
238 #ifdef CONFIG_HAX
239 void hax_cpu_synchronize_state(CPUArchState *env);
240 void hax_cpu_synchronize_post_reset(CPUArchState *env);
241 void hax_cpu_synchronize_post_init(CPUArchState *env);
242 #endif
243 static inline void cpu_synchronize_state(CPUArchState *env)
244 {
245     if (kvm_enabled()) {
246         kvm_cpu_synchronize_state(env);
247     }
248 #ifdef CONFIG_HAX
249     hax_cpu_synchronize_state(env);
250 #endif
251 }
252
253 static inline void cpu_synchronize_post_reset(CPUArchState *env)
254 {
255     if (kvm_enabled()) {
256         kvm_cpu_synchronize_post_reset(env);
257     }
258 #ifdef CONFIG_HAX
259         hax_cpu_synchronize_post_reset(env);
260 #endif
261 }
262
263 static inline void cpu_synchronize_post_init(CPUArchState *env)
264 {
265     if (kvm_enabled()) {
266         kvm_cpu_synchronize_post_init(env);
267     }
268 #ifdef CONFIG_HAX
269         hax_cpu_synchronize_post_init(env);
270 #endif
271 }
272
273
274 #if !defined(CONFIG_USER_ONLY)
275 int kvm_physical_memory_addr_from_host(KVMState *s, void *ram_addr,
276                                        target_phys_addr_t *phys_addr);
277 #endif
278
279 #endif
280 int kvm_set_ioeventfd_mmio(int fd, uint32_t adr, uint32_t val, bool assign,
281                            uint32_t size);
282
283 int kvm_set_ioeventfd_pio_word(int fd, uint16_t adr, uint16_t val, bool assign);
284
285 int kvm_irqchip_add_msi_route(KVMState *s, MSIMessage msg);
286 void kvm_irqchip_release_virq(KVMState *s, int virq);
287
288 int kvm_irqchip_add_irqfd(KVMState *s, int fd, int virq);
289 int kvm_irqchip_remove_irqfd(KVMState *s, int fd, int virq);
290 int kvm_irqchip_add_irq_notifier(KVMState *s, EventNotifier *n, int virq);
291 int kvm_irqchip_remove_irq_notifier(KVMState *s, EventNotifier *n, int virq);
292 #endif