Upload Tizen 2.0.0a sources.
[sdk/emulator/qemu.git] / hw / virtio-pci.c
1 /*
2  * Virtio PCI Bindings
3  *
4  * Copyright IBM, Corp. 2007
5  * Copyright (c) 2009 CodeSourcery
6  *
7  * Authors:
8  *  Anthony Liguori   <aliguori@us.ibm.com>
9  *  Paul Brook        <paul@codesourcery.com>
10  *
11  * This work is licensed under the terms of the GNU GPL, version 2.  See
12  * the COPYING file in the top-level directory.
13  *
14  */
15
16
17 #include <inttypes.h>
18
19 #include "virtio.h"
20 #include "virtio-blk.h"
21 #include "virtio-net.h"
22 #include "virtio-serial.h"
23 #include "pci.h"
24 #include "qemu-error.h"
25 #include "msix.h"
26 #include "net.h"
27 #include "loader.h"
28 #include "kvm.h"
29 #include "blockdev.h"
30 #include "virtio-pci.h"
31 #include "range.h"
32 #ifdef CONFIG_MARU
33 #include "../tizen/src/hw/maru_device_ids.h"
34 #endif
35
36 /* from Linux's linux/virtio_pci.h */
37
38 /* A 32-bit r/o bitmask of the features supported by the host */
39 #define VIRTIO_PCI_HOST_FEATURES        0
40
41 /* A 32-bit r/w bitmask of features activated by the guest */
42 #define VIRTIO_PCI_GUEST_FEATURES       4
43
44 /* A 32-bit r/w PFN for the currently selected queue */
45 #define VIRTIO_PCI_QUEUE_PFN            8
46
47 /* A 16-bit r/o queue size for the currently selected queue */
48 #define VIRTIO_PCI_QUEUE_NUM            12
49
50 /* A 16-bit r/w queue selector */
51 #define VIRTIO_PCI_QUEUE_SEL            14
52
53 /* A 16-bit r/w queue notifier */
54 #define VIRTIO_PCI_QUEUE_NOTIFY         16
55
56 /* An 8-bit device status register.  */
57 #define VIRTIO_PCI_STATUS               18
58
59 /* An 8-bit r/o interrupt status register.  Reading the value will return the
60  * current contents of the ISR and will also clear it.  This is effectively
61  * a read-and-acknowledge. */
62 #define VIRTIO_PCI_ISR                  19
63
64 /* MSI-X registers: only enabled if MSI-X is enabled. */
65 /* A 16-bit vector for configuration changes. */
66 #define VIRTIO_MSI_CONFIG_VECTOR        20
67 /* A 16-bit vector for selected queue notifications. */
68 #define VIRTIO_MSI_QUEUE_VECTOR         22
69
70 /* Config space size */
71 #define VIRTIO_PCI_CONFIG_NOMSI         20
72 #define VIRTIO_PCI_CONFIG_MSI           24
73 #define VIRTIO_PCI_REGION_SIZE(dev)     (msix_present(dev) ? \
74                                          VIRTIO_PCI_CONFIG_MSI : \
75                                          VIRTIO_PCI_CONFIG_NOMSI)
76
77 /* The remaining space is defined by each driver as the per-driver
78  * configuration space */
79 #define VIRTIO_PCI_CONFIG(dev)          (msix_enabled(dev) ? \
80                                          VIRTIO_PCI_CONFIG_MSI : \
81                                          VIRTIO_PCI_CONFIG_NOMSI)
82
83 /* How many bits to shift physical queue address written to QUEUE_PFN.
84  * 12 is historical, and due to x86 page size. */
85 #define VIRTIO_PCI_QUEUE_ADDR_SHIFT    12
86
87 /* Flags track per-device state like workarounds for quirks in older guests. */
88 #define VIRTIO_PCI_FLAG_BUS_MASTER_BUG  (1 << 0)
89
90 /* QEMU doesn't strictly need write barriers since everything runs in
91  * lock-step.  We'll leave the calls to wmb() in though to make it obvious for
92  * KVM or if kqemu gets SMP support.
93  */
94 #define wmb() do { } while (0)
95
96 /* virtio device */
97
98 static void virtio_pci_notify(void *opaque, uint16_t vector)
99 {
100     VirtIOPCIProxy *proxy = opaque;
101     if (msix_enabled(&proxy->pci_dev))
102         msix_notify(&proxy->pci_dev, vector);
103     else
104         qemu_set_irq(proxy->pci_dev.irq[0], proxy->vdev->isr & 1);
105 }
106
107 static void virtio_pci_save_config(void * opaque, QEMUFile *f)
108 {
109     VirtIOPCIProxy *proxy = opaque;
110     pci_device_save(&proxy->pci_dev, f);
111     msix_save(&proxy->pci_dev, f);
112     if (msix_present(&proxy->pci_dev))
113         qemu_put_be16(f, proxy->vdev->config_vector);
114 }
115
116 static void virtio_pci_save_queue(void * opaque, int n, QEMUFile *f)
117 {
118     VirtIOPCIProxy *proxy = opaque;
119     if (msix_present(&proxy->pci_dev))
120         qemu_put_be16(f, virtio_queue_vector(proxy->vdev, n));
121 }
122
123 static int virtio_pci_load_config(void * opaque, QEMUFile *f)
124 {
125     VirtIOPCIProxy *proxy = opaque;
126     int ret;
127     ret = pci_device_load(&proxy->pci_dev, f);
128     if (ret) {
129         return ret;
130     }
131     msix_load(&proxy->pci_dev, f);
132     if (msix_present(&proxy->pci_dev)) {
133         qemu_get_be16s(f, &proxy->vdev->config_vector);
134     } else {
135         proxy->vdev->config_vector = VIRTIO_NO_VECTOR;
136     }
137     if (proxy->vdev->config_vector != VIRTIO_NO_VECTOR) {
138         return msix_vector_use(&proxy->pci_dev, proxy->vdev->config_vector);
139     }
140     return 0;
141 }
142
143 static int virtio_pci_load_queue(void * opaque, int n, QEMUFile *f)
144 {
145     VirtIOPCIProxy *proxy = opaque;
146     uint16_t vector;
147     if (msix_present(&proxy->pci_dev)) {
148         qemu_get_be16s(f, &vector);
149     } else {
150         vector = VIRTIO_NO_VECTOR;
151     }
152     virtio_queue_set_vector(proxy->vdev, n, vector);
153     if (vector != VIRTIO_NO_VECTOR) {
154         return msix_vector_use(&proxy->pci_dev, vector);
155     }
156     return 0;
157 }
158
159 static int virtio_pci_set_host_notifier_internal(VirtIOPCIProxy *proxy,
160                                                  int n, bool assign)
161 {
162     VirtQueue *vq = virtio_get_queue(proxy->vdev, n);
163     EventNotifier *notifier = virtio_queue_get_host_notifier(vq);
164     int r = 0;
165
166     if (assign) {
167         r = event_notifier_init(notifier, 1);
168         if (r < 0) {
169             error_report("%s: unable to init event notifier: %d",
170                          __func__, r);
171             return r;
172         }
173         memory_region_add_eventfd(&proxy->bar, VIRTIO_PCI_QUEUE_NOTIFY, 2,
174                                   true, n, event_notifier_get_fd(notifier));
175     } else {
176         memory_region_del_eventfd(&proxy->bar, VIRTIO_PCI_QUEUE_NOTIFY, 2,
177                                   true, n, event_notifier_get_fd(notifier));
178         /* Handle the race condition where the guest kicked and we deassigned
179          * before we got around to handling the kick.
180          */
181         if (event_notifier_test_and_clear(notifier)) {
182             virtio_queue_notify_vq(vq);
183         }
184
185         event_notifier_cleanup(notifier);
186     }
187     return r;
188 }
189
190 static void virtio_pci_host_notifier_read(void *opaque)
191 {
192     VirtQueue *vq = opaque;
193     EventNotifier *n = virtio_queue_get_host_notifier(vq);
194     if (event_notifier_test_and_clear(n)) {
195         virtio_queue_notify_vq(vq);
196     }
197 }
198
199 static void virtio_pci_set_host_notifier_fd_handler(VirtIOPCIProxy *proxy,
200                                                     int n, bool assign)
201 {
202     VirtQueue *vq = virtio_get_queue(proxy->vdev, n);
203     EventNotifier *notifier = virtio_queue_get_host_notifier(vq);
204     if (assign) {
205         qemu_set_fd_handler(event_notifier_get_fd(notifier),
206                             virtio_pci_host_notifier_read, NULL, vq);
207     } else {
208         qemu_set_fd_handler(event_notifier_get_fd(notifier),
209                             NULL, NULL, NULL);
210     }
211 }
212
213 static void virtio_pci_start_ioeventfd(VirtIOPCIProxy *proxy)
214 {
215     int n, r;
216
217     if (!(proxy->flags & VIRTIO_PCI_FLAG_USE_IOEVENTFD) ||
218         proxy->ioeventfd_disabled ||
219         proxy->ioeventfd_started) {
220         return;
221     }
222
223     for (n = 0; n < VIRTIO_PCI_QUEUE_MAX; n++) {
224         if (!virtio_queue_get_num(proxy->vdev, n)) {
225             continue;
226         }
227
228         r = virtio_pci_set_host_notifier_internal(proxy, n, true);
229         if (r < 0) {
230             goto assign_error;
231         }
232
233         virtio_pci_set_host_notifier_fd_handler(proxy, n, true);
234     }
235     proxy->ioeventfd_started = true;
236     return;
237
238 assign_error:
239     while (--n >= 0) {
240         if (!virtio_queue_get_num(proxy->vdev, n)) {
241             continue;
242         }
243
244         virtio_pci_set_host_notifier_fd_handler(proxy, n, false);
245         r = virtio_pci_set_host_notifier_internal(proxy, n, false);
246         assert(r >= 0);
247     }
248     proxy->ioeventfd_started = false;
249     error_report("%s: failed. Fallback to a userspace (slower).", __func__);
250 }
251
252 static void virtio_pci_stop_ioeventfd(VirtIOPCIProxy *proxy)
253 {
254     int r;
255     int n;
256
257     if (!proxy->ioeventfd_started) {
258         return;
259     }
260
261     for (n = 0; n < VIRTIO_PCI_QUEUE_MAX; n++) {
262         if (!virtio_queue_get_num(proxy->vdev, n)) {
263             continue;
264         }
265
266         virtio_pci_set_host_notifier_fd_handler(proxy, n, false);
267         r = virtio_pci_set_host_notifier_internal(proxy, n, false);
268         assert(r >= 0);
269     }
270     proxy->ioeventfd_started = false;
271 }
272
273 void virtio_pci_reset(DeviceState *d)
274 {
275     VirtIOPCIProxy *proxy = container_of(d, VirtIOPCIProxy, pci_dev.qdev);
276     virtio_pci_stop_ioeventfd(proxy);
277     virtio_reset(proxy->vdev);
278     msix_reset(&proxy->pci_dev);
279     proxy->flags &= ~VIRTIO_PCI_FLAG_BUS_MASTER_BUG;
280 }
281
282 static void virtio_ioport_write(void *opaque, uint32_t addr, uint32_t val)
283 {
284     VirtIOPCIProxy *proxy = opaque;
285     VirtIODevice *vdev = proxy->vdev;
286     target_phys_addr_t pa;
287
288     switch (addr) {
289     case VIRTIO_PCI_GUEST_FEATURES:
290         /* Guest does not negotiate properly?  We have to assume nothing. */
291         if (val & (1 << VIRTIO_F_BAD_FEATURE)) {
292             val = vdev->bad_features ? vdev->bad_features(vdev) : 0;
293         }
294         virtio_set_features(vdev, val);
295         break;
296     case VIRTIO_PCI_QUEUE_PFN:
297         pa = (target_phys_addr_t)val << VIRTIO_PCI_QUEUE_ADDR_SHIFT;
298         if (pa == 0) {
299             virtio_pci_stop_ioeventfd(proxy);
300             virtio_reset(proxy->vdev);
301             msix_unuse_all_vectors(&proxy->pci_dev);
302         }
303         else
304             virtio_queue_set_addr(vdev, vdev->queue_sel, pa);
305         break;
306     case VIRTIO_PCI_QUEUE_SEL:
307         if (val < VIRTIO_PCI_QUEUE_MAX)
308             vdev->queue_sel = val;
309         break;
310     case VIRTIO_PCI_QUEUE_NOTIFY:
311         if (val < VIRTIO_PCI_QUEUE_MAX) {
312             virtio_queue_notify(vdev, val);
313         }
314         break;
315     case VIRTIO_PCI_STATUS:
316         if (!(val & VIRTIO_CONFIG_S_DRIVER_OK)) {
317             virtio_pci_stop_ioeventfd(proxy);
318         }
319
320         virtio_set_status(vdev, val & 0xFF);
321
322         if (val & VIRTIO_CONFIG_S_DRIVER_OK) {
323             virtio_pci_start_ioeventfd(proxy);
324         }
325
326         if (vdev->status == 0) {
327             virtio_reset(proxy->vdev);
328             msix_unuse_all_vectors(&proxy->pci_dev);
329         }
330
331         /* Linux before 2.6.34 sets the device as OK without enabling
332            the PCI device bus master bit. In this case we need to disable
333            some safety checks. */
334         if ((val & VIRTIO_CONFIG_S_DRIVER_OK) &&
335             !(proxy->pci_dev.config[PCI_COMMAND] & PCI_COMMAND_MASTER)) {
336             proxy->flags |= VIRTIO_PCI_FLAG_BUS_MASTER_BUG;
337         }
338         break;
339     case VIRTIO_MSI_CONFIG_VECTOR:
340         msix_vector_unuse(&proxy->pci_dev, vdev->config_vector);
341         /* Make it possible for guest to discover an error took place. */
342         if (msix_vector_use(&proxy->pci_dev, val) < 0)
343             val = VIRTIO_NO_VECTOR;
344         vdev->config_vector = val;
345         break;
346     case VIRTIO_MSI_QUEUE_VECTOR:
347         msix_vector_unuse(&proxy->pci_dev,
348                           virtio_queue_vector(vdev, vdev->queue_sel));
349         /* Make it possible for guest to discover an error took place. */
350         if (msix_vector_use(&proxy->pci_dev, val) < 0)
351             val = VIRTIO_NO_VECTOR;
352         virtio_queue_set_vector(vdev, vdev->queue_sel, val);
353         break;
354     default:
355         error_report("%s: unexpected address 0x%x value 0x%x",
356                      __func__, addr, val);
357         break;
358     }
359 }
360
361 static uint32_t virtio_ioport_read(VirtIOPCIProxy *proxy, uint32_t addr)
362 {
363     VirtIODevice *vdev = proxy->vdev;
364     uint32_t ret = 0xFFFFFFFF;
365
366     switch (addr) {
367     case VIRTIO_PCI_HOST_FEATURES:
368         ret = proxy->host_features;
369         break;
370     case VIRTIO_PCI_GUEST_FEATURES:
371         ret = vdev->guest_features;
372         break;
373     case VIRTIO_PCI_QUEUE_PFN:
374         ret = virtio_queue_get_addr(vdev, vdev->queue_sel)
375               >> VIRTIO_PCI_QUEUE_ADDR_SHIFT;
376         break;
377     case VIRTIO_PCI_QUEUE_NUM:
378         ret = virtio_queue_get_num(vdev, vdev->queue_sel);
379         break;
380     case VIRTIO_PCI_QUEUE_SEL:
381         ret = vdev->queue_sel;
382         break;
383     case VIRTIO_PCI_STATUS:
384         ret = vdev->status;
385         break;
386     case VIRTIO_PCI_ISR:
387         /* reading from the ISR also clears it. */
388         ret = vdev->isr;
389         vdev->isr = 0;
390         qemu_set_irq(proxy->pci_dev.irq[0], 0);
391         break;
392     case VIRTIO_MSI_CONFIG_VECTOR:
393         ret = vdev->config_vector;
394         break;
395     case VIRTIO_MSI_QUEUE_VECTOR:
396         ret = virtio_queue_vector(vdev, vdev->queue_sel);
397         break;
398     default:
399         break;
400     }
401
402     return ret;
403 }
404
405 static uint32_t virtio_pci_config_readb(void *opaque, uint32_t addr)
406 {
407     VirtIOPCIProxy *proxy = opaque;
408     uint32_t config = VIRTIO_PCI_CONFIG(&proxy->pci_dev);
409     if (addr < config)
410         return virtio_ioport_read(proxy, addr);
411     addr -= config;
412     return virtio_config_readb(proxy->vdev, addr);
413 }
414
415 static uint32_t virtio_pci_config_readw(void *opaque, uint32_t addr)
416 {
417     VirtIOPCIProxy *proxy = opaque;
418     uint32_t config = VIRTIO_PCI_CONFIG(&proxy->pci_dev);
419     if (addr < config)
420         return virtio_ioport_read(proxy, addr);
421     addr -= config;
422     return virtio_config_readw(proxy->vdev, addr);
423 }
424
425 static uint32_t virtio_pci_config_readl(void *opaque, uint32_t addr)
426 {
427     VirtIOPCIProxy *proxy = opaque;
428     uint32_t config = VIRTIO_PCI_CONFIG(&proxy->pci_dev);
429     if (addr < config)
430         return virtio_ioport_read(proxy, addr);
431     addr -= config;
432     return virtio_config_readl(proxy->vdev, addr);
433 }
434
435 static void virtio_pci_config_writeb(void *opaque, uint32_t addr, uint32_t val)
436 {
437     VirtIOPCIProxy *proxy = opaque;
438     uint32_t config = VIRTIO_PCI_CONFIG(&proxy->pci_dev);
439     if (addr < config) {
440         virtio_ioport_write(proxy, addr, val);
441         return;
442     }
443     addr -= config;
444     virtio_config_writeb(proxy->vdev, addr, val);
445 }
446
447 static void virtio_pci_config_writew(void *opaque, uint32_t addr, uint32_t val)
448 {
449     VirtIOPCIProxy *proxy = opaque;
450     uint32_t config = VIRTIO_PCI_CONFIG(&proxy->pci_dev);
451     if (addr < config) {
452         virtio_ioport_write(proxy, addr, val);
453         return;
454     }
455     addr -= config;
456     virtio_config_writew(proxy->vdev, addr, val);
457 }
458
459 static void virtio_pci_config_writel(void *opaque, uint32_t addr, uint32_t val)
460 {
461     VirtIOPCIProxy *proxy = opaque;
462     uint32_t config = VIRTIO_PCI_CONFIG(&proxy->pci_dev);
463     if (addr < config) {
464         virtio_ioport_write(proxy, addr, val);
465         return;
466     }
467     addr -= config;
468     virtio_config_writel(proxy->vdev, addr, val);
469 }
470
471 const MemoryRegionPortio virtio_portio[] = {
472     { 0, 0x10000, 1, .write = virtio_pci_config_writeb, },
473     { 0, 0x10000, 2, .write = virtio_pci_config_writew, },
474     { 0, 0x10000, 4, .write = virtio_pci_config_writel, },
475     { 0, 0x10000, 1, .read = virtio_pci_config_readb, },
476     { 0, 0x10000, 2, .read = virtio_pci_config_readw, },
477     { 0, 0x10000, 4, .read = virtio_pci_config_readl, },
478     PORTIO_END_OF_LIST()
479 };
480
481 static const MemoryRegionOps virtio_pci_config_ops = {
482     .old_portio = virtio_portio,
483     .endianness = DEVICE_LITTLE_ENDIAN,
484 };
485
486 static void virtio_write_config(PCIDevice *pci_dev, uint32_t address,
487                                 uint32_t val, int len)
488 {
489     VirtIOPCIProxy *proxy = DO_UPCAST(VirtIOPCIProxy, pci_dev, pci_dev);
490
491     pci_default_write_config(pci_dev, address, val, len);
492
493     if (range_covers_byte(address, len, PCI_COMMAND) &&
494         !(pci_dev->config[PCI_COMMAND] & PCI_COMMAND_MASTER) &&
495         !(proxy->flags & VIRTIO_PCI_FLAG_BUS_MASTER_BUG)) {
496         virtio_pci_stop_ioeventfd(proxy);
497         virtio_set_status(proxy->vdev,
498                           proxy->vdev->status & ~VIRTIO_CONFIG_S_DRIVER_OK);
499     }
500
501     msix_write_config(pci_dev, address, val, len);
502 }
503
504 static unsigned virtio_pci_get_features(void *opaque)
505 {
506     VirtIOPCIProxy *proxy = opaque;
507     return proxy->host_features;
508 }
509
510 static void virtio_pci_guest_notifier_read(void *opaque)
511 {
512     VirtQueue *vq = opaque;
513     EventNotifier *n = virtio_queue_get_guest_notifier(vq);
514     if (event_notifier_test_and_clear(n)) {
515         virtio_irq(vq);
516     }
517 }
518
519 static int virtio_pci_set_guest_notifier(void *opaque, int n, bool assign)
520 {
521     VirtIOPCIProxy *proxy = opaque;
522     VirtQueue *vq = virtio_get_queue(proxy->vdev, n);
523     EventNotifier *notifier = virtio_queue_get_guest_notifier(vq);
524
525     if (assign) {
526         int r = event_notifier_init(notifier, 0);
527         if (r < 0) {
528             return r;
529         }
530         qemu_set_fd_handler(event_notifier_get_fd(notifier),
531                             virtio_pci_guest_notifier_read, NULL, vq);
532     } else {
533         qemu_set_fd_handler(event_notifier_get_fd(notifier),
534                             NULL, NULL, NULL);
535         event_notifier_cleanup(notifier);
536     }
537
538     return 0;
539 }
540
541 static bool virtio_pci_query_guest_notifiers(void *opaque)
542 {
543     VirtIOPCIProxy *proxy = opaque;
544     return msix_enabled(&proxy->pci_dev);
545 }
546
547 static int virtio_pci_set_guest_notifiers(void *opaque, bool assign)
548 {
549     VirtIOPCIProxy *proxy = opaque;
550     VirtIODevice *vdev = proxy->vdev;
551     int r, n;
552
553     for (n = 0; n < VIRTIO_PCI_QUEUE_MAX; n++) {
554         if (!virtio_queue_get_num(vdev, n)) {
555             break;
556         }
557
558         r = virtio_pci_set_guest_notifier(opaque, n, assign);
559         if (r < 0) {
560             goto assign_error;
561         }
562     }
563
564     return 0;
565
566 assign_error:
567     /* We get here on assignment failure. Recover by undoing for VQs 0 .. n. */
568     while (--n >= 0) {
569         virtio_pci_set_guest_notifier(opaque, n, !assign);
570     }
571     return r;
572 }
573
574 static int virtio_pci_set_host_notifier(void *opaque, int n, bool assign)
575 {
576     VirtIOPCIProxy *proxy = opaque;
577
578     /* Stop using ioeventfd for virtqueue kick if the device starts using host
579      * notifiers.  This makes it easy to avoid stepping on each others' toes.
580      */
581     proxy->ioeventfd_disabled = assign;
582     if (assign) {
583         virtio_pci_stop_ioeventfd(proxy);
584     }
585     /* We don't need to start here: it's not needed because backend
586      * currently only stops on status change away from ok,
587      * reset, vmstop and such. If we do add code to start here,
588      * need to check vmstate, device state etc. */
589     return virtio_pci_set_host_notifier_internal(proxy, n, assign);
590 }
591
592 static void virtio_pci_vmstate_change(void *opaque, bool running)
593 {
594     VirtIOPCIProxy *proxy = opaque;
595
596     if (running) {
597         /* Try to find out if the guest has bus master disabled, but is
598            in ready state. Then we have a buggy guest OS. */
599         if ((proxy->vdev->status & VIRTIO_CONFIG_S_DRIVER_OK) &&
600             !(proxy->pci_dev.config[PCI_COMMAND] & PCI_COMMAND_MASTER)) {
601             proxy->flags |= VIRTIO_PCI_FLAG_BUS_MASTER_BUG;
602         }
603         virtio_pci_start_ioeventfd(proxy);
604     } else {
605         virtio_pci_stop_ioeventfd(proxy);
606     }
607 }
608
609 static const VirtIOBindings virtio_pci_bindings = {
610     .notify = virtio_pci_notify,
611     .save_config = virtio_pci_save_config,
612     .load_config = virtio_pci_load_config,
613     .save_queue = virtio_pci_save_queue,
614     .load_queue = virtio_pci_load_queue,
615     .get_features = virtio_pci_get_features,
616     .query_guest_notifiers = virtio_pci_query_guest_notifiers,
617     .set_host_notifier = virtio_pci_set_host_notifier,
618     .set_guest_notifiers = virtio_pci_set_guest_notifiers,
619     .vmstate_change = virtio_pci_vmstate_change,
620 };
621
622 void virtio_init_pci(VirtIOPCIProxy *proxy, VirtIODevice *vdev)
623 {
624     uint8_t *config;
625     uint32_t size;
626
627     proxy->vdev = vdev;
628
629     config = proxy->pci_dev.config;
630
631     if (proxy->class_code) {
632         pci_config_set_class(config, proxy->class_code);
633     }
634     pci_set_word(config + 0x2c, pci_get_word(config + PCI_VENDOR_ID));
635     pci_set_word(config + 0x2e, vdev->device_id);
636     config[0x3d] = 1;
637
638     memory_region_init(&proxy->msix_bar, "virtio-msix", 4096);
639     if (vdev->nvectors && !msix_init(&proxy->pci_dev, vdev->nvectors,
640                                      &proxy->msix_bar, 1, 0)) {
641         pci_register_bar(&proxy->pci_dev, 1, PCI_BASE_ADDRESS_SPACE_MEMORY,
642                          &proxy->msix_bar);
643     } else
644         vdev->nvectors = 0;
645
646     proxy->pci_dev.config_write = virtio_write_config;
647
648     size = VIRTIO_PCI_REGION_SIZE(&proxy->pci_dev) + vdev->config_len;
649     if (size & (size-1))
650         size = 1 << qemu_fls(size);
651
652     memory_region_init_io(&proxy->bar, &virtio_pci_config_ops, proxy,
653                           "virtio-pci", size);
654     pci_register_bar(&proxy->pci_dev, 0, PCI_BASE_ADDRESS_SPACE_IO,
655                      &proxy->bar);
656
657     if (!kvm_has_many_ioeventfds()) {
658         proxy->flags &= ~VIRTIO_PCI_FLAG_USE_IOEVENTFD;
659     }
660
661     virtio_bind_device(vdev, &virtio_pci_bindings, proxy);
662     proxy->host_features |= 0x1 << VIRTIO_F_NOTIFY_ON_EMPTY;
663     proxy->host_features |= 0x1 << VIRTIO_F_BAD_FEATURE;
664     proxy->host_features = vdev->get_features(vdev, proxy->host_features);
665 }
666
667 static int virtio_blk_init_pci(PCIDevice *pci_dev)
668 {
669     VirtIOPCIProxy *proxy = DO_UPCAST(VirtIOPCIProxy, pci_dev, pci_dev);
670     VirtIODevice *vdev;
671
672     if (proxy->class_code != PCI_CLASS_STORAGE_SCSI &&
673         proxy->class_code != PCI_CLASS_STORAGE_OTHER)
674         proxy->class_code = PCI_CLASS_STORAGE_SCSI;
675
676     vdev = virtio_blk_init(&pci_dev->qdev, &proxy->block,
677                            &proxy->block_serial);
678     if (!vdev) {
679         return -1;
680     }
681     vdev->nvectors = proxy->nvectors;
682     virtio_init_pci(proxy, vdev);
683     /* make the actual value visible */
684     proxy->nvectors = vdev->nvectors;
685     return 0;
686 }
687
688 static int virtio_exit_pci(PCIDevice *pci_dev)
689 {
690     VirtIOPCIProxy *proxy = DO_UPCAST(VirtIOPCIProxy, pci_dev, pci_dev);
691     int r;
692
693     memory_region_destroy(&proxy->bar);
694     r = msix_uninit(pci_dev, &proxy->msix_bar);
695     memory_region_destroy(&proxy->msix_bar);
696     return r;
697 }
698
699 static int virtio_blk_exit_pci(PCIDevice *pci_dev)
700 {
701     VirtIOPCIProxy *proxy = DO_UPCAST(VirtIOPCIProxy, pci_dev, pci_dev);
702
703     virtio_pci_stop_ioeventfd(proxy);
704     virtio_blk_exit(proxy->vdev);
705     blockdev_mark_auto_del(proxy->block.bs);
706     return virtio_exit_pci(pci_dev);
707 }
708
709 static int virtio_serial_init_pci(PCIDevice *pci_dev)
710 {
711     VirtIOPCIProxy *proxy = DO_UPCAST(VirtIOPCIProxy, pci_dev, pci_dev);
712     VirtIODevice *vdev;
713
714     if (proxy->class_code != PCI_CLASS_COMMUNICATION_OTHER &&
715         proxy->class_code != PCI_CLASS_DISPLAY_OTHER && /* qemu 0.10 */
716         proxy->class_code != PCI_CLASS_OTHERS)          /* qemu-kvm  */
717         proxy->class_code = PCI_CLASS_COMMUNICATION_OTHER;
718
719     vdev = virtio_serial_init(&pci_dev->qdev, &proxy->serial);
720     if (!vdev) {
721         return -1;
722     }
723     vdev->nvectors = proxy->nvectors == DEV_NVECTORS_UNSPECIFIED
724                                         ? proxy->serial.max_virtserial_ports + 1
725                                         : proxy->nvectors;
726     virtio_init_pci(proxy, vdev);
727     proxy->nvectors = vdev->nvectors;
728     return 0;
729 }
730
731 static int virtio_serial_exit_pci(PCIDevice *pci_dev)
732 {
733     VirtIOPCIProxy *proxy = DO_UPCAST(VirtIOPCIProxy, pci_dev, pci_dev);
734
735     virtio_pci_stop_ioeventfd(proxy);
736     virtio_serial_exit(proxy->vdev);
737     return virtio_exit_pci(pci_dev);
738 }
739
740 static int virtio_net_init_pci(PCIDevice *pci_dev)
741 {
742     VirtIOPCIProxy *proxy = DO_UPCAST(VirtIOPCIProxy, pci_dev, pci_dev);
743     VirtIODevice *vdev;
744
745     vdev = virtio_net_init(&pci_dev->qdev, &proxy->nic, &proxy->net);
746
747     vdev->nvectors = proxy->nvectors;
748     virtio_init_pci(proxy, vdev);
749
750     /* make the actual value visible */
751     proxy->nvectors = vdev->nvectors;
752     return 0;
753 }
754
755 static int virtio_net_exit_pci(PCIDevice *pci_dev)
756 {
757     VirtIOPCIProxy *proxy = DO_UPCAST(VirtIOPCIProxy, pci_dev, pci_dev);
758
759     virtio_pci_stop_ioeventfd(proxy);
760     virtio_net_exit(proxy->vdev);
761     return virtio_exit_pci(pci_dev);
762 }
763
764 static int virtio_balloon_init_pci(PCIDevice *pci_dev)
765 {
766     VirtIOPCIProxy *proxy = DO_UPCAST(VirtIOPCIProxy, pci_dev, pci_dev);
767     VirtIODevice *vdev;
768
769     vdev = virtio_balloon_init(&pci_dev->qdev);
770     if (!vdev) {
771         return -1;
772     }
773     virtio_init_pci(proxy, vdev);
774     return 0;
775 }
776
777 static int virtio_balloon_exit_pci(PCIDevice *pci_dev)
778 {
779     VirtIOPCIProxy *proxy = DO_UPCAST(VirtIOPCIProxy, pci_dev, pci_dev);
780
781     virtio_pci_stop_ioeventfd(proxy);
782     virtio_balloon_exit(proxy->vdev);
783     return virtio_exit_pci(pci_dev);
784 }
785
786 #if defined(CONFIG_MARU) && (!defined(CONFIG_DARWIN))
787 extern VirtIODevice *virtio_gl_init(DeviceState *dev);
788 static int virtio_gl_init_pci(PCIDevice *pci_dev)
789 {
790     VirtIOPCIProxy *proxy = DO_UPCAST(VirtIOPCIProxy, pci_dev, pci_dev);
791     VirtIODevice *vdev;
792
793     vdev = virtio_gl_init(&pci_dev->qdev);
794     if (!vdev) {
795         return -1;
796     }
797     virtio_init_pci(proxy, vdev);
798     return 0;
799 }
800 #endif
801
802 #ifdef CONFIG_MARU
803 static int maru_virtio_touchscreen_init_pci(PCIDevice *pci_dev)
804 {
805     VirtIOPCIProxy *proxy = DO_UPCAST(VirtIOPCIProxy, pci_dev, pci_dev);
806     VirtIODevice *vdev;
807
808     vdev = maru_virtio_touchscreen_init(&pci_dev->qdev);
809     if (!vdev) {
810         return -1;
811     }
812     virtio_init_pci(proxy, vdev);
813     return 0;
814 }
815
816 static int maru_virtio_touchscreen_exit_pci(PCIDevice *pci_dev)
817 {
818     VirtIOPCIProxy *proxy = DO_UPCAST(VirtIOPCIProxy, pci_dev, pci_dev);
819
820     virtio_pci_stop_ioeventfd(proxy);
821     maru_virtio_touchscreen_exit(proxy->vdev);
822     return virtio_exit_pci(pci_dev);
823 }
824 #endif
825
826
827 static PCIDeviceInfo virtio_info[] = {
828     {
829         .qdev.name = "virtio-blk-pci",
830         .qdev.alias = "virtio-blk",
831         .qdev.size = sizeof(VirtIOPCIProxy),
832         .init      = virtio_blk_init_pci,
833         .exit      = virtio_blk_exit_pci,
834         .vendor_id = PCI_VENDOR_ID_REDHAT_QUMRANET,
835         .device_id = PCI_DEVICE_ID_VIRTIO_BLOCK,
836         .revision  = VIRTIO_PCI_ABI_VERSION,
837         .class_id  = PCI_CLASS_STORAGE_SCSI,
838         .qdev.props = (Property[]) {
839             DEFINE_PROP_HEX32("class", VirtIOPCIProxy, class_code, 0),
840             DEFINE_BLOCK_PROPERTIES(VirtIOPCIProxy, block),
841             DEFINE_PROP_STRING("serial", VirtIOPCIProxy, block_serial),
842             DEFINE_PROP_BIT("ioeventfd", VirtIOPCIProxy, flags,
843                             VIRTIO_PCI_FLAG_USE_IOEVENTFD_BIT, true),
844             DEFINE_PROP_UINT32("vectors", VirtIOPCIProxy, nvectors, 2),
845             DEFINE_VIRTIO_BLK_FEATURES(VirtIOPCIProxy, host_features),
846             DEFINE_PROP_END_OF_LIST(),
847         },
848         .qdev.reset = virtio_pci_reset,
849     },{
850         .qdev.name  = "virtio-net-pci",
851         .qdev.alias = "virtio-net",
852         .qdev.size  = sizeof(VirtIOPCIProxy),
853         .init       = virtio_net_init_pci,
854         .exit       = virtio_net_exit_pci,
855         .romfile    = "pxe-virtio.rom",
856         .vendor_id  = PCI_VENDOR_ID_REDHAT_QUMRANET,
857         .device_id  = PCI_DEVICE_ID_VIRTIO_NET,
858         .revision   = VIRTIO_PCI_ABI_VERSION,
859         .class_id   = PCI_CLASS_NETWORK_ETHERNET,
860         .qdev.props = (Property[]) {
861             DEFINE_PROP_BIT("ioeventfd", VirtIOPCIProxy, flags,
862                             VIRTIO_PCI_FLAG_USE_IOEVENTFD_BIT, false),
863             DEFINE_PROP_UINT32("vectors", VirtIOPCIProxy, nvectors, 3),
864             DEFINE_VIRTIO_NET_FEATURES(VirtIOPCIProxy, host_features),
865             DEFINE_NIC_PROPERTIES(VirtIOPCIProxy, nic),
866             DEFINE_PROP_UINT32("x-txtimer", VirtIOPCIProxy,
867                                net.txtimer, TX_TIMER_INTERVAL),
868             DEFINE_PROP_INT32("x-txburst", VirtIOPCIProxy,
869                               net.txburst, TX_BURST),
870             DEFINE_PROP_STRING("tx", VirtIOPCIProxy, net.tx),
871             DEFINE_PROP_END_OF_LIST(),
872         },
873         .qdev.reset = virtio_pci_reset,
874     },{
875         .qdev.name = "virtio-serial-pci",
876         .qdev.alias = "virtio-serial",
877         .qdev.size = sizeof(VirtIOPCIProxy),
878         .init      = virtio_serial_init_pci,
879         .exit      = virtio_serial_exit_pci,
880         .vendor_id = PCI_VENDOR_ID_REDHAT_QUMRANET,
881         .device_id = PCI_DEVICE_ID_VIRTIO_CONSOLE,
882         .revision  = VIRTIO_PCI_ABI_VERSION,
883         .class_id  = PCI_CLASS_COMMUNICATION_OTHER,
884         .qdev.props = (Property[]) {
885             DEFINE_PROP_BIT("ioeventfd", VirtIOPCIProxy, flags,
886                             VIRTIO_PCI_FLAG_USE_IOEVENTFD_BIT, true),
887             DEFINE_PROP_UINT32("vectors", VirtIOPCIProxy, nvectors,
888                                DEV_NVECTORS_UNSPECIFIED),
889             DEFINE_PROP_HEX32("class", VirtIOPCIProxy, class_code, 0),
890             DEFINE_VIRTIO_COMMON_FEATURES(VirtIOPCIProxy, host_features),
891             DEFINE_PROP_UINT32("max_ports", VirtIOPCIProxy,
892                                serial.max_virtserial_ports, 31),
893             DEFINE_PROP_END_OF_LIST(),
894         },
895         .qdev.reset = virtio_pci_reset,
896     },{
897         .qdev.name = "virtio-balloon-pci",
898         .qdev.alias = "virtio-balloon",
899         .qdev.size = sizeof(VirtIOPCIProxy),
900         .init      = virtio_balloon_init_pci,
901         .exit      = virtio_balloon_exit_pci,
902         .vendor_id = PCI_VENDOR_ID_REDHAT_QUMRANET,
903         .device_id = PCI_DEVICE_ID_VIRTIO_BALLOON,
904         .revision  = VIRTIO_PCI_ABI_VERSION,
905         .class_id  = PCI_CLASS_MEMORY_RAM,
906         .qdev.props = (Property[]) {
907             DEFINE_VIRTIO_COMMON_FEATURES(VirtIOPCIProxy, host_features),
908             DEFINE_PROP_END_OF_LIST(),
909         },
910         .qdev.reset = virtio_pci_reset,
911     },{
912 #if defined(CONFIG_MARU) && (!defined(CONFIG_DARWIN))
913                 .qdev.name = "virtio-gl-pci",
914         .qdev.alias = "virtio-gl",
915                 .qdev.size = sizeof(VirtIOPCIProxy),
916                 .init      = virtio_gl_init_pci,
917                 .exit      = virtio_exit_pci,
918         .vendor_id = PCI_VENDOR_ID_REDHAT_QUMRANET,
919         .device_id = PCI_DEVICE_ID_VIRTIO_GL,
920         .revision  = VIRTIO_PCI_ABI_VERSION,
921         .class_id  = PCI_CLASS_OTHERS,
922                 .qdev.props = (Property[]) {
923                         DEFINE_PROP_END_OF_LIST(),
924                 },
925                 .qdev.reset = virtio_pci_reset,
926         },{
927 #endif
928
929 #ifdef CONFIG_MARU
930         .qdev.name = "virtio-touchscreen-pci",
931         .qdev.alias = "virtio-touchscreen",
932         .qdev.size = sizeof(VirtIOPCIProxy),
933         .init      = maru_virtio_touchscreen_init_pci,
934         .exit      = maru_virtio_touchscreen_exit_pci,
935         .vendor_id = PCI_VENDOR_ID_REDHAT_QUMRANET,
936         .device_id = PCI_DEVICE_ID_VIRTIO_TOUCHSCREEN,
937         .revision  = VIRTIO_PCI_ABI_VERSION,
938         .class_id  = PCI_CLASS_OTHERS,
939         .qdev.props = (Property[]) {
940             DEFINE_PROP_END_OF_LIST(),
941         },
942         .qdev.reset = virtio_pci_reset,
943     },{
944 #endif
945
946         /* end of list */
947     }
948 };
949
950 static void virtio_pci_register_devices(void)
951 {
952     pci_qdev_register_many(virtio_info);
953 }
954
955 device_init(virtio_pci_register_devices)