Merge remote-tracking branch 'origin/master' into staging
authorAnthony Liguori <aliguori@us.ibm.com>
Mon, 11 Mar 2013 01:39:17 +0000 (20:39 -0500)
committerAnthony Liguori <aliguori@us.ibm.com>
Mon, 11 Mar 2013 01:39:17 +0000 (20:39 -0500)
* origin/master: (75 commits)
  tcg: Don't make exitreq flag a local temporary
  Makefile: Add subdir dependency on config-devices-all.mak
  make_device_config.sh: Emit dependency file to directory where included
  Revert "make_device_config.sh: Fix target path in generated dependency file"
  s390/virtio-ccw: remove redundant call to blockdev_mark_auto_del
  s390/css: Fix subchannel detection
  Allow virtio-net features for legacy s390 virtio bus
  s390: virtio-ccw maintainer
  s390: simplify kvm cpu init
  pseries: Add compatible property to root of device tree
  target-ppc: Move CPU aliases out of translate_init.c
  target-ppc: Report CPU aliases for QMP
  target-ppc: List alias names alongside CPU models
  target-ppc: Make host CPU a subclass of the host's CPU model
  PPC: xnu kernel expects FLUSH to be cleared on STOP
  PPC: Fix dma interrupt
  target-ppc: Fix PPC_DUMP_SPR_ACCESS build
  target-ppc: Synchronize FPU state with KVM
  target-ppc: Add mechanism for synchronizing SPRs with KVM
  Save memory allocation in the elf loader
  ...

1  2 
hw/loader.c
hw/mac_dbdma.c
hw/ppc/spapr.c
hw/ppc/spapr_hcall.c
hw/spapr_llan.c

diff --combined hw/loader.c
index d2a974beb9d1480315f088f6f8dba219c1440f68,bd2b52d14e7ca66dc77b17f1307eb76c910b4c60..6ce66fb5bb10d4d681a82d370c3307e85d5983ce
   * with this program; if not, see <http://www.gnu.org/licenses/>.
   */
  
 -#include "hw.h"
 +#include "hw/hw.h"
  #include "disas/disas.h"
  #include "monitor/monitor.h"
  #include "sysemu/sysemu.h"
 -#include "uboot_image.h"
 -#include "loader.h"
 -#include "fw_cfg.h"
 +#include "hw/uboot_image.h"
 +#include "hw/loader.h"
 +#include "hw/fw_cfg.h"
  #include "exec/memory.h"
  #include "exec/address-spaces.h"
  
@@@ -260,7 -260,7 +260,7 @@@ static void *load_at(int fd, int offset
  #define elf_word        uint32_t
  #define elf_sword        int32_t
  #define bswapSZs      bswap32s
 -#include "elf_ops.h"
 +#include "hw/elf_ops.h"
  
  #undef elfhdr
  #undef elf_phdr
  #define elf_sword        int64_t
  #define bswapSZs      bswap64s
  #define SZ            64
 -#include "elf_ops.h"
 +#include "hw/elf_ops.h"
  
  /* return < 0 if error, otherwise the number of bytes loaded in memory */
  int load_elf(const char *filename, uint64_t (*translate_fn)(void *, uint64_t),
@@@ -533,7 -533,14 +533,14 @@@ typedef struct Rom Rom
  struct Rom {
      char *name;
      char *path;
+     /* datasize is the amount of memory allocated in "data". If datasize is less
+      * than romsize, it means that the area from datasize to romsize is filled
+      * with zeros.
+      */
      size_t romsize;
+     size_t datasize;
      uint8_t *data;
      int isrom;
      char *fw_dir;
@@@ -589,14 -596,15 +596,15 @@@ int rom_add_file(const char *file, cons
          rom->fw_dir  = g_strdup(fw_dir);
          rom->fw_file = g_strdup(file);
      }
-     rom->addr    = addr;
-     rom->romsize = lseek(fd, 0, SEEK_END);
-     rom->data    = g_malloc0(rom->romsize);
+     rom->addr     = addr;
+     rom->romsize  = lseek(fd, 0, SEEK_END);
+     rom->datasize = rom->romsize;
+     rom->data     = g_malloc0(rom->datasize);
      lseek(fd, 0, SEEK_SET);
-     rc = read(fd, rom->data, rom->romsize);
-     if (rc != rom->romsize) {
+     rc = read(fd, rom->data, rom->datasize);
+     if (rc != rom->datasize) {
          fprintf(stderr, "rom: file %-20s: read error: rc=%d (expected %zd)\n",
-                 rom->name, rc, rom->romsize);
+                 rom->name, rc, rom->datasize);
          goto err;
      }
      close(fd);
@@@ -637,16 -645,37 +645,37 @@@ int rom_add_blob(const char *name, cons
  {
      Rom *rom;
  
-     rom = g_malloc0(sizeof(*rom));
-     rom->name    = g_strdup(name);
-     rom->addr    = addr;
-     rom->romsize = len;
-     rom->data    = g_malloc0(rom->romsize);
+     rom           = g_malloc0(sizeof(*rom));
+     rom->name     = g_strdup(name);
+     rom->addr     = addr;
+     rom->romsize  = len;
+     rom->datasize = len;
+     rom->data     = g_malloc0(rom->datasize);
      memcpy(rom->data, blob, len);
      rom_insert(rom);
      return 0;
  }
  
+ /* This function is specific for elf program because we don't need to allocate
+  * all the rom. We just allocate the first part and the rest is just zeros. This
+  * is why romsize and datasize are different. Also, this function seize the
+  * memory ownership of "data", so we don't have to allocate and copy the buffer.
+  */
+ int rom_add_elf_program(const char *name, void *data, size_t datasize,
+                         size_t romsize, hwaddr addr)
+ {
+     Rom *rom;
+     rom           = g_malloc0(sizeof(*rom));
+     rom->name     = g_strdup(name);
+     rom->addr     = addr;
+     rom->datasize = datasize;
+     rom->romsize  = romsize;
+     rom->data     = data;
+     rom_insert(rom);
+     return 0;
+ }
  int rom_add_vga(const char *file)
  {
      return rom_add_file(file, "vgaroms", 0, -1);
@@@ -668,7 -697,7 +697,7 @@@ static void rom_reset(void *unused
          if (rom->data == NULL) {
              continue;
          }
-         cpu_physical_memory_write_rom(rom->addr, rom->data, rom->romsize);
+         cpu_physical_memory_write_rom(rom->addr, rom->data, rom->datasize);
          if (rom->isrom) {
              /* rom needs to be written only once */
              g_free(rom->data);
@@@ -756,13 -785,33 +785,33 @@@ int rom_copy(uint8_t *dest, hwaddr addr
  
          d = dest + (rom->addr - addr);
          s = rom->data;
-         l = rom->romsize;
+         l = rom->datasize;
  
          if ((d + l) > (dest + size)) {
              l = dest - d;
          }
  
          memcpy(d, s, l);
+         if (rom->romsize > rom->datasize) {
+             /* If datasize is less than romsize, it means that we didn't
+              * allocate all the ROM because the trailing data are only zeros.
+              */
+             d += l;
+             l = rom->romsize - rom->datasize;
+             if ((d + l) > (dest + size)) {
+                 /* Rom size doesn't fit in the destination area. Adjust to avoid
+                  * overflow.
+                  */
+                 l = dest - d;
+             }
+             if (l > 0) {
+                 memset(d, 0x0, l);
+             }
+         }
      }
  
      return (d + l) - dest;
diff --combined hw/mac_dbdma.c
index a1514708deb620ad12a9e19e48aef8928964fc5e,73d74c2c594d4183740af2f2324ddc9ecd34d820..61d2f35c8e6ff5fb4948e60b61c353e4190f1c4d
@@@ -36,9 -36,9 +36,9 @@@
   * OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN
   * THE SOFTWARE.
   */
 -#include "hw.h"
 -#include "isa.h"
 -#include "mac_dbdma.h"
 +#include "hw/hw.h"
 +#include "hw/isa.h"
 +#include "hw/mac_dbdma.h"
  #include "qemu/main-loop.h"
  
  /* debug DBDMA */
@@@ -688,6 -688,10 +688,10 @@@ dbdma_control_write(DBDMA_channel *ch
      if ((ch->regs[DBDMA_STATUS] & RUN) && !(status & RUN)) {
          /* RUN is cleared */
          status &= ~(ACTIVE|DEAD);
+         if ((status & FLUSH) && ch->flush) {
+             ch->flush(&ch->io);
+             status &= ~FLUSH;
+         }
      }
  
      DBDMA_DPRINTF("    status 0x%08x\n", status);
diff --combined hw/ppc/spapr.c
index 2709c660c161fd95e1b4f9cb9653237db4ad1f31,0000000000000000000000000000000000000000..fd2411310c693720bd63ba590b305aef055bfda2
mode 100644,000000..100644
--- /dev/null
@@@ -1,963 -1,0 +1,964 @@@
 +/*
 + * QEMU PowerPC pSeries Logical Partition (aka sPAPR) hardware System Emulator
 + *
 + * Copyright (c) 2004-2007 Fabrice Bellard
 + * Copyright (c) 2007 Jocelyn Mayer
 + * Copyright (c) 2010 David Gibson, IBM Corporation.
 + *
 + * Permission is hereby granted, free of charge, to any person obtaining a copy
 + * of this software and associated documentation files (the "Software"), to deal
 + * in the Software without restriction, including without limitation the rights
 + * to use, copy, modify, merge, publish, distribute, sublicense, and/or sell
 + * copies of the Software, and to permit persons to whom the Software is
 + * furnished to do so, subject to the following conditions:
 + *
 + * The above copyright notice and this permission notice shall be included in
 + * all copies or substantial portions of the Software.
 + *
 + * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
 + * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
 + * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL
 + * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
 + * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
 + * OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN
 + * THE SOFTWARE.
 + *
 + */
 +#include "sysemu/sysemu.h"
 +#include "hw/hw.h"
 +#include "elf.h"
 +#include "net/net.h"
 +#include "sysemu/blockdev.h"
 +#include "sysemu/cpus.h"
 +#include "sysemu/kvm.h"
 +#include "kvm_ppc.h"
 +
 +#include "hw/boards.h"
 +#include "hw/ppc.h"
 +#include "hw/loader.h"
 +
 +#include "hw/spapr.h"
 +#include "hw/spapr_vio.h"
 +#include "hw/spapr_pci.h"
 +#include "hw/xics.h"
 +#include "hw/pci/msi.h"
 +
 +#include "sysemu/kvm.h"
 +#include "kvm_ppc.h"
 +#include "hw/pci/pci.h"
 +
 +#include "exec/address-spaces.h"
 +#include "hw/usb.h"
 +#include "qemu/config-file.h"
 +
 +#include <libfdt.h>
 +
 +/* SLOF memory layout:
 + *
 + * SLOF raw image loaded at 0, copies its romfs right below the flat
 + * device-tree, then position SLOF itself 31M below that
 + *
 + * So we set FW_OVERHEAD to 40MB which should account for all of that
 + * and more
 + *
 + * We load our kernel at 4M, leaving space for SLOF initial image
 + */
 +#define FDT_MAX_SIZE            0x10000
 +#define RTAS_MAX_SIZE           0x10000
 +#define FW_MAX_SIZE             0x400000
 +#define FW_FILE_NAME            "slof.bin"
 +#define FW_OVERHEAD             0x2800000
 +#define KERNEL_LOAD_ADDR        FW_MAX_SIZE
 +
 +#define MIN_RMA_SLOF            128UL
 +
 +#define TIMEBASE_FREQ           512000000ULL
 +
 +#define MAX_CPUS                256
 +#define XICS_IRQS               1024
 +
 +#define PHANDLE_XICP            0x00001111
 +
 +#define HTAB_SIZE(spapr)        (1ULL << ((spapr)->htab_shift))
 +
 +sPAPREnvironment *spapr;
 +
 +int spapr_allocate_irq(int hint, bool lsi)
 +{
 +    int irq;
 +
 +    if (hint) {
 +        irq = hint;
 +        /* FIXME: we should probably check for collisions somehow */
 +    } else {
 +        irq = spapr->next_irq++;
 +    }
 +
 +    /* Configure irq type */
 +    if (!xics_get_qirq(spapr->icp, irq)) {
 +        return 0;
 +    }
 +
 +    xics_set_irq_type(spapr->icp, irq, lsi);
 +
 +    return irq;
 +}
 +
 +/* Allocate block of consequtive IRQs, returns a number of the first */
 +int spapr_allocate_irq_block(int num, bool lsi)
 +{
 +    int first = -1;
 +    int i;
 +
 +    for (i = 0; i < num; ++i) {
 +        int irq;
 +
 +        irq = spapr_allocate_irq(0, lsi);
 +        if (!irq) {
 +            return -1;
 +        }
 +
 +        if (0 == i) {
 +            first = irq;
 +        }
 +
 +        /* If the above doesn't create a consecutive block then that's
 +         * an internal bug */
 +        assert(irq == (first + i));
 +    }
 +
 +    return first;
 +}
 +
 +static int spapr_fixup_cpu_dt(void *fdt, sPAPREnvironment *spapr)
 +{
 +    int ret = 0, offset;
 +    CPUPPCState *env;
 +    CPUState *cpu;
 +    char cpu_model[32];
 +    int smt = kvmppc_smt_threads();
 +    uint32_t pft_size_prop[] = {0, cpu_to_be32(spapr->htab_shift)};
 +
 +    assert(spapr->cpu_model);
 +
 +    for (env = first_cpu; env != NULL; env = env->next_cpu) {
 +        cpu = CPU(ppc_env_get_cpu(env));
 +        uint32_t associativity[] = {cpu_to_be32(0x5),
 +                                    cpu_to_be32(0x0),
 +                                    cpu_to_be32(0x0),
 +                                    cpu_to_be32(0x0),
 +                                    cpu_to_be32(cpu->numa_node),
 +                                    cpu_to_be32(cpu->cpu_index)};
 +
 +        if ((cpu->cpu_index % smt) != 0) {
 +            continue;
 +        }
 +
 +        snprintf(cpu_model, 32, "/cpus/%s@%x", spapr->cpu_model,
 +                 cpu->cpu_index);
 +
 +        offset = fdt_path_offset(fdt, cpu_model);
 +        if (offset < 0) {
 +            return offset;
 +        }
 +
 +        if (nb_numa_nodes > 1) {
 +            ret = fdt_setprop(fdt, offset, "ibm,associativity", associativity,
 +                              sizeof(associativity));
 +            if (ret < 0) {
 +                return ret;
 +            }
 +        }
 +
 +        ret = fdt_setprop(fdt, offset, "ibm,pft-size",
 +                          pft_size_prop, sizeof(pft_size_prop));
 +        if (ret < 0) {
 +            return ret;
 +        }
 +    }
 +    return ret;
 +}
 +
 +
 +static size_t create_page_sizes_prop(CPUPPCState *env, uint32_t *prop,
 +                                     size_t maxsize)
 +{
 +    size_t maxcells = maxsize / sizeof(uint32_t);
 +    int i, j, count;
 +    uint32_t *p = prop;
 +
 +    for (i = 0; i < PPC_PAGE_SIZES_MAX_SZ; i++) {
 +        struct ppc_one_seg_page_size *sps = &env->sps.sps[i];
 +
 +        if (!sps->page_shift) {
 +            break;
 +        }
 +        for (count = 0; count < PPC_PAGE_SIZES_MAX_SZ; count++) {
 +            if (sps->enc[count].page_shift == 0) {
 +                break;
 +            }
 +        }
 +        if ((p - prop) >= (maxcells - 3 - count * 2)) {
 +            break;
 +        }
 +        *(p++) = cpu_to_be32(sps->page_shift);
 +        *(p++) = cpu_to_be32(sps->slb_enc);
 +        *(p++) = cpu_to_be32(count);
 +        for (j = 0; j < count; j++) {
 +            *(p++) = cpu_to_be32(sps->enc[j].page_shift);
 +            *(p++) = cpu_to_be32(sps->enc[j].pte_enc);
 +        }
 +    }
 +
 +    return (p - prop) * sizeof(uint32_t);
 +}
 +
 +#define _FDT(exp) \
 +    do { \
 +        int ret = (exp);                                           \
 +        if (ret < 0) {                                             \
 +            fprintf(stderr, "qemu: error creating device tree: %s: %s\n", \
 +                    #exp, fdt_strerror(ret));                      \
 +            exit(1);                                               \
 +        }                                                          \
 +    } while (0)
 +
 +
 +static void *spapr_create_fdt_skel(const char *cpu_model,
 +                                   hwaddr initrd_base,
 +                                   hwaddr initrd_size,
 +                                   hwaddr kernel_size,
 +                                   const char *boot_device,
 +                                   const char *kernel_cmdline,
 +                                   uint32_t epow_irq)
 +{
 +    void *fdt;
 +    CPUPPCState *env;
 +    uint32_t start_prop = cpu_to_be32(initrd_base);
 +    uint32_t end_prop = cpu_to_be32(initrd_base + initrd_size);
 +    char hypertas_prop[] = "hcall-pft\0hcall-term\0hcall-dabr\0hcall-interrupt"
 +        "\0hcall-tce\0hcall-vio\0hcall-splpar\0hcall-bulk";
 +    char qemu_hypertas_prop[] = "hcall-memop1";
 +    uint32_t refpoints[] = {cpu_to_be32(0x4), cpu_to_be32(0x4)};
 +    uint32_t interrupt_server_ranges_prop[] = {0, cpu_to_be32(smp_cpus)};
 +    char *modelname;
 +    int i, smt = kvmppc_smt_threads();
 +    unsigned char vec5[] = {0x0, 0x0, 0x0, 0x0, 0x0, 0x80};
 +
 +    fdt = g_malloc0(FDT_MAX_SIZE);
 +    _FDT((fdt_create(fdt, FDT_MAX_SIZE)));
 +
 +    if (kernel_size) {
 +        _FDT((fdt_add_reservemap_entry(fdt, KERNEL_LOAD_ADDR, kernel_size)));
 +    }
 +    if (initrd_size) {
 +        _FDT((fdt_add_reservemap_entry(fdt, initrd_base, initrd_size)));
 +    }
 +    _FDT((fdt_finish_reservemap(fdt)));
 +
 +    /* Root node */
 +    _FDT((fdt_begin_node(fdt, "")));
 +    _FDT((fdt_property_string(fdt, "device_type", "chrp")));
 +    _FDT((fdt_property_string(fdt, "model", "IBM pSeries (emulated by qemu)")));
++    _FDT((fdt_property_string(fdt, "compatible", "qemu,pseries")));
 +
 +    _FDT((fdt_property_cell(fdt, "#address-cells", 0x2)));
 +    _FDT((fdt_property_cell(fdt, "#size-cells", 0x2)));
 +
 +    /* /chosen */
 +    _FDT((fdt_begin_node(fdt, "chosen")));
 +
 +    /* Set Form1_affinity */
 +    _FDT((fdt_property(fdt, "ibm,architecture-vec-5", vec5, sizeof(vec5))));
 +
 +    _FDT((fdt_property_string(fdt, "bootargs", kernel_cmdline)));
 +    _FDT((fdt_property(fdt, "linux,initrd-start",
 +                       &start_prop, sizeof(start_prop))));
 +    _FDT((fdt_property(fdt, "linux,initrd-end",
 +                       &end_prop, sizeof(end_prop))));
 +    if (kernel_size) {
 +        uint64_t kprop[2] = { cpu_to_be64(KERNEL_LOAD_ADDR),
 +                              cpu_to_be64(kernel_size) };
 +
 +        _FDT((fdt_property(fdt, "qemu,boot-kernel", &kprop, sizeof(kprop))));
 +    }
 +    if (boot_device) {
 +        _FDT((fdt_property_string(fdt, "qemu,boot-device", boot_device)));
 +    }
 +    _FDT((fdt_property_cell(fdt, "qemu,graphic-width", graphic_width)));
 +    _FDT((fdt_property_cell(fdt, "qemu,graphic-height", graphic_height)));
 +    _FDT((fdt_property_cell(fdt, "qemu,graphic-depth", graphic_depth)));
 +
 +    _FDT((fdt_end_node(fdt)));
 +
 +    /* cpus */
 +    _FDT((fdt_begin_node(fdt, "cpus")));
 +
 +    _FDT((fdt_property_cell(fdt, "#address-cells", 0x1)));
 +    _FDT((fdt_property_cell(fdt, "#size-cells", 0x0)));
 +
 +    modelname = g_strdup(cpu_model);
 +
 +    for (i = 0; i < strlen(modelname); i++) {
 +        modelname[i] = toupper(modelname[i]);
 +    }
 +
 +    /* This is needed during FDT finalization */
 +    spapr->cpu_model = g_strdup(modelname);
 +
 +    for (env = first_cpu; env != NULL; env = env->next_cpu) {
 +        CPUState *cpu = CPU(ppc_env_get_cpu(env));
 +        int index = cpu->cpu_index;
 +        uint32_t servers_prop[smp_threads];
 +        uint32_t gservers_prop[smp_threads * 2];
 +        char *nodename;
 +        uint32_t segs[] = {cpu_to_be32(28), cpu_to_be32(40),
 +                           0xffffffff, 0xffffffff};
 +        uint32_t tbfreq = kvm_enabled() ? kvmppc_get_tbfreq() : TIMEBASE_FREQ;
 +        uint32_t cpufreq = kvm_enabled() ? kvmppc_get_clockfreq() : 1000000000;
 +        uint32_t page_sizes_prop[64];
 +        size_t page_sizes_prop_size;
 +
 +        if ((index % smt) != 0) {
 +            continue;
 +        }
 +
 +        nodename = g_strdup_printf("%s@%x", modelname, index);
 +
 +        _FDT((fdt_begin_node(fdt, nodename)));
 +
 +        g_free(nodename);
 +
 +        _FDT((fdt_property_cell(fdt, "reg", index)));
 +        _FDT((fdt_property_string(fdt, "device_type", "cpu")));
 +
 +        _FDT((fdt_property_cell(fdt, "cpu-version", env->spr[SPR_PVR])));
 +        _FDT((fdt_property_cell(fdt, "dcache-block-size",
 +                                env->dcache_line_size)));
 +        _FDT((fdt_property_cell(fdt, "icache-block-size",
 +                                env->icache_line_size)));
 +        _FDT((fdt_property_cell(fdt, "timebase-frequency", tbfreq)));
 +        _FDT((fdt_property_cell(fdt, "clock-frequency", cpufreq)));
 +        _FDT((fdt_property_cell(fdt, "ibm,slb-size", env->slb_nr)));
 +        _FDT((fdt_property_string(fdt, "status", "okay")));
 +        _FDT((fdt_property(fdt, "64-bit", NULL, 0)));
 +
 +        /* Build interrupt servers and gservers properties */
 +        for (i = 0; i < smp_threads; i++) {
 +            servers_prop[i] = cpu_to_be32(index + i);
 +            /* Hack, direct the group queues back to cpu 0 */
 +            gservers_prop[i*2] = cpu_to_be32(index + i);
 +            gservers_prop[i*2 + 1] = 0;
 +        }
 +        _FDT((fdt_property(fdt, "ibm,ppc-interrupt-server#s",
 +                           servers_prop, sizeof(servers_prop))));
 +        _FDT((fdt_property(fdt, "ibm,ppc-interrupt-gserver#s",
 +                           gservers_prop, sizeof(gservers_prop))));
 +
 +        if (env->mmu_model & POWERPC_MMU_1TSEG) {
 +            _FDT((fdt_property(fdt, "ibm,processor-segment-sizes",
 +                               segs, sizeof(segs))));
 +        }
 +
 +        /* Advertise VMX/VSX (vector extensions) if available
 +         *   0 / no property == no vector extensions
 +         *   1               == VMX / Altivec available
 +         *   2               == VSX available */
 +        if (env->insns_flags & PPC_ALTIVEC) {
 +            uint32_t vmx = (env->insns_flags2 & PPC2_VSX) ? 2 : 1;
 +
 +            _FDT((fdt_property_cell(fdt, "ibm,vmx", vmx)));
 +        }
 +
 +        /* Advertise DFP (Decimal Floating Point) if available
 +         *   0 / no property == no DFP
 +         *   1               == DFP available */
 +        if (env->insns_flags2 & PPC2_DFP) {
 +            _FDT((fdt_property_cell(fdt, "ibm,dfp", 1)));
 +        }
 +
 +        page_sizes_prop_size = create_page_sizes_prop(env, page_sizes_prop,
 +                                                      sizeof(page_sizes_prop));
 +        if (page_sizes_prop_size) {
 +            _FDT((fdt_property(fdt, "ibm,segment-page-sizes",
 +                               page_sizes_prop, page_sizes_prop_size)));
 +        }
 +
 +        _FDT((fdt_end_node(fdt)));
 +    }
 +
 +    g_free(modelname);
 +
 +    _FDT((fdt_end_node(fdt)));
 +
 +    /* RTAS */
 +    _FDT((fdt_begin_node(fdt, "rtas")));
 +
 +    _FDT((fdt_property(fdt, "ibm,hypertas-functions", hypertas_prop,
 +                       sizeof(hypertas_prop))));
 +    _FDT((fdt_property(fdt, "qemu,hypertas-functions", qemu_hypertas_prop,
 +                       sizeof(qemu_hypertas_prop))));
 +
 +    _FDT((fdt_property(fdt, "ibm,associativity-reference-points",
 +        refpoints, sizeof(refpoints))));
 +
 +    _FDT((fdt_property_cell(fdt, "rtas-error-log-max", RTAS_ERROR_LOG_MAX)));
 +
 +    _FDT((fdt_end_node(fdt)));
 +
 +    /* interrupt controller */
 +    _FDT((fdt_begin_node(fdt, "interrupt-controller")));
 +
 +    _FDT((fdt_property_string(fdt, "device_type",
 +                              "PowerPC-External-Interrupt-Presentation")));
 +    _FDT((fdt_property_string(fdt, "compatible", "IBM,ppc-xicp")));
 +    _FDT((fdt_property(fdt, "interrupt-controller", NULL, 0)));
 +    _FDT((fdt_property(fdt, "ibm,interrupt-server-ranges",
 +                       interrupt_server_ranges_prop,
 +                       sizeof(interrupt_server_ranges_prop))));
 +    _FDT((fdt_property_cell(fdt, "#interrupt-cells", 2)));
 +    _FDT((fdt_property_cell(fdt, "linux,phandle", PHANDLE_XICP)));
 +    _FDT((fdt_property_cell(fdt, "phandle", PHANDLE_XICP)));
 +
 +    _FDT((fdt_end_node(fdt)));
 +
 +    /* vdevice */
 +    _FDT((fdt_begin_node(fdt, "vdevice")));
 +
 +    _FDT((fdt_property_string(fdt, "device_type", "vdevice")));
 +    _FDT((fdt_property_string(fdt, "compatible", "IBM,vdevice")));
 +    _FDT((fdt_property_cell(fdt, "#address-cells", 0x1)));
 +    _FDT((fdt_property_cell(fdt, "#size-cells", 0x0)));
 +    _FDT((fdt_property_cell(fdt, "#interrupt-cells", 0x2)));
 +    _FDT((fdt_property(fdt, "interrupt-controller", NULL, 0)));
 +
 +    _FDT((fdt_end_node(fdt)));
 +
 +    /* event-sources */
 +    spapr_events_fdt_skel(fdt, epow_irq);
 +
 +    _FDT((fdt_end_node(fdt))); /* close root node */
 +    _FDT((fdt_finish(fdt)));
 +
 +    return fdt;
 +}
 +
 +static int spapr_populate_memory(sPAPREnvironment *spapr, void *fdt)
 +{
 +    uint32_t associativity[] = {cpu_to_be32(0x4), cpu_to_be32(0x0),
 +                                cpu_to_be32(0x0), cpu_to_be32(0x0),
 +                                cpu_to_be32(0x0)};
 +    char mem_name[32];
 +    hwaddr node0_size, mem_start;
 +    uint64_t mem_reg_property[2];
 +    int i, off;
 +
 +    /* memory node(s) */
 +    node0_size = (nb_numa_nodes > 1) ? node_mem[0] : ram_size;
 +    if (spapr->rma_size > node0_size) {
 +        spapr->rma_size = node0_size;
 +    }
 +
 +    /* RMA */
 +    mem_reg_property[0] = 0;
 +    mem_reg_property[1] = cpu_to_be64(spapr->rma_size);
 +    off = fdt_add_subnode(fdt, 0, "memory@0");
 +    _FDT(off);
 +    _FDT((fdt_setprop_string(fdt, off, "device_type", "memory")));
 +    _FDT((fdt_setprop(fdt, off, "reg", mem_reg_property,
 +                      sizeof(mem_reg_property))));
 +    _FDT((fdt_setprop(fdt, off, "ibm,associativity", associativity,
 +                      sizeof(associativity))));
 +
 +    /* RAM: Node 0 */
 +    if (node0_size > spapr->rma_size) {
 +        mem_reg_property[0] = cpu_to_be64(spapr->rma_size);
 +        mem_reg_property[1] = cpu_to_be64(node0_size - spapr->rma_size);
 +
 +        sprintf(mem_name, "memory@" TARGET_FMT_lx, spapr->rma_size);
 +        off = fdt_add_subnode(fdt, 0, mem_name);
 +        _FDT(off);
 +        _FDT((fdt_setprop_string(fdt, off, "device_type", "memory")));
 +        _FDT((fdt_setprop(fdt, off, "reg", mem_reg_property,
 +                          sizeof(mem_reg_property))));
 +        _FDT((fdt_setprop(fdt, off, "ibm,associativity", associativity,
 +                          sizeof(associativity))));
 +    }
 +
 +    /* RAM: Node 1 and beyond */
 +    mem_start = node0_size;
 +    for (i = 1; i < nb_numa_nodes; i++) {
 +        mem_reg_property[0] = cpu_to_be64(mem_start);
 +        mem_reg_property[1] = cpu_to_be64(node_mem[i]);
 +        associativity[3] = associativity[4] = cpu_to_be32(i);
 +        sprintf(mem_name, "memory@" TARGET_FMT_lx, mem_start);
 +        off = fdt_add_subnode(fdt, 0, mem_name);
 +        _FDT(off);
 +        _FDT((fdt_setprop_string(fdt, off, "device_type", "memory")));
 +        _FDT((fdt_setprop(fdt, off, "reg", mem_reg_property,
 +                          sizeof(mem_reg_property))));
 +        _FDT((fdt_setprop(fdt, off, "ibm,associativity", associativity,
 +                          sizeof(associativity))));
 +        mem_start += node_mem[i];
 +    }
 +
 +    return 0;
 +}
 +
 +static void spapr_finalize_fdt(sPAPREnvironment *spapr,
 +                               hwaddr fdt_addr,
 +                               hwaddr rtas_addr,
 +                               hwaddr rtas_size)
 +{
 +    int ret;
 +    void *fdt;
 +    sPAPRPHBState *phb;
 +
 +    fdt = g_malloc(FDT_MAX_SIZE);
 +
 +    /* open out the base tree into a temp buffer for the final tweaks */
 +    _FDT((fdt_open_into(spapr->fdt_skel, fdt, FDT_MAX_SIZE)));
 +
 +    ret = spapr_populate_memory(spapr, fdt);
 +    if (ret < 0) {
 +        fprintf(stderr, "couldn't setup memory nodes in fdt\n");
 +        exit(1);
 +    }
 +
 +    ret = spapr_populate_vdevice(spapr->vio_bus, fdt);
 +    if (ret < 0) {
 +        fprintf(stderr, "couldn't setup vio devices in fdt\n");
 +        exit(1);
 +    }
 +
 +    QLIST_FOREACH(phb, &spapr->phbs, list) {
 +        ret = spapr_populate_pci_dt(phb, PHANDLE_XICP, fdt);
 +    }
 +
 +    if (ret < 0) {
 +        fprintf(stderr, "couldn't setup PCI devices in fdt\n");
 +        exit(1);
 +    }
 +
 +    /* RTAS */
 +    ret = spapr_rtas_device_tree_setup(fdt, rtas_addr, rtas_size);
 +    if (ret < 0) {
 +        fprintf(stderr, "Couldn't set up RTAS device tree properties\n");
 +    }
 +
 +    /* Advertise NUMA via ibm,associativity */
 +    ret = spapr_fixup_cpu_dt(fdt, spapr);
 +    if (ret < 0) {
 +        fprintf(stderr, "Couldn't finalize CPU device tree properties\n");
 +    }
 +
 +    if (!spapr->has_graphics) {
 +        spapr_populate_chosen_stdout(fdt, spapr->vio_bus);
 +    }
 +
 +    _FDT((fdt_pack(fdt)));
 +
 +    if (fdt_totalsize(fdt) > FDT_MAX_SIZE) {
 +        hw_error("FDT too big ! 0x%x bytes (max is 0x%x)\n",
 +                 fdt_totalsize(fdt), FDT_MAX_SIZE);
 +        exit(1);
 +    }
 +
 +    cpu_physical_memory_write(fdt_addr, fdt, fdt_totalsize(fdt));
 +
 +    g_free(fdt);
 +}
 +
 +static uint64_t translate_kernel_address(void *opaque, uint64_t addr)
 +{
 +    return (addr & 0x0fffffff) + KERNEL_LOAD_ADDR;
 +}
 +
 +static void emulate_spapr_hypercall(PowerPCCPU *cpu)
 +{
 +    CPUPPCState *env = &cpu->env;
 +
 +    if (msr_pr) {
 +        hcall_dprintf("Hypercall made with MSR[PR]=1\n");
 +        env->gpr[3] = H_PRIVILEGE;
 +    } else {
 +        env->gpr[3] = spapr_hypercall(cpu, env->gpr[3], &env->gpr[4]);
 +    }
 +}
 +
 +static void spapr_reset_htab(sPAPREnvironment *spapr)
 +{
 +    long shift;
 +
 +    /* allocate hash page table.  For now we always make this 16mb,
 +     * later we should probably make it scale to the size of guest
 +     * RAM */
 +
 +    shift = kvmppc_reset_htab(spapr->htab_shift);
 +
 +    if (shift > 0) {
 +        /* Kernel handles htab, we don't need to allocate one */
 +        spapr->htab_shift = shift;
 +    } else {
 +        if (!spapr->htab) {
 +            /* Allocate an htab if we don't yet have one */
 +            spapr->htab = qemu_memalign(HTAB_SIZE(spapr), HTAB_SIZE(spapr));
 +        }
 +
 +        /* And clear it */
 +        memset(spapr->htab, 0, HTAB_SIZE(spapr));
 +    }
 +
 +    /* Update the RMA size if necessary */
 +    if (spapr->vrma_adjust) {
 +        spapr->rma_size = kvmppc_rma_size(ram_size, spapr->htab_shift);
 +    }
 +}
 +
 +static void ppc_spapr_reset(void)
 +{
 +    /* Reset the hash table & recalc the RMA */
 +    spapr_reset_htab(spapr);
 +
 +    qemu_devices_reset();
 +
 +    /* Load the fdt */
 +    spapr_finalize_fdt(spapr, spapr->fdt_addr, spapr->rtas_addr,
 +                       spapr->rtas_size);
 +
 +    /* Set up the entry state */
 +    first_cpu->gpr[3] = spapr->fdt_addr;
 +    first_cpu->gpr[5] = 0;
 +    first_cpu->halted = 0;
 +    first_cpu->nip = spapr->entry_point;
 +
 +}
 +
 +static void spapr_cpu_reset(void *opaque)
 +{
 +    PowerPCCPU *cpu = opaque;
 +    CPUPPCState *env = &cpu->env;
 +
 +    cpu_reset(CPU(cpu));
 +
 +    /* All CPUs start halted.  CPU0 is unhalted from the machine level
 +     * reset code and the rest are explicitly started up by the guest
 +     * using an RTAS call */
 +    env->halted = 1;
 +
 +    env->spr[SPR_HIOR] = 0;
 +
 +    env->external_htab = spapr->htab;
 +    env->htab_base = -1;
 +    env->htab_mask = HTAB_SIZE(spapr) - 1;
 +    env->spr[SPR_SDR1] = (unsigned long)spapr->htab |
 +        (spapr->htab_shift - 18);
 +}
 +
 +static void spapr_create_nvram(sPAPREnvironment *spapr)
 +{
 +    QemuOpts *machine_opts;
 +    DeviceState *dev;
 +
 +    dev = qdev_create(&spapr->vio_bus->bus, "spapr-nvram");
 +
 +    machine_opts = qemu_opts_find(qemu_find_opts("machine"), 0);
 +    if (machine_opts) {
 +        const char *drivename;
 +
 +        drivename = qemu_opt_get(machine_opts, "nvram");
 +        if (drivename) {
 +            BlockDriverState *bs;
 +
 +            bs = bdrv_find(drivename);
 +            if (!bs) {
 +                fprintf(stderr, "No such block device \"%s\" for nvram\n",
 +                        drivename);
 +                exit(1);
 +            }
 +            qdev_prop_set_drive_nofail(dev, "drive", bs);
 +        }
 +    }
 +
 +    qdev_init_nofail(dev);
 +
 +    spapr->nvram = (struct sPAPRNVRAM *)dev;
 +}
 +
 +/* Returns whether we want to use VGA or not */
 +static int spapr_vga_init(PCIBus *pci_bus)
 +{
 +    switch (vga_interface_type) {
 +    case VGA_NONE:
 +    case VGA_STD:
 +        return pci_vga_init(pci_bus) != NULL;
 +    default:
 +        fprintf(stderr, "This vga model is not supported,"
 +                "currently it only supports -vga std\n");
 +        exit(0);
 +        break;
 +    }
 +}
 +
 +/* pSeries LPAR / sPAPR hardware init */
 +static void ppc_spapr_init(QEMUMachineInitArgs *args)
 +{
 +    ram_addr_t ram_size = args->ram_size;
 +    const char *cpu_model = args->cpu_model;
 +    const char *kernel_filename = args->kernel_filename;
 +    const char *kernel_cmdline = args->kernel_cmdline;
 +    const char *initrd_filename = args->initrd_filename;
 +    const char *boot_device = args->boot_device;
 +    PowerPCCPU *cpu;
 +    CPUPPCState *env;
 +    PCIHostState *phb;
 +    int i;
 +    MemoryRegion *sysmem = get_system_memory();
 +    MemoryRegion *ram = g_new(MemoryRegion, 1);
 +    hwaddr rma_alloc_size;
 +    uint32_t initrd_base = 0;
 +    long kernel_size = 0, initrd_size = 0;
 +    long load_limit, rtas_limit, fw_size;
 +    char *filename;
 +
 +    msi_supported = true;
 +
 +    spapr = g_malloc0(sizeof(*spapr));
 +    QLIST_INIT(&spapr->phbs);
 +
 +    cpu_ppc_hypercall = emulate_spapr_hypercall;
 +
 +    /* Allocate RMA if necessary */
 +    rma_alloc_size = kvmppc_alloc_rma("ppc_spapr.rma", sysmem);
 +
 +    if (rma_alloc_size == -1) {
 +        hw_error("qemu: Unable to create RMA\n");
 +        exit(1);
 +    }
 +
 +    if (rma_alloc_size && (rma_alloc_size < ram_size)) {
 +        spapr->rma_size = rma_alloc_size;
 +    } else {
 +        spapr->rma_size = ram_size;
 +
 +        /* With KVM, we don't actually know whether KVM supports an
 +         * unbounded RMA (PR KVM) or is limited by the hash table size
 +         * (HV KVM using VRMA), so we always assume the latter
 +         *
 +         * In that case, we also limit the initial allocations for RTAS
 +         * etc... to 256M since we have no way to know what the VRMA size
 +         * is going to be as it depends on the size of the hash table
 +         * isn't determined yet.
 +         */
 +        if (kvm_enabled()) {
 +            spapr->vrma_adjust = 1;
 +            spapr->rma_size = MIN(spapr->rma_size, 0x10000000);
 +        }
 +    }
 +
 +    /* We place the device tree and RTAS just below either the top of the RMA,
 +     * or just below 2GB, whichever is lowere, so that it can be
 +     * processed with 32-bit real mode code if necessary */
 +    rtas_limit = MIN(spapr->rma_size, 0x80000000);
 +    spapr->rtas_addr = rtas_limit - RTAS_MAX_SIZE;
 +    spapr->fdt_addr = spapr->rtas_addr - FDT_MAX_SIZE;
 +    load_limit = spapr->fdt_addr - FW_OVERHEAD;
 +
 +    /* We aim for a hash table of size 1/128 the size of RAM.  The
 +     * normal rule of thumb is 1/64 the size of RAM, but that's much
 +     * more than needed for the Linux guests we support. */
 +    spapr->htab_shift = 18; /* Minimum architected size */
 +    while (spapr->htab_shift <= 46) {
 +        if ((1ULL << (spapr->htab_shift + 7)) >= ram_size) {
 +            break;
 +        }
 +        spapr->htab_shift++;
 +    }
 +
 +    /* init CPUs */
 +    if (cpu_model == NULL) {
 +        cpu_model = kvm_enabled() ? "host" : "POWER7";
 +    }
 +    for (i = 0; i < smp_cpus; i++) {
 +        cpu = cpu_ppc_init(cpu_model);
 +        if (cpu == NULL) {
 +            fprintf(stderr, "Unable to find PowerPC CPU definition\n");
 +            exit(1);
 +        }
 +        env = &cpu->env;
 +
 +        /* Set time-base frequency to 512 MHz */
 +        cpu_ppc_tb_init(env, TIMEBASE_FREQ);
 +
 +        /* PAPR always has exception vectors in RAM not ROM */
 +        env->hreset_excp_prefix = 0;
 +
 +        /* Tell KVM that we're in PAPR mode */
 +        if (kvm_enabled()) {
 +            kvmppc_set_papr(cpu);
 +        }
 +
 +        qemu_register_reset(spapr_cpu_reset, cpu);
 +    }
 +
 +    /* allocate RAM */
 +    spapr->ram_limit = ram_size;
 +    if (spapr->ram_limit > rma_alloc_size) {
 +        ram_addr_t nonrma_base = rma_alloc_size;
 +        ram_addr_t nonrma_size = spapr->ram_limit - rma_alloc_size;
 +
 +        memory_region_init_ram(ram, "ppc_spapr.ram", nonrma_size);
 +        vmstate_register_ram_global(ram);
 +        memory_region_add_subregion(sysmem, nonrma_base, ram);
 +    }
 +
 +    filename = qemu_find_file(QEMU_FILE_TYPE_BIOS, "spapr-rtas.bin");
 +    spapr->rtas_size = load_image_targphys(filename, spapr->rtas_addr,
 +                                           rtas_limit - spapr->rtas_addr);
 +    if (spapr->rtas_size < 0) {
 +        hw_error("qemu: could not load LPAR rtas '%s'\n", filename);
 +        exit(1);
 +    }
 +    if (spapr->rtas_size > RTAS_MAX_SIZE) {
 +        hw_error("RTAS too big ! 0x%lx bytes (max is 0x%x)\n",
 +                 spapr->rtas_size, RTAS_MAX_SIZE);
 +        exit(1);
 +    }
 +    g_free(filename);
 +
 +
 +    /* Set up Interrupt Controller */
 +    spapr->icp = xics_system_init(XICS_IRQS);
 +    spapr->next_irq = XICS_IRQ_BASE;
 +
 +    /* Set up EPOW events infrastructure */
 +    spapr_events_init(spapr);
 +
 +    /* Set up IOMMU */
 +    spapr_iommu_init();
 +
 +    /* Set up VIO bus */
 +    spapr->vio_bus = spapr_vio_bus_init();
 +
 +    for (i = 0; i < MAX_SERIAL_PORTS; i++) {
 +        if (serial_hds[i]) {
 +            spapr_vty_create(spapr->vio_bus, serial_hds[i]);
 +        }
 +    }
 +
 +    /* We always have at least the nvram device on VIO */
 +    spapr_create_nvram(spapr);
 +
 +    /* Set up PCI */
 +    spapr_pci_rtas_init();
 +
 +    phb = spapr_create_phb(spapr, 0, "pci");
 +
 +    for (i = 0; i < nb_nics; i++) {
 +        NICInfo *nd = &nd_table[i];
 +
 +        if (!nd->model) {
 +            nd->model = g_strdup("ibmveth");
 +        }
 +
 +        if (strcmp(nd->model, "ibmveth") == 0) {
 +            spapr_vlan_create(spapr->vio_bus, nd);
 +        } else {
 +            pci_nic_init_nofail(&nd_table[i], nd->model, NULL);
 +        }
 +    }
 +
 +    for (i = 0; i <= drive_get_max_bus(IF_SCSI); i++) {
 +        spapr_vscsi_create(spapr->vio_bus);
 +    }
 +
 +    /* Graphics */
 +    if (spapr_vga_init(phb->bus)) {
 +        spapr->has_graphics = true;
 +    }
 +
 +    if (usb_enabled(spapr->has_graphics)) {
 +        pci_create_simple(phb->bus, -1, "pci-ohci");
 +        if (spapr->has_graphics) {
 +            usbdevice_create("keyboard");
 +            usbdevice_create("mouse");
 +        }
 +    }
 +
 +    if (spapr->rma_size < (MIN_RMA_SLOF << 20)) {
 +        fprintf(stderr, "qemu: pSeries SLOF firmware requires >= "
 +                "%ldM guest RMA (Real Mode Area memory)\n", MIN_RMA_SLOF);
 +        exit(1);
 +    }
 +
 +    if (kernel_filename) {
 +        uint64_t lowaddr = 0;
 +
 +        kernel_size = load_elf(kernel_filename, translate_kernel_address, NULL,
 +                               NULL, &lowaddr, NULL, 1, ELF_MACHINE, 0);
 +        if (kernel_size < 0) {
 +            kernel_size = load_image_targphys(kernel_filename,
 +                                              KERNEL_LOAD_ADDR,
 +                                              load_limit - KERNEL_LOAD_ADDR);
 +        }
 +        if (kernel_size < 0) {
 +            fprintf(stderr, "qemu: could not load kernel '%s'\n",
 +                    kernel_filename);
 +            exit(1);
 +        }
 +
 +        /* load initrd */
 +        if (initrd_filename) {
 +            /* Try to locate the initrd in the gap between the kernel
 +             * and the firmware. Add a bit of space just in case
 +             */
 +            initrd_base = (KERNEL_LOAD_ADDR + kernel_size + 0x1ffff) & ~0xffff;
 +            initrd_size = load_image_targphys(initrd_filename, initrd_base,
 +                                              load_limit - initrd_base);
 +            if (initrd_size < 0) {
 +                fprintf(stderr, "qemu: could not load initial ram disk '%s'\n",
 +                        initrd_filename);
 +                exit(1);
 +            }
 +        } else {
 +            initrd_base = 0;
 +            initrd_size = 0;
 +        }
 +    }
 +
 +    filename = qemu_find_file(QEMU_FILE_TYPE_BIOS, FW_FILE_NAME);
 +    fw_size = load_image_targphys(filename, 0, FW_MAX_SIZE);
 +    if (fw_size < 0) {
 +        hw_error("qemu: could not load LPAR rtas '%s'\n", filename);
 +        exit(1);
 +    }
 +    g_free(filename);
 +
 +    spapr->entry_point = 0x100;
 +
 +    /* Prepare the device tree */
 +    spapr->fdt_skel = spapr_create_fdt_skel(cpu_model,
 +                                            initrd_base, initrd_size,
 +                                            kernel_size,
 +                                            boot_device, kernel_cmdline,
 +                                            spapr->epow_irq);
 +    assert(spapr->fdt_skel != NULL);
 +}
 +
 +static QEMUMachine spapr_machine = {
 +    .name = "pseries",
 +    .desc = "pSeries Logical Partition (PAPR compliant)",
 +    .init = ppc_spapr_init,
 +    .reset = ppc_spapr_reset,
 +    .block_default_type = IF_SCSI,
 +    .max_cpus = MAX_CPUS,
 +    .no_parallel = 1,
 +    .boot_order = NULL,
 +};
 +
 +static void spapr_machine_init(void)
 +{
 +    qemu_register_machine(&spapr_machine);
 +}
 +
 +machine_init(spapr_machine_init);
diff --combined hw/ppc/spapr_hcall.c
index 7b8959488e79c124e932d4eceff3ed9b44dcb943,0000000000000000000000000000000000000000..77c052fcb1d055b9e4df1446e3847be977fbd594
mode 100644,000000..100644
--- /dev/null
@@@ -1,741 -1,0 +1,772 @@@
 +#include "sysemu/sysemu.h"
 +#include "cpu.h"
 +#include "sysemu/sysemu.h"
 +#include "helper_regs.h"
 +#include "hw/spapr.h"
 +
 +#define HPTES_PER_GROUP 8
 +
 +#define HPTE_V_SSIZE_SHIFT      62
 +#define HPTE_V_AVPN_SHIFT       7
 +#define HPTE_V_AVPN             0x3fffffffffffff80ULL
 +#define HPTE_V_AVPN_VAL(x)      (((x) & HPTE_V_AVPN) >> HPTE_V_AVPN_SHIFT)
 +#define HPTE_V_COMPARE(x, y)    (!(((x) ^ (y)) & 0xffffffffffffff80UL))
 +#define HPTE_V_BOLTED           0x0000000000000010ULL
 +#define HPTE_V_LOCK             0x0000000000000008ULL
 +#define HPTE_V_LARGE            0x0000000000000004ULL
 +#define HPTE_V_SECONDARY        0x0000000000000002ULL
 +#define HPTE_V_VALID            0x0000000000000001ULL
 +
 +#define HPTE_R_PP0              0x8000000000000000ULL
 +#define HPTE_R_TS               0x4000000000000000ULL
 +#define HPTE_R_KEY_HI           0x3000000000000000ULL
 +#define HPTE_R_RPN_SHIFT        12
 +#define HPTE_R_RPN              0x3ffffffffffff000ULL
 +#define HPTE_R_FLAGS            0x00000000000003ffULL
 +#define HPTE_R_PP               0x0000000000000003ULL
 +#define HPTE_R_N                0x0000000000000004ULL
 +#define HPTE_R_G                0x0000000000000008ULL
 +#define HPTE_R_M                0x0000000000000010ULL
 +#define HPTE_R_I                0x0000000000000020ULL
 +#define HPTE_R_W                0x0000000000000040ULL
 +#define HPTE_R_WIMG             0x0000000000000078ULL
 +#define HPTE_R_C                0x0000000000000080ULL
 +#define HPTE_R_R                0x0000000000000100ULL
 +#define HPTE_R_KEY_LO           0x0000000000000e00ULL
 +
 +#define HPTE_V_1TB_SEG          0x4000000000000000ULL
 +#define HPTE_V_VRMA_MASK        0x4001ffffff000000ULL
 +
 +static target_ulong compute_tlbie_rb(target_ulong v, target_ulong r,
 +                                     target_ulong pte_index)
 +{
 +    target_ulong rb, va_low;
 +
 +    rb = (v & ~0x7fULL) << 16; /* AVA field */
 +    va_low = pte_index >> 3;
 +    if (v & HPTE_V_SECONDARY) {
 +        va_low = ~va_low;
 +    }
 +    /* xor vsid from AVA */
 +    if (!(v & HPTE_V_1TB_SEG)) {
 +        va_low ^= v >> 12;
 +    } else {
 +        va_low ^= v >> 24;
 +    }
 +    va_low &= 0x7ff;
 +    if (v & HPTE_V_LARGE) {
 +        rb |= 1;                         /* L field */
 +#if 0 /* Disable that P7 specific bit for now */
 +        if (r & 0xff000) {
 +            /* non-16MB large page, must be 64k */
 +            /* (masks depend on page size) */
 +            rb |= 0x1000;                /* page encoding in LP field */
 +            rb |= (va_low & 0x7f) << 16; /* 7b of VA in AVA/LP field */
 +            rb |= (va_low & 0xfe);       /* AVAL field */
 +        }
 +#endif
 +    } else {
 +        /* 4kB page */
 +        rb |= (va_low & 0x7ff) << 12;   /* remaining 11b of AVA */
 +    }
 +    rb |= (v >> 54) & 0x300;            /* B field */
 +    return rb;
 +}
 +
 +static target_ulong h_enter(PowerPCCPU *cpu, sPAPREnvironment *spapr,
 +                            target_ulong opcode, target_ulong *args)
 +{
 +    CPUPPCState *env = &cpu->env;
 +    target_ulong flags = args[0];
 +    target_ulong pte_index = args[1];
 +    target_ulong pteh = args[2];
 +    target_ulong ptel = args[3];
 +    target_ulong page_shift = 12;
 +    target_ulong raddr;
 +    target_ulong i;
 +    uint8_t *hpte;
 +
 +    /* only handle 4k and 16M pages for now */
 +    if (pteh & HPTE_V_LARGE) {
 +#if 0 /* We don't support 64k pages yet */
 +        if ((ptel & 0xf000) == 0x1000) {
 +            /* 64k page */
 +        } else
 +#endif
 +        if ((ptel & 0xff000) == 0) {
 +            /* 16M page */
 +            page_shift = 24;
 +            /* lowest AVA bit must be 0 for 16M pages */
 +            if (pteh & 0x80) {
 +                return H_PARAMETER;
 +            }
 +        } else {
 +            return H_PARAMETER;
 +        }
 +    }
 +
 +    raddr = (ptel & HPTE_R_RPN) & ~((1ULL << page_shift) - 1);
 +
 +    if (raddr < spapr->ram_limit) {
 +        /* Regular RAM - should have WIMG=0010 */
 +        if ((ptel & HPTE_R_WIMG) != HPTE_R_M) {
 +            return H_PARAMETER;
 +        }
 +    } else {
 +        /* Looks like an IO address */
 +        /* FIXME: What WIMG combinations could be sensible for IO?
 +         * For now we allow WIMG=010x, but are there others? */
 +        /* FIXME: Should we check against registered IO addresses? */
 +        if ((ptel & (HPTE_R_W | HPTE_R_I | HPTE_R_M)) != HPTE_R_I) {
 +            return H_PARAMETER;
 +        }
 +    }
 +
 +    pteh &= ~0x60ULL;
 +
 +    if ((pte_index * HASH_PTE_SIZE_64) & ~env->htab_mask) {
 +        return H_PARAMETER;
 +    }
 +    if (likely((flags & H_EXACT) == 0)) {
 +        pte_index &= ~7ULL;
 +        hpte = env->external_htab + (pte_index * HASH_PTE_SIZE_64);
 +        for (i = 0; ; ++i) {
 +            if (i == 8) {
 +                return H_PTEG_FULL;
 +            }
 +            if ((ldq_p(hpte) & HPTE_V_VALID) == 0) {
 +                break;
 +            }
 +            hpte += HASH_PTE_SIZE_64;
 +        }
 +    } else {
 +        i = 0;
 +        hpte = env->external_htab + (pte_index * HASH_PTE_SIZE_64);
 +        if (ldq_p(hpte) & HPTE_V_VALID) {
 +            return H_PTEG_FULL;
 +        }
 +    }
 +    stq_p(hpte + (HASH_PTE_SIZE_64/2), ptel);
 +    /* eieio();  FIXME: need some sort of barrier for smp? */
 +    stq_p(hpte, pteh);
 +
 +    args[0] = pte_index + i;
 +    return H_SUCCESS;
 +}
 +
 +enum {
 +    REMOVE_SUCCESS = 0,
 +    REMOVE_NOT_FOUND = 1,
 +    REMOVE_PARM = 2,
 +    REMOVE_HW = 3,
 +};
 +
 +static target_ulong remove_hpte(CPUPPCState *env, target_ulong ptex,
 +                                target_ulong avpn,
 +                                target_ulong flags,
 +                                target_ulong *vp, target_ulong *rp)
 +{
 +    uint8_t *hpte;
 +    target_ulong v, r, rb;
 +
 +    if ((ptex * HASH_PTE_SIZE_64) & ~env->htab_mask) {
 +        return REMOVE_PARM;
 +    }
 +
 +    hpte = env->external_htab + (ptex * HASH_PTE_SIZE_64);
 +
 +    v = ldq_p(hpte);
 +    r = ldq_p(hpte + (HASH_PTE_SIZE_64/2));
 +
 +    if ((v & HPTE_V_VALID) == 0 ||
 +        ((flags & H_AVPN) && (v & ~0x7fULL) != avpn) ||
 +        ((flags & H_ANDCOND) && (v & avpn) != 0)) {
 +        return REMOVE_NOT_FOUND;
 +    }
 +    *vp = v;
 +    *rp = r;
 +    stq_p(hpte, 0);
 +    rb = compute_tlbie_rb(v, r, ptex);
 +    ppc_tlb_invalidate_one(env, rb);
 +    return REMOVE_SUCCESS;
 +}
 +
 +static target_ulong h_remove(PowerPCCPU *cpu, sPAPREnvironment *spapr,
 +                             target_ulong opcode, target_ulong *args)
 +{
 +    CPUPPCState *env = &cpu->env;
 +    target_ulong flags = args[0];
 +    target_ulong pte_index = args[1];
 +    target_ulong avpn = args[2];
 +    int ret;
 +
 +    ret = remove_hpte(env, pte_index, avpn, flags,
 +                      &args[0], &args[1]);
 +
 +    switch (ret) {
 +    case REMOVE_SUCCESS:
 +        return H_SUCCESS;
 +
 +    case REMOVE_NOT_FOUND:
 +        return H_NOT_FOUND;
 +
 +    case REMOVE_PARM:
 +        return H_PARAMETER;
 +
 +    case REMOVE_HW:
 +        return H_HARDWARE;
 +    }
 +
 +    assert(0);
 +}
 +
 +#define H_BULK_REMOVE_TYPE             0xc000000000000000ULL
 +#define   H_BULK_REMOVE_REQUEST        0x4000000000000000ULL
 +#define   H_BULK_REMOVE_RESPONSE       0x8000000000000000ULL
 +#define   H_BULK_REMOVE_END            0xc000000000000000ULL
 +#define H_BULK_REMOVE_CODE             0x3000000000000000ULL
 +#define   H_BULK_REMOVE_SUCCESS        0x0000000000000000ULL
 +#define   H_BULK_REMOVE_NOT_FOUND      0x1000000000000000ULL
 +#define   H_BULK_REMOVE_PARM           0x2000000000000000ULL
 +#define   H_BULK_REMOVE_HW             0x3000000000000000ULL
 +#define H_BULK_REMOVE_RC               0x0c00000000000000ULL
 +#define H_BULK_REMOVE_FLAGS            0x0300000000000000ULL
 +#define   H_BULK_REMOVE_ABSOLUTE       0x0000000000000000ULL
 +#define   H_BULK_REMOVE_ANDCOND        0x0100000000000000ULL
 +#define   H_BULK_REMOVE_AVPN           0x0200000000000000ULL
 +#define H_BULK_REMOVE_PTEX             0x00ffffffffffffffULL
 +
 +#define H_BULK_REMOVE_MAX_BATCH        4
 +
 +static target_ulong h_bulk_remove(PowerPCCPU *cpu, sPAPREnvironment *spapr,
 +                                  target_ulong opcode, target_ulong *args)
 +{
 +    CPUPPCState *env = &cpu->env;
 +    int i;
 +
 +    for (i = 0; i < H_BULK_REMOVE_MAX_BATCH; i++) {
 +        target_ulong *tsh = &args[i*2];
 +        target_ulong tsl = args[i*2 + 1];
 +        target_ulong v, r, ret;
 +
 +        if ((*tsh & H_BULK_REMOVE_TYPE) == H_BULK_REMOVE_END) {
 +            break;
 +        } else if ((*tsh & H_BULK_REMOVE_TYPE) != H_BULK_REMOVE_REQUEST) {
 +            return H_PARAMETER;
 +        }
 +
 +        *tsh &= H_BULK_REMOVE_PTEX | H_BULK_REMOVE_FLAGS;
 +        *tsh |= H_BULK_REMOVE_RESPONSE;
 +
 +        if ((*tsh & H_BULK_REMOVE_ANDCOND) && (*tsh & H_BULK_REMOVE_AVPN)) {
 +            *tsh |= H_BULK_REMOVE_PARM;
 +            return H_PARAMETER;
 +        }
 +
 +        ret = remove_hpte(env, *tsh & H_BULK_REMOVE_PTEX, tsl,
 +                          (*tsh & H_BULK_REMOVE_FLAGS) >> 26,
 +                          &v, &r);
 +
 +        *tsh |= ret << 60;
 +
 +        switch (ret) {
 +        case REMOVE_SUCCESS:
 +            *tsh |= (r & (HPTE_R_C | HPTE_R_R)) << 43;
 +            break;
 +
 +        case REMOVE_PARM:
 +            return H_PARAMETER;
 +
 +        case REMOVE_HW:
 +            return H_HARDWARE;
 +        }
 +    }
 +
 +    return H_SUCCESS;
 +}
 +
 +static target_ulong h_protect(PowerPCCPU *cpu, sPAPREnvironment *spapr,
 +                              target_ulong opcode, target_ulong *args)
 +{
 +    CPUPPCState *env = &cpu->env;
 +    target_ulong flags = args[0];
 +    target_ulong pte_index = args[1];
 +    target_ulong avpn = args[2];
 +    uint8_t *hpte;
 +    target_ulong v, r, rb;
 +
 +    if ((pte_index * HASH_PTE_SIZE_64) & ~env->htab_mask) {
 +        return H_PARAMETER;
 +    }
 +
 +    hpte = env->external_htab + (pte_index * HASH_PTE_SIZE_64);
 +
 +    v = ldq_p(hpte);
 +    r = ldq_p(hpte + (HASH_PTE_SIZE_64/2));
 +
 +    if ((v & HPTE_V_VALID) == 0 ||
 +        ((flags & H_AVPN) && (v & ~0x7fULL) != avpn)) {
 +        return H_NOT_FOUND;
 +    }
 +
 +    r &= ~(HPTE_R_PP0 | HPTE_R_PP | HPTE_R_N |
 +           HPTE_R_KEY_HI | HPTE_R_KEY_LO);
 +    r |= (flags << 55) & HPTE_R_PP0;
 +    r |= (flags << 48) & HPTE_R_KEY_HI;
 +    r |= flags & (HPTE_R_PP | HPTE_R_N | HPTE_R_KEY_LO);
 +    rb = compute_tlbie_rb(v, r, pte_index);
 +    stq_p(hpte, v & ~HPTE_V_VALID);
 +    ppc_tlb_invalidate_one(env, rb);
 +    stq_p(hpte + (HASH_PTE_SIZE_64/2), r);
 +    /* Don't need a memory barrier, due to qemu's global lock */
 +    stq_p(hpte, v);
 +    return H_SUCCESS;
 +}
 +
++static target_ulong h_read(PowerPCCPU *cpu, sPAPREnvironment *spapr,
++                           target_ulong opcode, target_ulong *args)
++{
++    CPUPPCState *env = &cpu->env;
++    target_ulong flags = args[0];
++    target_ulong pte_index = args[1];
++    uint8_t *hpte;
++    int i, ridx, n_entries = 1;
++
++    if ((pte_index * HASH_PTE_SIZE_64) & ~env->htab_mask) {
++        return H_PARAMETER;
++    }
++
++    if (flags & H_READ_4) {
++        /* Clear the two low order bits */
++        pte_index &= ~(3ULL);
++        n_entries = 4;
++    }
++
++    hpte = env->external_htab + (pte_index * HASH_PTE_SIZE_64);
++
++    for (i = 0, ridx = 0; i < n_entries; i++) {
++        args[ridx++] = ldq_p(hpte);
++        args[ridx++] = ldq_p(hpte + (HASH_PTE_SIZE_64/2));
++        hpte += HASH_PTE_SIZE_64;
++    }
++
++    return H_SUCCESS;
++}
++
 +static target_ulong h_set_dabr(PowerPCCPU *cpu, sPAPREnvironment *spapr,
 +                               target_ulong opcode, target_ulong *args)
 +{
 +    /* FIXME: actually implement this */
 +    return H_HARDWARE;
 +}
 +
 +#define FLAGS_REGISTER_VPA         0x0000200000000000ULL
 +#define FLAGS_REGISTER_DTL         0x0000400000000000ULL
 +#define FLAGS_REGISTER_SLBSHADOW   0x0000600000000000ULL
 +#define FLAGS_DEREGISTER_VPA       0x0000a00000000000ULL
 +#define FLAGS_DEREGISTER_DTL       0x0000c00000000000ULL
 +#define FLAGS_DEREGISTER_SLBSHADOW 0x0000e00000000000ULL
 +
 +#define VPA_MIN_SIZE           640
 +#define VPA_SIZE_OFFSET        0x4
 +#define VPA_SHARED_PROC_OFFSET 0x9
 +#define VPA_SHARED_PROC_VAL    0x2
 +
 +static target_ulong register_vpa(CPUPPCState *env, target_ulong vpa)
 +{
 +    uint16_t size;
 +    uint8_t tmp;
 +
 +    if (vpa == 0) {
 +        hcall_dprintf("Can't cope with registering a VPA at logical 0\n");
 +        return H_HARDWARE;
 +    }
 +
 +    if (vpa % env->dcache_line_size) {
 +        return H_PARAMETER;
 +    }
 +    /* FIXME: bounds check the address */
 +
 +    size = lduw_be_phys(vpa + 0x4);
 +
 +    if (size < VPA_MIN_SIZE) {
 +        return H_PARAMETER;
 +    }
 +
 +    /* VPA is not allowed to cross a page boundary */
 +    if ((vpa / 4096) != ((vpa + size - 1) / 4096)) {
 +        return H_PARAMETER;
 +    }
 +
 +    env->vpa_addr = vpa;
 +
 +    tmp = ldub_phys(env->vpa_addr + VPA_SHARED_PROC_OFFSET);
 +    tmp |= VPA_SHARED_PROC_VAL;
 +    stb_phys(env->vpa_addr + VPA_SHARED_PROC_OFFSET, tmp);
 +
 +    return H_SUCCESS;
 +}
 +
 +static target_ulong deregister_vpa(CPUPPCState *env, target_ulong vpa)
 +{
 +    if (env->slb_shadow_addr) {
 +        return H_RESOURCE;
 +    }
 +
 +    if (env->dtl_addr) {
 +        return H_RESOURCE;
 +    }
 +
 +    env->vpa_addr = 0;
 +    return H_SUCCESS;
 +}
 +
 +static target_ulong register_slb_shadow(CPUPPCState *env, target_ulong addr)
 +{
 +    uint32_t size;
 +
 +    if (addr == 0) {
 +        hcall_dprintf("Can't cope with SLB shadow at logical 0\n");
 +        return H_HARDWARE;
 +    }
 +
 +    size = ldl_be_phys(addr + 0x4);
 +    if (size < 0x8) {
 +        return H_PARAMETER;
 +    }
 +
 +    if ((addr / 4096) != ((addr + size - 1) / 4096)) {
 +        return H_PARAMETER;
 +    }
 +
 +    if (!env->vpa_addr) {
 +        return H_RESOURCE;
 +    }
 +
 +    env->slb_shadow_addr = addr;
 +    env->slb_shadow_size = size;
 +
 +    return H_SUCCESS;
 +}
 +
 +static target_ulong deregister_slb_shadow(CPUPPCState *env, target_ulong addr)
 +{
 +    env->slb_shadow_addr = 0;
 +    env->slb_shadow_size = 0;
 +    return H_SUCCESS;
 +}
 +
 +static target_ulong register_dtl(CPUPPCState *env, target_ulong addr)
 +{
 +    uint32_t size;
 +
 +    if (addr == 0) {
 +        hcall_dprintf("Can't cope with DTL at logical 0\n");
 +        return H_HARDWARE;
 +    }
 +
 +    size = ldl_be_phys(addr + 0x4);
 +
 +    if (size < 48) {
 +        return H_PARAMETER;
 +    }
 +
 +    if (!env->vpa_addr) {
 +        return H_RESOURCE;
 +    }
 +
 +    env->dtl_addr = addr;
 +    env->dtl_size = size;
 +
 +    return H_SUCCESS;
 +}
 +
 +static target_ulong deregister_dtl(CPUPPCState *env, target_ulong addr)
 +{
 +    env->dtl_addr = 0;
 +    env->dtl_size = 0;
 +
 +    return H_SUCCESS;
 +}
 +
 +static target_ulong h_register_vpa(PowerPCCPU *cpu, sPAPREnvironment *spapr,
 +                                   target_ulong opcode, target_ulong *args)
 +{
 +    target_ulong flags = args[0];
 +    target_ulong procno = args[1];
 +    target_ulong vpa = args[2];
 +    target_ulong ret = H_PARAMETER;
 +    CPUPPCState *tenv;
 +    CPUState *tcpu;
 +
 +    tcpu = qemu_get_cpu(procno);
 +    if (!tcpu) {
 +        return H_PARAMETER;
 +    }
 +    tenv = tcpu->env_ptr;
 +
 +    switch (flags) {
 +    case FLAGS_REGISTER_VPA:
 +        ret = register_vpa(tenv, vpa);
 +        break;
 +
 +    case FLAGS_DEREGISTER_VPA:
 +        ret = deregister_vpa(tenv, vpa);
 +        break;
 +
 +    case FLAGS_REGISTER_SLBSHADOW:
 +        ret = register_slb_shadow(tenv, vpa);
 +        break;
 +
 +    case FLAGS_DEREGISTER_SLBSHADOW:
 +        ret = deregister_slb_shadow(tenv, vpa);
 +        break;
 +
 +    case FLAGS_REGISTER_DTL:
 +        ret = register_dtl(tenv, vpa);
 +        break;
 +
 +    case FLAGS_DEREGISTER_DTL:
 +        ret = deregister_dtl(tenv, vpa);
 +        break;
 +    }
 +
 +    return ret;
 +}
 +
 +static target_ulong h_cede(PowerPCCPU *cpu, sPAPREnvironment *spapr,
 +                           target_ulong opcode, target_ulong *args)
 +{
 +    CPUPPCState *env = &cpu->env;
 +    CPUState *cs = CPU(cpu);
 +
 +    env->msr |= (1ULL << MSR_EE);
 +    hreg_compute_hflags(env);
 +    if (!cpu_has_work(cs)) {
 +        env->halted = 1;
 +        env->exception_index = EXCP_HLT;
 +        cs->exit_request = 1;
 +    }
 +    return H_SUCCESS;
 +}
 +
 +static target_ulong h_rtas(PowerPCCPU *cpu, sPAPREnvironment *spapr,
 +                           target_ulong opcode, target_ulong *args)
 +{
 +    target_ulong rtas_r3 = args[0];
 +    uint32_t token = ldl_be_phys(rtas_r3);
 +    uint32_t nargs = ldl_be_phys(rtas_r3 + 4);
 +    uint32_t nret = ldl_be_phys(rtas_r3 + 8);
 +
 +    return spapr_rtas_call(spapr, token, nargs, rtas_r3 + 12,
 +                           nret, rtas_r3 + 12 + 4*nargs);
 +}
 +
 +static target_ulong h_logical_load(PowerPCCPU *cpu, sPAPREnvironment *spapr,
 +                                   target_ulong opcode, target_ulong *args)
 +{
 +    target_ulong size = args[0];
 +    target_ulong addr = args[1];
 +
 +    switch (size) {
 +    case 1:
 +        args[0] = ldub_phys(addr);
 +        return H_SUCCESS;
 +    case 2:
 +        args[0] = lduw_phys(addr);
 +        return H_SUCCESS;
 +    case 4:
 +        args[0] = ldl_phys(addr);
 +        return H_SUCCESS;
 +    case 8:
 +        args[0] = ldq_phys(addr);
 +        return H_SUCCESS;
 +    }
 +    return H_PARAMETER;
 +}
 +
 +static target_ulong h_logical_store(PowerPCCPU *cpu, sPAPREnvironment *spapr,
 +                                    target_ulong opcode, target_ulong *args)
 +{
 +    target_ulong size = args[0];
 +    target_ulong addr = args[1];
 +    target_ulong val  = args[2];
 +
 +    switch (size) {
 +    case 1:
 +        stb_phys(addr, val);
 +        return H_SUCCESS;
 +    case 2:
 +        stw_phys(addr, val);
 +        return H_SUCCESS;
 +    case 4:
 +        stl_phys(addr, val);
 +        return H_SUCCESS;
 +    case 8:
 +        stq_phys(addr, val);
 +        return H_SUCCESS;
 +    }
 +    return H_PARAMETER;
 +}
 +
 +static target_ulong h_logical_memop(PowerPCCPU *cpu, sPAPREnvironment *spapr,
 +                                    target_ulong opcode, target_ulong *args)
 +{
 +    target_ulong dst   = args[0]; /* Destination address */
 +    target_ulong src   = args[1]; /* Source address */
 +    target_ulong esize = args[2]; /* Element size (0=1,1=2,2=4,3=8) */
 +    target_ulong count = args[3]; /* Element count */
 +    target_ulong op    = args[4]; /* 0 = copy, 1 = invert */
 +    uint64_t tmp;
 +    unsigned int mask = (1 << esize) - 1;
 +    int step = 1 << esize;
 +
 +    if (count > 0x80000000) {
 +        return H_PARAMETER;
 +    }
 +
 +    if ((dst & mask) || (src & mask) || (op > 1)) {
 +        return H_PARAMETER;
 +    }
 +
 +    if (dst >= src && dst < (src + (count << esize))) {
 +            dst = dst + ((count - 1) << esize);
 +            src = src + ((count - 1) << esize);
 +            step = -step;
 +    }
 +
 +    while (count--) {
 +        switch (esize) {
 +        case 0:
 +            tmp = ldub_phys(src);
 +            break;
 +        case 1:
 +            tmp = lduw_phys(src);
 +            break;
 +        case 2:
 +            tmp = ldl_phys(src);
 +            break;
 +        case 3:
 +            tmp = ldq_phys(src);
 +            break;
 +        default:
 +            return H_PARAMETER;
 +        }
 +        if (op == 1) {
 +            tmp = ~tmp;
 +        }
 +        switch (esize) {
 +        case 0:
 +            stb_phys(dst, tmp);
 +            break;
 +        case 1:
 +            stw_phys(dst, tmp);
 +            break;
 +        case 2:
 +            stl_phys(dst, tmp);
 +            break;
 +        case 3:
 +            stq_phys(dst, tmp);
 +            break;
 +        }
 +        dst = dst + step;
 +        src = src + step;
 +    }
 +
 +    return H_SUCCESS;
 +}
 +
 +static target_ulong h_logical_icbi(PowerPCCPU *cpu, sPAPREnvironment *spapr,
 +                                   target_ulong opcode, target_ulong *args)
 +{
 +    /* Nothing to do on emulation, KVM will trap this in the kernel */
 +    return H_SUCCESS;
 +}
 +
 +static target_ulong h_logical_dcbf(PowerPCCPU *cpu, sPAPREnvironment *spapr,
 +                                   target_ulong opcode, target_ulong *args)
 +{
 +    /* Nothing to do on emulation, KVM will trap this in the kernel */
 +    return H_SUCCESS;
 +}
 +
 +static spapr_hcall_fn papr_hypercall_table[(MAX_HCALL_OPCODE / 4) + 1];
 +static spapr_hcall_fn kvmppc_hypercall_table[KVMPPC_HCALL_MAX - KVMPPC_HCALL_BASE + 1];
 +
 +void spapr_register_hypercall(target_ulong opcode, spapr_hcall_fn fn)
 +{
 +    spapr_hcall_fn *slot;
 +
 +    if (opcode <= MAX_HCALL_OPCODE) {
 +        assert((opcode & 0x3) == 0);
 +
 +        slot = &papr_hypercall_table[opcode / 4];
 +    } else {
 +        assert((opcode >= KVMPPC_HCALL_BASE) && (opcode <= KVMPPC_HCALL_MAX));
 +
 +        slot = &kvmppc_hypercall_table[opcode - KVMPPC_HCALL_BASE];
 +    }
 +
 +    assert(!(*slot));
 +    *slot = fn;
 +}
 +
 +target_ulong spapr_hypercall(PowerPCCPU *cpu, target_ulong opcode,
 +                             target_ulong *args)
 +{
 +    if ((opcode <= MAX_HCALL_OPCODE)
 +        && ((opcode & 0x3) == 0)) {
 +        spapr_hcall_fn fn = papr_hypercall_table[opcode / 4];
 +
 +        if (fn) {
 +            return fn(cpu, spapr, opcode, args);
 +        }
 +    } else if ((opcode >= KVMPPC_HCALL_BASE) &&
 +               (opcode <= KVMPPC_HCALL_MAX)) {
 +        spapr_hcall_fn fn = kvmppc_hypercall_table[opcode - KVMPPC_HCALL_BASE];
 +
 +        if (fn) {
 +            return fn(cpu, spapr, opcode, args);
 +        }
 +    }
 +
 +    hcall_dprintf("Unimplemented hcall 0x" TARGET_FMT_lx "\n", opcode);
 +    return H_FUNCTION;
 +}
 +
 +static void hypercall_register_types(void)
 +{
 +    /* hcall-pft */
 +    spapr_register_hypercall(H_ENTER, h_enter);
 +    spapr_register_hypercall(H_REMOVE, h_remove);
 +    spapr_register_hypercall(H_PROTECT, h_protect);
++    spapr_register_hypercall(H_READ, h_read);
 +
 +    /* hcall-bulk */
 +    spapr_register_hypercall(H_BULK_REMOVE, h_bulk_remove);
 +
 +    /* hcall-dabr */
 +    spapr_register_hypercall(H_SET_DABR, h_set_dabr);
 +
 +    /* hcall-splpar */
 +    spapr_register_hypercall(H_REGISTER_VPA, h_register_vpa);
 +    spapr_register_hypercall(H_CEDE, h_cede);
 +
 +    /* "debugger" hcalls (also used by SLOF). Note: We do -not- differenciate
 +     * here between the "CI" and the "CACHE" variants, they will use whatever
 +     * mapping attributes qemu is using. When using KVM, the kernel will
 +     * enforce the attributes more strongly
 +     */
 +    spapr_register_hypercall(H_LOGICAL_CI_LOAD, h_logical_load);
 +    spapr_register_hypercall(H_LOGICAL_CI_STORE, h_logical_store);
 +    spapr_register_hypercall(H_LOGICAL_CACHE_LOAD, h_logical_load);
 +    spapr_register_hypercall(H_LOGICAL_CACHE_STORE, h_logical_store);
 +    spapr_register_hypercall(H_LOGICAL_ICBI, h_logical_icbi);
 +    spapr_register_hypercall(H_LOGICAL_DCBF, h_logical_dcbf);
 +    spapr_register_hypercall(KVMPPC_H_LOGICAL_MEMOP, h_logical_memop);
 +
 +    /* qemu/KVM-PPC specific hcalls */
 +    spapr_register_hypercall(KVMPPC_H_RTAS, h_rtas);
 +}
 +
 +type_init(hypercall_register_types)
diff --combined hw/spapr_llan.c
index 5d2565b4846ca5e2fa559dd98b42334769caf098,0ace2eb1f3c3ff7877822433203d016248894e48..19701e7e406dc33d5d6d5f5507713605b63080d1
@@@ -24,7 -24,7 +24,7 @@@
   * THE SOFTWARE.
   *
   */
 -#include "hw.h"
 +#include "hw/hw.h"
  #include "net/net.h"
  #include "hw/qdev.h"
  #include "hw/spapr.h"
@@@ -175,11 -175,19 +175,19 @@@ static ssize_t spapr_vlan_receive(NetCl
      return size;
  }
  
+ static void spapr_vlan_cleanup(NetClientState *nc)
+ {
+     VIOsPAPRVLANDevice *dev = qemu_get_nic_opaque(nc);
+     dev->nic = NULL;
+ }
  static NetClientInfo net_spapr_vlan_info = {
      .type = NET_CLIENT_OPTIONS_KIND_NIC,
      .size = sizeof(NICState),
      .can_receive = spapr_vlan_can_receive,
      .receive = spapr_vlan_receive,
+     .cleanup = spapr_vlan_cleanup,
  };
  
  static void spapr_vlan_reset(VIOsPAPRDevice *sdev)