KVM: PPC: Make iommu_table::it_userspace big endian
authorAlexey Kardashevskiy <aik@ozlabs.ru>
Wed, 4 Jul 2018 06:13:46 +0000 (16:13 +1000)
committerMichael Ellerman <mpe@ellerman.id.au>
Mon, 16 Jul 2018 12:53:09 +0000 (22:53 +1000)
We are going to reuse multilevel TCE code for the userspace copy of
the TCE table and since it is big endian, let's make the copy big endian
too.

Reviewed-by: David Gibson <david@gibson.dropbear.id.au>
Signed-off-by: Alexey Kardashevskiy <aik@ozlabs.ru>
Acked-by: Paul Mackerras <paulus@ozlabs.org>
Signed-off-by: Michael Ellerman <mpe@ellerman.id.au>
arch/powerpc/include/asm/iommu.h
arch/powerpc/kvm/book3s_64_vio.c
arch/powerpc/kvm/book3s_64_vio_hv.c
drivers/vfio/vfio_iommu_spapr_tce.c

index 20febe0..803ac70 100644 (file)
@@ -117,7 +117,7 @@ struct iommu_table {
        unsigned long *it_map;       /* A simple allocation bitmap for now */
        unsigned long  it_page_shift;/* table iommu page size */
        struct list_head it_group_list;/* List of iommu_table_group_link */
-       unsigned long *it_userspace; /* userspace view of the table */
+       __be64 *it_userspace; /* userspace view of the table */
        struct iommu_table_ops *it_ops;
        struct kref    it_kref;
 };
index d066e37..8b9aaf2 100644 (file)
@@ -378,19 +378,19 @@ static long kvmppc_tce_iommu_mapped_dec(struct kvm *kvm,
 {
        struct mm_iommu_table_group_mem_t *mem = NULL;
        const unsigned long pgsize = 1ULL << tbl->it_page_shift;
-       unsigned long *pua = IOMMU_TABLE_USERSPACE_ENTRY(tbl, entry);
+       __be64 *pua = IOMMU_TABLE_USERSPACE_ENTRY(tbl, entry);
 
        if (!pua)
                /* it_userspace allocation might be delayed */
                return H_TOO_HARD;
 
-       mem = mm_iommu_lookup(kvm->mm, *pua, pgsize);
+       mem = mm_iommu_lookup(kvm->mm, be64_to_cpu(*pua), pgsize);
        if (!mem)
                return H_TOO_HARD;
 
        mm_iommu_mapped_dec(mem);
 
-       *pua = 0;
+       *pua = cpu_to_be64(0);
 
        return H_SUCCESS;
 }
@@ -437,7 +437,8 @@ long kvmppc_tce_iommu_do_map(struct kvm *kvm, struct iommu_table *tbl,
                enum dma_data_direction dir)
 {
        long ret;
-       unsigned long hpa, *pua = IOMMU_TABLE_USERSPACE_ENTRY(tbl, entry);
+       unsigned long hpa;
+       __be64 *pua = IOMMU_TABLE_USERSPACE_ENTRY(tbl, entry);
        struct mm_iommu_table_group_mem_t *mem;
 
        if (!pua)
@@ -464,7 +465,7 @@ long kvmppc_tce_iommu_do_map(struct kvm *kvm, struct iommu_table *tbl,
        if (dir != DMA_NONE)
                kvmppc_tce_iommu_mapped_dec(kvm, tbl, entry);
 
-       *pua = ua;
+       *pua = cpu_to_be64(ua);
 
        return 0;
 }
index 925fc31..236f74b 100644 (file)
@@ -200,7 +200,7 @@ static long kvmppc_rm_tce_iommu_mapped_dec(struct kvm *kvm,
 {
        struct mm_iommu_table_group_mem_t *mem = NULL;
        const unsigned long pgsize = 1ULL << tbl->it_page_shift;
-       unsigned long *pua = IOMMU_TABLE_USERSPACE_ENTRY(tbl, entry);
+       __be64 *pua = IOMMU_TABLE_USERSPACE_ENTRY(tbl, entry);
 
        if (!pua)
                /* it_userspace allocation might be delayed */
@@ -210,13 +210,13 @@ static long kvmppc_rm_tce_iommu_mapped_dec(struct kvm *kvm,
        if (WARN_ON_ONCE_RM(!pua))
                return H_HARDWARE;
 
-       mem = mm_iommu_lookup_rm(kvm->mm, *pua, pgsize);
+       mem = mm_iommu_lookup_rm(kvm->mm, be64_to_cpu(*pua), pgsize);
        if (!mem)
                return H_TOO_HARD;
 
        mm_iommu_mapped_dec(mem);
 
-       *pua = 0;
+       *pua = cpu_to_be64(0);
 
        return H_SUCCESS;
 }
@@ -268,7 +268,7 @@ static long kvmppc_rm_tce_iommu_do_map(struct kvm *kvm, struct iommu_table *tbl,
 {
        long ret;
        unsigned long hpa = 0;
-       unsigned long *pua = IOMMU_TABLE_USERSPACE_ENTRY(tbl, entry);
+       __be64 *pua = IOMMU_TABLE_USERSPACE_ENTRY(tbl, entry);
        struct mm_iommu_table_group_mem_t *mem;
 
        if (!pua)
@@ -302,7 +302,7 @@ static long kvmppc_rm_tce_iommu_do_map(struct kvm *kvm, struct iommu_table *tbl,
        if (dir != DMA_NONE)
                kvmppc_rm_tce_iommu_mapped_dec(kvm, tbl, entry);
 
-       *pua = ua;
+       *pua = cpu_to_be64(ua);
 
        return 0;
 }
index 759a5bd..8ab124a 100644 (file)
@@ -230,7 +230,7 @@ static long tce_iommu_userspace_view_alloc(struct iommu_table *tbl,
                decrement_locked_vm(mm, cb >> PAGE_SHIFT);
                return -ENOMEM;
        }
-       tbl->it_userspace = uas;
+       tbl->it_userspace = (__be64 *) uas;
 
        return 0;
 }
@@ -482,20 +482,20 @@ static void tce_iommu_unuse_page_v2(struct tce_container *container,
        struct mm_iommu_table_group_mem_t *mem = NULL;
        int ret;
        unsigned long hpa = 0;
-       unsigned long *pua = IOMMU_TABLE_USERSPACE_ENTRY(tbl, entry);
+       __be64 *pua = IOMMU_TABLE_USERSPACE_ENTRY(tbl, entry);
 
        if (!pua)
                return;
 
-       ret = tce_iommu_prereg_ua_to_hpa(container, *pua, IOMMU_PAGE_SIZE(tbl),
-                       &hpa, &mem);
+       ret = tce_iommu_prereg_ua_to_hpa(container, be64_to_cpu(*pua),
+                       IOMMU_PAGE_SIZE(tbl), &hpa, &mem);
        if (ret)
-               pr_debug("%s: tce %lx at #%lx was not cached, ret=%d\n",
-                               __func__, *pua, entry, ret);
+               pr_debug("%s: tce %llx at #%lx was not cached, ret=%d\n",
+                               __func__, be64_to_cpu(*pua), entry, ret);
        if (mem)
                mm_iommu_mapped_dec(mem);
 
-       *pua = 0;
+       *pua = cpu_to_be64(0);
 }
 
 static int tce_iommu_clear(struct tce_container *container,
@@ -607,8 +607,7 @@ static long tce_iommu_build_v2(struct tce_container *container,
 
        for (i = 0; i < pages; ++i) {
                struct mm_iommu_table_group_mem_t *mem = NULL;
-               unsigned long *pua = IOMMU_TABLE_USERSPACE_ENTRY(tbl,
-                               entry + i);
+               __be64 *pua = IOMMU_TABLE_USERSPACE_ENTRY(tbl, entry + i);
 
                ret = tce_iommu_prereg_ua_to_hpa(container,
                                tce, IOMMU_PAGE_SIZE(tbl), &hpa, &mem);
@@ -642,7 +641,7 @@ static long tce_iommu_build_v2(struct tce_container *container,
                if (dirtmp != DMA_NONE)
                        tce_iommu_unuse_page_v2(container, tbl, entry + i);
 
-               *pua = tce;
+               *pua = cpu_to_be64(tce);
 
                tce += IOMMU_PAGE_SIZE(tbl);
        }