iommu/amd: Introduce iommu_v1_iova_to_phys
authorSuravee Suthikulpanit <suravee.suthikulpanit@amd.com>
Tue, 15 Dec 2020 07:37:03 +0000 (01:37 -0600)
committerJoerg Roedel <jroedel@suse.de>
Thu, 28 Jan 2021 15:51:18 +0000 (16:51 +0100)
This implements iova_to_phys for AMD IOMMU v1 pagetable,
which will be used by the IO page table framework.

Signed-off-by: Suravee Suthikulpanit <suravee.suthikulpanit@amd.com>
Link: https://lore.kernel.org/r/20201215073705.123786-12-suravee.suthikulpanit@amd.com
Signed-off-by: Joerg Roedel <jroedel@suse.de>
drivers/iommu/amd/io_pgtable.c
drivers/iommu/amd/iommu.c

index d7924eb..b70eb79 100644 (file)
@@ -488,6 +488,26 @@ unsigned long iommu_unmap_page(struct protection_domain *dom,
        return unmapped;
 }
 
+static phys_addr_t iommu_v1_iova_to_phys(struct io_pgtable_ops *ops, unsigned long iova)
+{
+       struct amd_io_pgtable *pgtable = io_pgtable_ops_to_data(ops);
+       unsigned long offset_mask, pte_pgsize;
+       u64 *pte, __pte;
+
+       if (pgtable->mode == PAGE_MODE_NONE)
+               return iova;
+
+       pte = fetch_pte(pgtable, iova, &pte_pgsize);
+
+       if (!pte || !IOMMU_PTE_PRESENT(*pte))
+               return 0;
+
+       offset_mask = pte_pgsize - 1;
+       __pte       = __sme_clr(*pte & PM_ADDR_MASK);
+
+       return (__pte & ~offset_mask) | (iova & offset_mask);
+}
+
 /*
  * ----------------------------------------------------
  */
@@ -528,6 +548,8 @@ static struct io_pgtable *v1_alloc_pgtable(struct io_pgtable_cfg *cfg, void *coo
        cfg->oas            = IOMMU_OUT_ADDR_BIT_SIZE,
        cfg->tlb            = &v1_flush_ops;
 
+       pgtable->iop.ops.iova_to_phys = iommu_v1_iova_to_phys;
+
        return &pgtable->iop;
 }
 
index f1a4f53..144ea91 100644 (file)
@@ -2100,22 +2100,8 @@ static phys_addr_t amd_iommu_iova_to_phys(struct iommu_domain *dom,
 {
        struct protection_domain *domain = to_pdomain(dom);
        struct io_pgtable_ops *ops = &domain->iop.iop.ops;
-       struct amd_io_pgtable *pgtable = io_pgtable_ops_to_data(ops);
-       unsigned long offset_mask, pte_pgsize;
-       u64 *pte, __pte;
 
-       if (domain->iop.mode == PAGE_MODE_NONE)
-               return iova;
-
-       pte = fetch_pte(pgtable, iova, &pte_pgsize);
-
-       if (!pte || !IOMMU_PTE_PRESENT(*pte))
-               return 0;
-
-       offset_mask = pte_pgsize - 1;
-       __pte       = __sme_clr(*pte & PM_ADDR_MASK);
-
-       return (__pte & ~offset_mask) | (iova & offset_mask);
+       return ops->iova_to_phys(ops, iova);
 }
 
 static bool amd_iommu_capable(enum iommu_cap cap)