mm/vmalloc: remove unmap_kernel_range
authorNicholas Piggin <npiggin@gmail.com>
Fri, 30 Apr 2021 05:59:01 +0000 (22:59 -0700)
committerLinus Torvalds <torvalds@linux-foundation.org>
Fri, 30 Apr 2021 18:20:40 +0000 (11:20 -0700)
This is a shim around vunmap_range, get rid of it.

Move the main API comment from the _noflush variant to the normal
variant, and make _noflush internal to mm/.

[npiggin@gmail.com: fix nommu builds and a comment bug per sfr]
Link: https://lkml.kernel.org/r/1617292598.m6g0knx24s.astroid@bobo.none
[akpm@linux-foundation.org: move vunmap_range_noflush() stub inside !CONFIG_MMU, not !CONFIG_NUMA]
[npiggin@gmail.com: fix nommu builds]
Link: https://lkml.kernel.org/r/1617292497.o1uhq5ipxp.astroid@bobo.none
Link: https://lkml.kernel.org/r/20210322021806.892164-5-npiggin@gmail.com
Signed-off-by: Nicholas Piggin <npiggin@gmail.com>
Reviewed-by: Christoph Hellwig <hch@lst.de>
Cc: Cédric Le Goater <clg@kaod.org>
Cc: Uladzislau Rezki <urezki@gmail.com>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
Signed-off-by: Linus Torvalds <torvalds@linux-foundation.org>
Documentation/core-api/cachetlb.rst
arch/arm64/mm/init.c
arch/powerpc/kernel/isa-bridge.c
arch/powerpc/kernel/pci_64.c
arch/powerpc/mm/ioremap.c
drivers/pci/pci.c
include/linux/vmalloc.h
mm/internal.h
mm/percpu-vm.c
mm/vmalloc.c

index 756f7bcf8191108b74da6d4c32ed55f66a59ea40..fe4290e26729690a9bf84eee53cdb00c8732dca4 100644 (file)
@@ -215,7 +215,7 @@ Here are the routines, one by one:
 
        The first of these two routines is invoked after vmap_range()
        has installed the page table entries.  The second is invoked
-       before unmap_kernel_range() deletes the page table entries.
+       before vunmap_range() deletes the page table entries.
 
 There exists another whole class of cpu cache issues which currently
 require a whole different set of interfaces to handle properly.
index 3685e12aba9b62b170cbd285dae412c339cae350..470f92e6a5426c43e5ebd6d0d821931fdcd43f1c 100644 (file)
@@ -521,7 +521,7 @@ void free_initmem(void)
         * prevents the region from being reused for kernel modules, which
         * is not supported by kallsyms.
         */
-       unmap_kernel_range((u64)__init_begin, (u64)(__init_end - __init_begin));
+       vunmap_range((u64)__init_begin, (u64)__init_end);
 }
 
 void dump_mem_limit(void)
index 2257d24e6a26647a232ddf11629254c2c69e33d0..39c625737c092fc4594fb5db00ee959cf945ad14 100644 (file)
@@ -48,7 +48,7 @@ static void remap_isa_base(phys_addr_t pa, unsigned long size)
        if (slab_is_available()) {
                if (ioremap_page_range(ISA_IO_BASE, ISA_IO_BASE + size, pa,
                                pgprot_noncached(PAGE_KERNEL)))
-                       unmap_kernel_range(ISA_IO_BASE, size);
+                       vunmap_range(ISA_IO_BASE, ISA_IO_BASE + size);
        } else {
                early_ioremap_range(ISA_IO_BASE, pa, size,
                                pgprot_noncached(PAGE_KERNEL));
@@ -311,7 +311,7 @@ static void isa_bridge_remove(void)
        isa_bridge_pcidev = NULL;
 
        /* Unmap the ISA area */
-       unmap_kernel_range(ISA_IO_BASE, 0x10000);
+       vunmap_range(ISA_IO_BASE, ISA_IO_BASE + 0x10000);
 }
 
 /**
index 9312e6eda7ff2b2cbd78c1a50cd24c18f9f4f267..3fb7e572abedfa3214016ccab1481e0d1da39d42 100644 (file)
@@ -140,7 +140,7 @@ void __iomem *ioremap_phb(phys_addr_t paddr, unsigned long size)
        addr = (unsigned long)area->addr;
        if (ioremap_page_range(addr, addr + size, paddr,
                        pgprot_noncached(PAGE_KERNEL))) {
-               unmap_kernel_range(addr, size);
+               vunmap_range(addr, addr + size);
                return NULL;
        }
 
index b1a0aebe8c48da3a7604e11b6f268541ed98f8b9..57342154d2b0554b77c22cc5571c4e6836ee7209 100644 (file)
@@ -93,7 +93,7 @@ void __iomem *do_ioremap(phys_addr_t pa, phys_addr_t offset, unsigned long size,
        if (!ret)
                return (void __iomem *)area->addr + offset;
 
-       unmap_kernel_range(va, size);
+       vunmap_range(va, va + size);
        free_vm_area(area);
 
        return NULL;
index e4d4e399004b48c1a67df666e4076afc296a36c1..f4c26e6118eaa604c8a5b10425a5cb3feeaaefa9 100644 (file)
@@ -4102,7 +4102,7 @@ void pci_unmap_iospace(struct resource *res)
 #if defined(PCI_IOBASE) && defined(CONFIG_MMU)
        unsigned long vaddr = (unsigned long)PCI_IOBASE + res->start;
 
-       unmap_kernel_range(vaddr, resource_size(res));
+       vunmap_range(vaddr, vaddr + resource_size(res));
 #endif
 }
 EXPORT_SYMBOL(pci_unmap_iospace);
index fb3b9989a4c563f4188a876525b8cf5630ee1f10..394d03cc0e926619b8b0ba8b1fa808bfdee637ee 100644 (file)
@@ -212,8 +212,7 @@ static inline bool is_vm_area_hugepages(const void *addr)
 int vmap_range(unsigned long addr, unsigned long end,
                        phys_addr_t phys_addr, pgprot_t prot,
                        unsigned int max_page_shift);
-extern void unmap_kernel_range_noflush(unsigned long addr, unsigned long size);
-extern void unmap_kernel_range(unsigned long addr, unsigned long size);
+void vunmap_range(unsigned long addr, unsigned long end);
 static inline void set_vm_flush_reset_perms(void *addr)
 {
        struct vm_struct *vm = find_vm_area(addr);
@@ -223,11 +222,6 @@ static inline void set_vm_flush_reset_perms(void *addr)
 }
 
 #else
-static inline void
-unmap_kernel_range_noflush(unsigned long addr, unsigned long size)
-{
-}
-#define unmap_kernel_range unmap_kernel_range_noflush
 static inline void set_vm_flush_reset_perms(void *addr)
 {
 }
index 58c3757c52d95e2b7e11b0223a8cc564a76b33d3..42e30e71554ab6460d6cfb6896c77be0b09d0e98 100644 (file)
@@ -446,7 +446,9 @@ static inline struct file *maybe_unlock_mmap_for_io(struct vm_fault *vmf,
 static inline void clear_page_mlock(struct page *page) { }
 static inline void mlock_vma_page(struct page *page) { }
 static inline void mlock_migrate_page(struct page *new, struct page *old) { }
-
+static inline void vunmap_range_noflush(unsigned long start, unsigned long end)
+{
+}
 #endif /* !CONFIG_MMU */
 
 /*
@@ -640,7 +642,18 @@ struct migration_target_control {
 /*
  * mm/vmalloc.c
  */
+#ifdef CONFIG_MMU
 int vmap_pages_range_noflush(unsigned long addr, unsigned long end,
                 pgprot_t prot, struct page **pages, unsigned int page_shift);
+#else
+static inline
+int vmap_pages_range_noflush(unsigned long addr, unsigned long end,
+                pgprot_t prot, struct page **pages, unsigned int page_shift)
+{
+       return -EINVAL;
+}
+#endif
+
+void vunmap_range_noflush(unsigned long start, unsigned long end);
 
 #endif /* __MM_INTERNAL_H */
index 88a53eb68a94014829f2212f2a25251ab007e425..8d3844bc0c7cf8a5e0a7b9b49573ee50576d58a4 100644 (file)
@@ -134,7 +134,7 @@ static void pcpu_pre_unmap_flush(struct pcpu_chunk *chunk,
 
 static void __pcpu_unmap_pages(unsigned long addr, int nr_pages)
 {
-       unmap_kernel_range_noflush(addr, nr_pages << PAGE_SHIFT);
+       vunmap_range_noflush(addr, addr + (nr_pages << PAGE_SHIFT));
 }
 
 /**
index 527781a3a0febbe89911298ab3bcca82bd23473c..f7a53c19e84bb49e514c7012ddd5c2daed791206 100644 (file)
@@ -378,22 +378,20 @@ static void vunmap_p4d_range(pgd_t *pgd, unsigned long addr, unsigned long end,
        } while (p4d++, addr = next, addr != end);
 }
 
-/**
- * unmap_kernel_range_noflush - unmap kernel VM area
- * @start: start of the VM area to unmap
- * @size: size of the VM area to unmap
+/*
+ * vunmap_range_noflush is similar to vunmap_range, but does not
+ * flush caches or TLBs.
  *
- * Unmap PFN_UP(@size) pages at @addr.  The VM area @addr and @size specify
- * should have been allocated using get_vm_area() and its friends.
+ * The caller is responsible for calling flush_cache_vmap() before calling
+ * this function, and flush_tlb_kernel_range after it has returned
+ * successfully (and before the addresses are expected to cause a page fault
+ * or be re-mapped for something else, if TLB flushes are being delayed or
+ * coalesced).
  *
- * NOTE:
- * This function does NOT do any cache flushing.  The caller is responsible
- * for calling flush_cache_vunmap() on to-be-mapped areas before calling this
- * function and flush_tlb_kernel_range() after.
+ * This is an internal function only. Do not use outside mm/.
  */
-void unmap_kernel_range_noflush(unsigned long start, unsigned long size)
+void vunmap_range_noflush(unsigned long start, unsigned long end)
 {
-       unsigned long end = start + size;
        unsigned long next;
        pgd_t *pgd;
        unsigned long addr = start;
@@ -414,6 +412,22 @@ void unmap_kernel_range_noflush(unsigned long start, unsigned long size)
                arch_sync_kernel_mappings(start, end);
 }
 
+/**
+ * vunmap_range - unmap kernel virtual addresses
+ * @addr: start of the VM area to unmap
+ * @end: end of the VM area to unmap (non-inclusive)
+ *
+ * Clears any present PTEs in the virtual address range, flushes TLBs and
+ * caches. Any subsequent access to the address before it has been re-mapped
+ * is a kernel bug.
+ */
+void vunmap_range(unsigned long addr, unsigned long end)
+{
+       flush_cache_vunmap(addr, end);
+       vunmap_range_noflush(addr, end);
+       flush_tlb_kernel_range(addr, end);
+}
+
 static int vmap_pages_pte_range(pmd_t *pmd, unsigned long addr,
                unsigned long end, pgprot_t prot, struct page **pages, int *nr,
                pgtbl_mod_mask *mask)
@@ -1712,7 +1726,7 @@ static void free_vmap_area_noflush(struct vmap_area *va)
 static void free_unmap_vmap_area(struct vmap_area *va)
 {
        flush_cache_vunmap(va->va_start, va->va_end);
-       unmap_kernel_range_noflush(va->va_start, va->va_end - va->va_start);
+       vunmap_range_noflush(va->va_start, va->va_end);
        if (debug_pagealloc_enabled_static())
                flush_tlb_kernel_range(va->va_start, va->va_end);
 
@@ -1990,7 +2004,7 @@ static void vb_free(unsigned long addr, unsigned long size)
        offset = (addr & (VMAP_BLOCK_SIZE - 1)) >> PAGE_SHIFT;
        vb = xa_load(&vmap_blocks, addr_to_vb_idx(addr));
 
-       unmap_kernel_range_noflush(addr, size);
+       vunmap_range_noflush(addr, addr + size);
 
        if (debug_pagealloc_enabled_static())
                flush_tlb_kernel_range(addr, addr + size);
@@ -2307,23 +2321,6 @@ void __init vmalloc_init(void)
        vmap_initialized = true;
 }
 
-/**
- * unmap_kernel_range - unmap kernel VM area and flush cache and TLB
- * @addr: start of the VM area to unmap
- * @size: size of the VM area to unmap
- *
- * Similar to unmap_kernel_range_noflush() but flushes vcache before
- * the unmapping and tlb after.
- */
-void unmap_kernel_range(unsigned long addr, unsigned long size)
-{
-       unsigned long end = addr + size;
-
-       flush_cache_vunmap(addr, end);
-       unmap_kernel_range_noflush(addr, size);
-       flush_tlb_kernel_range(addr, end);
-}
-
 static inline void setup_vmalloc_vm_locked(struct vm_struct *vm,
        struct vmap_area *va, unsigned long flags, const void *caller)
 {