x86/tlb: Move __flush_tlb_one_kernel() out of line
authorThomas Gleixner <tglx@linutronix.de>
Tue, 21 Apr 2020 09:20:35 +0000 (11:20 +0200)
committerBorislav Petkov <bp@suse.de>
Sun, 26 Apr 2020 09:01:22 +0000 (11:01 +0200)
cpu_tlbstate is exported because various TLB-related functions need
access to it, but cpu_tlbstate is sensitive information which should
only be accessed by well-contained kernel functions and not be directly
exposed to modules.

As a fourth step, move __flush_tlb_one_kernel() out of line and hide
the native function. The latter can be static when CONFIG_PARAVIRT is
disabled.

Consolidate the name space while at it and remove the pointless extra
wrapper in the paravirt code.

No functional change.

Signed-off-by: Thomas Gleixner <tglx@linutronix.de>
Signed-off-by: Borislav Petkov <bp@suse.de>
Reviewed-by: Alexandre Chartre <alexandre.chartre@oracle.com>
Acked-by: Peter Zijlstra (Intel) <peterz@infradead.org>
Link: https://lkml.kernel.org/r/20200421092559.535159540@linutronix.de
arch/x86/include/asm/pgtable_32.h
arch/x86/include/asm/tlbflush.h
arch/x86/mm/init_64.c
arch/x86/mm/ioremap.c
arch/x86/mm/kmmio.c
arch/x86/mm/pat/set_memory.c
arch/x86/mm/pgtable_32.c
arch/x86/mm/tlb.c

index 0dca7f7..bd2ed47 100644 (file)
@@ -60,7 +60,7 @@ void sync_initial_page_table(void);
 #define kpte_clear_flush(ptep, vaddr)          \
 do {                                           \
        pte_clear(&init_mm, (vaddr), (ptep));   \
-       __flush_tlb_one_kernel((vaddr));                \
+       flush_tlb_one_kernel((vaddr));          \
 } while (0)
 
 #endif /* !__ASSEMBLY__ */
index 14c5b98..bbb94f0 100644 (file)
@@ -143,6 +143,7 @@ static inline unsigned long build_cr3_noflush(pgd_t *pgd, u16 asid)
 void flush_tlb_local(void);
 void flush_tlb_global(void);
 void flush_tlb_one_user(unsigned long addr);
+void flush_tlb_one_kernel(unsigned long addr);
 
 #ifdef CONFIG_PARAVIRT
 #include <asm/paravirt.h>
@@ -318,14 +319,6 @@ static inline void cr4_clear_bits(unsigned long mask)
 }
 
 /*
- * Mark all other ASIDs as invalid, preserves the current.
- */
-static inline void invalidate_other_asid(void)
-{
-       this_cpu_write(cpu_tlbstate.invalidate_other, true);
-}
-
-/*
  * Save some of cr4 feature set we're using (e.g.  Pentium 4MB
  * enable and PPro Global page enable), so that any CPU's that boot
  * up after us can get the correct flags.  This should only be used
@@ -365,38 +358,6 @@ static inline void __flush_tlb_all(void)
        }
 }
 
-/*
- * flush one page in the kernel mapping
- */
-static inline void __flush_tlb_one_kernel(unsigned long addr)
-{
-       count_vm_tlb_event(NR_TLB_LOCAL_FLUSH_ONE);
-
-       /*
-        * If PTI is off, then __flush_tlb_one_user() is just INVLPG or its
-        * paravirt equivalent.  Even with PCID, this is sufficient: we only
-        * use PCID if we also use global PTEs for the kernel mapping, and
-        * INVLPG flushes global translations across all address spaces.
-        *
-        * If PTI is on, then the kernel is mapped with non-global PTEs, and
-        * __flush_tlb_one_user() will flush the given address for the current
-        * kernel address space and for its usermode counterpart, but it does
-        * not flush it for other address spaces.
-        */
-       flush_tlb_one_user(addr);
-
-       if (!static_cpu_has(X86_FEATURE_PTI))
-               return;
-
-       /*
-        * See above.  We need to propagate the flush to all other address
-        * spaces.  In principle, we only need to propagate it to kernelmode
-        * address spaces, but the extra bookkeeping we would need is not
-        * worth it.
-        */
-       invalidate_other_asid();
-}
-
 #define TLB_FLUSH_ALL  -1UL
 
 /*
index 9a497ba..c7a1c6c 100644 (file)
@@ -298,7 +298,7 @@ static void __set_pte_vaddr(pud_t *pud, unsigned long vaddr, pte_t new_pte)
         * It's enough to flush this one mapping.
         * (PGE mappings get flushed as well)
         */
-       __flush_tlb_one_kernel(vaddr);
+       flush_tlb_one_kernel(vaddr);
 }
 
 void set_pte_vaddr_p4d(p4d_t *p4d_page, unsigned long vaddr, pte_t new_pte)
index 41536f5..986d575 100644 (file)
@@ -885,5 +885,5 @@ void __init __early_set_fixmap(enum fixed_addresses idx,
                set_pte(pte, pfn_pte(phys >> PAGE_SHIFT, flags));
        else
                pte_clear(&init_mm, addr, pte);
-       __flush_tlb_one_kernel(addr);
+       flush_tlb_one_kernel(addr);
 }
index 9994353..dd62589 100644 (file)
@@ -173,7 +173,7 @@ static int clear_page_presence(struct kmmio_fault_page *f, bool clear)
                return -1;
        }
 
-       __flush_tlb_one_kernel(f->addr);
+       flush_tlb_one_kernel(f->addr);
        return 0;
 }
 
index a28f0c3..b7fb1f0 100644 (file)
@@ -345,7 +345,7 @@ static void __cpa_flush_tlb(void *data)
        unsigned int i;
 
        for (i = 0; i < cpa->numpages; i++)
-               __flush_tlb_one_kernel(fix_addr(__cpa_addr(cpa, i)));
+               flush_tlb_one_kernel(fix_addr(__cpa_addr(cpa, i)));
 }
 
 static void cpa_flush(struct cpa_data *data, int cache)
index 0e6700e..e1ce59d 100644 (file)
@@ -64,7 +64,7 @@ void set_pte_vaddr(unsigned long vaddr, pte_t pteval)
         * It's enough to flush this one mapping.
         * (PGE mappings get flushed as well)
         */
-       __flush_tlb_one_kernel(vaddr);
+       flush_tlb_one_kernel(vaddr);
 }
 
 unsigned long __FIXADDR_TOP = 0xfffff000;
index 2822602..ad217ed 100644 (file)
@@ -876,7 +876,7 @@ static void do_kernel_range_flush(void *info)
 
        /* flush range by one by one 'invlpg' */
        for (addr = f->start; addr < f->end; addr += PAGE_SIZE)
-               __flush_tlb_one_kernel(addr);
+               flush_tlb_one_kernel(addr);
 }
 
 void flush_tlb_kernel_range(unsigned long start, unsigned long end)
@@ -919,6 +919,38 @@ unsigned long __get_current_cr3_fast(void)
 EXPORT_SYMBOL_GPL(__get_current_cr3_fast);
 
 /*
+ * Flush one page in the kernel mapping
+ */
+void flush_tlb_one_kernel(unsigned long addr)
+{
+       count_vm_tlb_event(NR_TLB_LOCAL_FLUSH_ONE);
+
+       /*
+        * If PTI is off, then __flush_tlb_one_user() is just INVLPG or its
+        * paravirt equivalent.  Even with PCID, this is sufficient: we only
+        * use PCID if we also use global PTEs for the kernel mapping, and
+        * INVLPG flushes global translations across all address spaces.
+        *
+        * If PTI is on, then the kernel is mapped with non-global PTEs, and
+        * __flush_tlb_one_user() will flush the given address for the current
+        * kernel address space and for its usermode counterpart, but it does
+        * not flush it for other address spaces.
+        */
+       flush_tlb_one_user(addr);
+
+       if (!static_cpu_has(X86_FEATURE_PTI))
+               return;
+
+       /*
+        * See above.  We need to propagate the flush to all other address
+        * spaces.  In principle, we only need to propagate it to kernelmode
+        * address spaces, but the extra bookkeeping we would need is not
+        * worth it.
+        */
+       this_cpu_write(cpu_tlbstate.invalidate_other, true);
+}
+
+/*
  * Flush one page in the user mapping
  */
 STATIC_NOPV void native_flush_tlb_one_user(unsigned long addr)