riscv/mm: Convert to using lock_mm_and_find_vma()
authorBen Hutchings <ben@decadent.org.uk>
Thu, 22 Jun 2023 18:18:18 +0000 (20:18 +0200)
committerLinus Torvalds <torvalds@linux-foundation.org>
Sat, 24 Jun 2023 21:12:58 +0000 (14:12 -0700)
Signed-off-by: Ben Hutchings <ben@decadent.org.uk>
Signed-off-by: Linus Torvalds <torvalds@linux-foundation.org>
arch/riscv/Kconfig
arch/riscv/mm/fault.c

index 5966ad97c30c3d8f157dad32f4da9a5ab07790a7..a11b1c038c6d1bc61341e64b9b0ae4214627df8f 100644 (file)
@@ -126,6 +126,7 @@ config RISCV
        select IRQ_DOMAIN
        select IRQ_FORCED_THREADING
        select KASAN_VMALLOC if KASAN
+       select LOCK_MM_AND_FIND_VMA
        select MODULES_USE_ELF_RELA if MODULES
        select MODULE_SECTIONS if MODULES
        select OF
index 8685f85a7474ef096037e306b904b725f68a1ac2..35a84ec69a9fd438751eb1dea4676bbbb5d8e74a 100644 (file)
@@ -84,13 +84,13 @@ static inline void mm_fault_error(struct pt_regs *regs, unsigned long addr, vm_f
        BUG();
 }
 
-static inline void bad_area(struct pt_regs *regs, struct mm_struct *mm, int code, unsigned long addr)
+static inline void
+bad_area_nosemaphore(struct pt_regs *regs, int code, unsigned long addr)
 {
        /*
         * Something tried to access memory that isn't in our memory map.
         * Fix it, but check if it's kernel or user first.
         */
-       mmap_read_unlock(mm);
        /* User mode accesses just cause a SIGSEGV */
        if (user_mode(regs)) {
                do_trap(regs, SIGSEGV, code, addr);
@@ -100,6 +100,15 @@ static inline void bad_area(struct pt_regs *regs, struct mm_struct *mm, int code
        no_context(regs, addr);
 }
 
+static inline void
+bad_area(struct pt_regs *regs, struct mm_struct *mm, int code,
+        unsigned long addr)
+{
+       mmap_read_unlock(mm);
+
+       bad_area_nosemaphore(regs, code, addr);
+}
+
 static inline void vmalloc_fault(struct pt_regs *regs, int code, unsigned long addr)
 {
        pgd_t *pgd, *pgd_k;
@@ -287,23 +296,10 @@ void handle_page_fault(struct pt_regs *regs)
        else if (cause == EXC_INST_PAGE_FAULT)
                flags |= FAULT_FLAG_INSTRUCTION;
 retry:
-       mmap_read_lock(mm);
-       vma = find_vma(mm, addr);
+       vma = lock_mm_and_find_vma(mm, addr, regs);
        if (unlikely(!vma)) {
                tsk->thread.bad_cause = cause;
-               bad_area(regs, mm, code, addr);
-               return;
-       }
-       if (likely(vma->vm_start <= addr))
-               goto good_area;
-       if (unlikely(!(vma->vm_flags & VM_GROWSDOWN))) {
-               tsk->thread.bad_cause = cause;
-               bad_area(regs, mm, code, addr);
-               return;
-       }
-       if (unlikely(expand_stack(vma, addr))) {
-               tsk->thread.bad_cause = cause;
-               bad_area(regs, mm, code, addr);
+               bad_area_nosemaphore(regs, code, addr);
                return;
        }
 
@@ -311,7 +307,6 @@ retry:
         * Ok, we have a good vm_area for this memory access, so
         * we can handle it.
         */
-good_area:
        code = SEGV_ACCERR;
 
        if (unlikely(access_error(cause, vma))) {