KVM: arm64: Defer guest entry when an asynchronous exception is pending
authorJames Morse <james.morse@arm.com>
Tue, 18 Jun 2019 15:17:37 +0000 (16:17 +0100)
committerMarc Zyngier <marc.zyngier@arm.com>
Fri, 5 Jul 2019 12:03:30 +0000 (13:03 +0100)
SError that occur during world-switch's entry to the guest will be
accounted to the guest, as the exception is masked until we enter the
guest... but we want to attribute the SError as precisely as possible.

Reading DISR_EL1 before guest entry requires free registers, and using
ESB+DISR_EL1 to consume and read back the ESR would leave KVM holding
a host SError... We would rather leave the SError pending and let the
host take it once we exit world-switch. To do this, we need to defer
guest-entry if an SError is pending.

Read the ISR to see if SError (or an IRQ) is pending. If so fake an
exit. Place this check between __guest_enter()'s save of the host
registers, and restore of the guest's. SError that occur between
here and the eret into the guest must have affected the guest's
registers, which we can naturally attribute to the guest.

The dsb is needed to ensure any previous writes have been done before
we read ISR_EL1. On systems without the v8.2 RAS extensions this
doesn't give us anything as we can't contain errors, and the ESR bits
to describe the severity are all implementation-defined. Replace
this with a nop for these systems.

Signed-off-by: James Morse <james.morse@arm.com>
Signed-off-by: Marc Zyngier <marc.zyngier@arm.com>
arch/arm64/kvm/hyp/entry.S

index fb2e218..ebc8eb2 100644 (file)
@@ -6,6 +6,7 @@
 
 #include <linux/linkage.h>
 
+#include <asm/alternative.h>
 #include <asm/asm-offsets.h>
 #include <asm/assembler.h>
 #include <asm/fpsimdmacros.h>
@@ -52,6 +53,20 @@ ENTRY(__guest_enter)
        // Store the host regs
        save_callee_saved_regs x1
 
+       // Now the host state is stored if we have a pending RAS SError it must
+       // affect the host. If any asynchronous exception is pending we defer
+       // the guest entry. The DSB isn't necessary before v8.2 as any SError
+       // would be fatal.
+alternative_if ARM64_HAS_RAS_EXTN
+       dsb     nshst
+       isb
+alternative_else_nop_endif
+       mrs     x1, isr_el1
+       cbz     x1,  1f
+       mov     x0, #ARM_EXCEPTION_IRQ
+       ret
+
+1:
        add     x18, x0, #VCPU_CONTEXT
 
        // Macro ptrauth_switch_to_guest format: