KVM: PPC: Book3S: Use new mutex to synchronize access to rtas token list
authorPaul Mackerras <paulus@ozlabs.org>
Wed, 29 May 2019 01:54:00 +0000 (11:54 +1000)
committerGreg Kroah-Hartman <gregkh@linuxfoundation.org>
Sat, 22 Jun 2019 06:17:23 +0000 (08:17 +0200)
[ Upstream commit 1659e27d2bc1ef47b6d031abe01b467f18cb72d9 ]

Currently the Book 3S KVM code uses kvm->lock to synchronize access
to the kvm->arch.rtas_tokens list.  Because this list is scanned
inside kvmppc_rtas_hcall(), which is called with the vcpu mutex held,
taking kvm->lock cause a lock inversion problem, which could lead to
a deadlock.

To fix this, we add a new mutex, kvm->arch.rtas_token_lock, which nests
inside the vcpu mutexes, and use that instead of kvm->lock when
accessing the rtas token list.

This removes the lockdep_assert_held() in kvmppc_rtas_tokens_free().
At this point we don't hold the new mutex, but that is OK because
kvmppc_rtas_tokens_free() is only called when the whole VM is being
destroyed, and at that point nothing can be looking up a token in
the list.

Signed-off-by: Paul Mackerras <paulus@ozlabs.org>
Signed-off-by: Sasha Levin <sashal@kernel.org>
arch/powerpc/include/asm/kvm_host.h
arch/powerpc/kvm/book3s.c
arch/powerpc/kvm/book3s_rtas.c

index 5e12e19..defa553 100644 (file)
@@ -271,6 +271,7 @@ struct kvm_arch {
 #ifdef CONFIG_PPC_BOOK3S_64
        struct list_head spapr_tce_tables;
        struct list_head rtas_tokens;
+       struct mutex rtas_token_lock;
        DECLARE_BITMAP(enabled_hcalls, MAX_HCALL_OPCODE/4 + 1);
 #endif
 #ifdef CONFIG_KVM_MPIC
index b6952dd..73c3c12 100644 (file)
@@ -811,6 +811,7 @@ int kvmppc_core_init_vm(struct kvm *kvm)
 #ifdef CONFIG_PPC64
        INIT_LIST_HEAD_RCU(&kvm->arch.spapr_tce_tables);
        INIT_LIST_HEAD(&kvm->arch.rtas_tokens);
+       mutex_init(&kvm->arch.rtas_token_lock);
 #endif
 
        return kvm->arch.kvm_ops->init_vm(kvm);
index ef27fbd..b1b2273 100644 (file)
@@ -133,7 +133,7 @@ static int rtas_token_undefine(struct kvm *kvm, char *name)
 {
        struct rtas_token_definition *d, *tmp;
 
-       lockdep_assert_held(&kvm->lock);
+       lockdep_assert_held(&kvm->arch.rtas_token_lock);
 
        list_for_each_entry_safe(d, tmp, &kvm->arch.rtas_tokens, list) {
                if (rtas_name_matches(d->handler->name, name)) {
@@ -154,7 +154,7 @@ static int rtas_token_define(struct kvm *kvm, char *name, u64 token)
        bool found;
        int i;
 
-       lockdep_assert_held(&kvm->lock);
+       lockdep_assert_held(&kvm->arch.rtas_token_lock);
 
        list_for_each_entry(d, &kvm->arch.rtas_tokens, list) {
                if (d->token == token)
@@ -193,14 +193,14 @@ int kvm_vm_ioctl_rtas_define_token(struct kvm *kvm, void __user *argp)
        if (copy_from_user(&args, argp, sizeof(args)))
                return -EFAULT;
 
-       mutex_lock(&kvm->lock);
+       mutex_lock(&kvm->arch.rtas_token_lock);
 
        if (args.token)
                rc = rtas_token_define(kvm, args.name, args.token);
        else
                rc = rtas_token_undefine(kvm, args.name);
 
-       mutex_unlock(&kvm->lock);
+       mutex_unlock(&kvm->arch.rtas_token_lock);
 
        return rc;
 }
@@ -232,7 +232,7 @@ int kvmppc_rtas_hcall(struct kvm_vcpu *vcpu)
        orig_rets = args.rets;
        args.rets = &args.args[be32_to_cpu(args.nargs)];
 
-       mutex_lock(&vcpu->kvm->lock);
+       mutex_lock(&vcpu->kvm->arch.rtas_token_lock);
 
        rc = -ENOENT;
        list_for_each_entry(d, &vcpu->kvm->arch.rtas_tokens, list) {
@@ -243,7 +243,7 @@ int kvmppc_rtas_hcall(struct kvm_vcpu *vcpu)
                }
        }
 
-       mutex_unlock(&vcpu->kvm->lock);
+       mutex_unlock(&vcpu->kvm->arch.rtas_token_lock);
 
        if (rc == 0) {
                args.rets = orig_rets;
@@ -269,8 +269,6 @@ void kvmppc_rtas_tokens_free(struct kvm *kvm)
 {
        struct rtas_token_definition *d, *tmp;
 
-       lockdep_assert_held(&kvm->lock);
-
        list_for_each_entry_safe(d, tmp, &kvm->arch.rtas_tokens, list) {
                list_del(&d->list);
                kfree(d);