KVM: Fix some writing mistakes
authorMiaohe Lin <linmiaohe@huawei.com>
Wed, 11 Dec 2019 06:26:25 +0000 (14:26 +0800)
committerPaolo Bonzini <pbonzini@redhat.com>
Tue, 21 Jan 2020 12:57:44 +0000 (13:57 +0100)
Fix some writing mistakes in the comments.

Signed-off-by: Miaohe Lin <linmiaohe@huawei.com>
Signed-off-by: Paolo Bonzini <pbonzini@redhat.com>
arch/x86/include/asm/kvm_host.h
arch/x86/kvm/vmx/vmx.c
virt/kvm/kvm_main.c

index e2b7934..0b5c280 100644 (file)
@@ -611,7 +611,7 @@ struct kvm_vcpu_arch {
         * Paging state of an L2 guest (used for nested npt)
         *
         * This context will save all necessary information to walk page tables
-        * of the an L2 guest. This context is only initialized for page table
+        * of an L2 guest. This context is only initialized for page table
         * walking and not for faulting since we never handle l2 page faults on
         * the host.
         */
index 6f7774f..c2ced79 100644 (file)
@@ -1914,7 +1914,7 @@ static int vmx_get_msr(struct kvm_vcpu *vcpu, struct msr_data *msr_info)
 }
 
 /*
- * Writes msr value into into the appropriate "register".
+ * Writes msr value into the appropriate "register".
  * Returns 0 on success, non-0 otherwise.
  * Assumes vcpu_load() was already called.
  */
index f050127..1a6d5eb 100644 (file)
@@ -1519,7 +1519,7 @@ static inline int check_user_page_hwpoison(unsigned long addr)
 /*
  * The fast path to get the writable pfn which will be stored in @pfn,
  * true indicates success, otherwise false is returned.  It's also the
- * only part that runs if we can are in atomic context.
+ * only part that runs if we can in atomic context.
  */
 static bool hva_to_pfn_fast(unsigned long addr, bool write_fault,
                            bool *writable, kvm_pfn_t *pfn)