x86: Fix leftover comment typos
authorIngo Molnar <mingo@kernel.org>
Wed, 12 May 2021 17:58:31 +0000 (19:58 +0200)
committerIngo Molnar <mingo@kernel.org>
Wed, 12 May 2021 18:00:51 +0000 (20:00 +0200)
Signed-off-by: Ingo Molnar <mingo@kernel.org>
arch/x86/hyperv/hv_init.c
arch/x86/include/asm/sgx.h
arch/x86/include/asm/stackprotector.h
arch/x86/kernel/kprobes/core.c
arch/x86/kvm/mmu/mmu.c
arch/x86/kvm/mmu/tdp_mmu.c

index bb0ae4b..256ad0e 100644 (file)
@@ -623,7 +623,7 @@ bool hv_query_ext_cap(u64 cap_query)
         * output parameter to the hypercall below and so it should be
         * compatible with 'virt_to_phys'. Which means, it's address should be
         * directly mapped. Use 'static' to keep it compatible; stack variables
-        * can be virtually mapped, making them imcompatible with
+        * can be virtually mapped, making them incompatible with
         * 'virt_to_phys'.
         * Hypercall input/output addresses should also be 8-byte aligned.
         */
index 9c31e0e..05f3e21 100644 (file)
@@ -13,7 +13,7 @@
 /*
  * This file contains both data structures defined by SGX architecture and Linux
  * defined software data structures and functions.  The two should not be mixed
- * together for better readibility.  The architectural definitions come first.
+ * together for better readability.  The architectural definitions come first.
  */
 
 /* The SGX specific CPUID function. */
index b6ffe58..24a8d6c 100644 (file)
@@ -11,7 +11,7 @@
  * The same segment is shared by percpu area and stack canary.  On
  * x86_64, percpu symbols are zero based and %gs (64-bit) points to the
  * base of percpu area.  The first occupant of the percpu area is always
- * fixed_percpu_data which contains stack_canary at the approproate
+ * fixed_percpu_data which contains stack_canary at the appropriate
  * offset.  On x86_32, the stack canary is just a regular percpu
  * variable.
  *
index d3d6554..7c4d073 100644 (file)
@@ -674,7 +674,7 @@ static int prepare_emulation(struct kprobe *p, struct insn *insn)
                        break;
 
                if (insn->addr_bytes != sizeof(unsigned long))
-                       return -EOPNOTSUPP;     /* Don't support differnt size */
+                       return -EOPNOTSUPP;     /* Don't support different size */
                if (X86_MODRM_MOD(opcode) != 3)
                        return -EOPNOTSUPP;     /* TODO: support memory addressing */
 
index 0144c40..5e60b00 100644 (file)
@@ -2374,7 +2374,7 @@ static int make_mmu_pages_available(struct kvm_vcpu *vcpu)
         * page is available, while the caller may end up allocating as many as
         * four pages, e.g. for PAE roots or for 5-level paging.  Temporarily
         * exceeding the (arbitrary by default) limit will not harm the host,
-        * being too agressive may unnecessarily kill the guest, and getting an
+        * being too aggressive may unnecessarily kill the guest, and getting an
         * exact count is far more trouble than it's worth, especially in the
         * page fault paths.
         */
index 95eeb5a..e09cb1f 100644 (file)
@@ -1017,7 +1017,7 @@ int kvm_tdp_mmu_map(struct kvm_vcpu *vcpu, gpa_t gpa, u32 error_code,
 
                if (!is_shadow_present_pte(iter.old_spte)) {
                        /*
-                        * If SPTE has been forzen by another thread, just
+                        * If SPTE has been frozen by another thread, just
                         * give up and retry, avoiding unnecessary page table
                         * allocation and free.
                         */