powerpc: fix typos in comments
authorJulia Lawall <Julia.Lawall@inria.fr>
Sat, 30 Apr 2022 18:56:54 +0000 (20:56 +0200)
committerMichael Ellerman <mpe@ellerman.id.au>
Thu, 5 May 2022 12:12:44 +0000 (22:12 +1000)
Various spelling mistakes in comments.
Detected with the help of Coccinelle.

Signed-off-by: Julia Lawall <Julia.Lawall@inria.fr>
Reviewed-by: Joel Stanley <joel@jms.id.au>
Signed-off-by: Michael Ellerman <mpe@ellerman.id.au>
Link: https://lore.kernel.org/r/20220430185654.5855-1-Julia.Lawall@inria.fr
83 files changed:
arch/powerpc/boot/cuboot-hotfoot.c
arch/powerpc/crypto/aes-spe-glue.c
arch/powerpc/kernel/cputable.c
arch/powerpc/kernel/dawr.c
arch/powerpc/kernel/eeh.c
arch/powerpc/kernel/eeh_event.c
arch/powerpc/kernel/fadump.c
arch/powerpc/kernel/module_32.c
arch/powerpc/kernel/module_64.c
arch/powerpc/kernel/pci-common.c
arch/powerpc/kernel/pci_of_scan.c
arch/powerpc/kernel/process.c
arch/powerpc/kernel/prom_init.c
arch/powerpc/kernel/ptrace/ptrace-view.c
arch/powerpc/kernel/rtas_flash.c
arch/powerpc/kernel/setup-common.c
arch/powerpc/kernel/signal_64.c
arch/powerpc/kernel/smp.c
arch/powerpc/kernel/time.c
arch/powerpc/kernel/watchdog.c
arch/powerpc/kexec/core_64.c
arch/powerpc/kvm/book3s_64_mmu_hv.c
arch/powerpc/kvm/book3s_64_vio_hv.c
arch/powerpc/kvm/book3s_emulate.c
arch/powerpc/kvm/book3s_hv_p9_entry.c
arch/powerpc/kvm/book3s_hv_uvmem.c
arch/powerpc/kvm/book3s_pr.c
arch/powerpc/kvm/book3s_xics.c
arch/powerpc/kvm/book3s_xive.c
arch/powerpc/kvm/e500mc.c
arch/powerpc/mm/book3s64/hash_pgtable.c
arch/powerpc/mm/book3s64/hash_utils.c
arch/powerpc/mm/book3s64/pgtable.c
arch/powerpc/mm/book3s64/radix_pgtable.c
arch/powerpc/mm/book3s64/radix_tlb.c
arch/powerpc/mm/book3s64/slb.c
arch/powerpc/mm/init_64.c
arch/powerpc/mm/nohash/book3e_hugetlbpage.c
arch/powerpc/mm/nohash/kaslr_booke.c
arch/powerpc/mm/pgtable-frag.c
arch/powerpc/perf/8xx-pmu.c
arch/powerpc/perf/core-book3s.c
arch/powerpc/perf/imc-pmu.c
arch/powerpc/perf/isa207-common.c
arch/powerpc/platforms/512x/clock-commonclk.c
arch/powerpc/platforms/512x/mpc512x_shared.c
arch/powerpc/platforms/52xx/mpc52xx_common.c
arch/powerpc/platforms/52xx/mpc52xx_gpt.c
arch/powerpc/platforms/52xx/mpc52xx_lpbfifo.c
arch/powerpc/platforms/85xx/mpc85xx_cds.c
arch/powerpc/platforms/86xx/gef_ppc9a.c
arch/powerpc/platforms/86xx/gef_sbc310.c
arch/powerpc/platforms/86xx/gef_sbc610.c
arch/powerpc/platforms/book3s/vas-api.c
arch/powerpc/platforms/cell/cbe_regs.c
arch/powerpc/platforms/cell/iommu.c
arch/powerpc/platforms/cell/spider-pci.c
arch/powerpc/platforms/cell/spu_manage.c
arch/powerpc/platforms/powermac/low_i2c.c
arch/powerpc/platforms/powernv/eeh-powernv.c
arch/powerpc/platforms/powernv/idle.c
arch/powerpc/platforms/powernv/ocxl.c
arch/powerpc/platforms/powernv/opal-fadump.c
arch/powerpc/platforms/powernv/opal-lpc.c
arch/powerpc/platforms/powernv/opal-memory-errors.c
arch/powerpc/platforms/powernv/pci-sriov.c
arch/powerpc/platforms/ps3/mm.c
arch/powerpc/platforms/ps3/system-bus.c
arch/powerpc/platforms/pseries/eeh_pseries.c
arch/powerpc/platforms/pseries/iommu.c
arch/powerpc/platforms/pseries/setup.c
arch/powerpc/platforms/pseries/vas-sysfs.c
arch/powerpc/platforms/pseries/vas.c
arch/powerpc/sysdev/fsl_lbc.c
arch/powerpc/sysdev/fsl_pci.c
arch/powerpc/sysdev/ge/ge_pic.c
arch/powerpc/sysdev/mpic_msgr.c
arch/powerpc/sysdev/mpic_msi.c
arch/powerpc/sysdev/mpic_timer.c
arch/powerpc/sysdev/mpic_u3msi.c
arch/powerpc/sysdev/xive/native.c
arch/powerpc/xmon/ppc-opc.c
arch/powerpc/xmon/xmon.c

index 888a6b9bfead2169b657119626874dac0c60e5d0..0e5532f855d619266cc935e14e54b763bc462d1c 100644 (file)
@@ -70,7 +70,7 @@ static void hotfoot_fixups(void)
 
                printf("Fixing devtree for 4M Flash\n");
                
-               /* First fix up the base addresse */
+               /* First fix up the base address */
                getprop(devp, "reg", regs, sizeof(regs));
                regs[0] = 0;
                regs[1] = 0xffc00000;
index c2b23b69d7b1dadf90936629cb39c18e7519c533..e8dfe9fb0266896a548899b71ae2e770b3da95b2 100644 (file)
@@ -404,7 +404,7 @@ static int ppc_xts_decrypt(struct skcipher_request *req)
 
 /*
  * Algorithm definitions. Disabling alignment (cra_alignmask=0) was chosen
- * because the e500 platform can handle unaligned reads/writes very efficently.
+ * because the e500 platform can handle unaligned reads/writes very efficiently.
  * This improves IPsec thoughput by another few percent. Additionally we assume
  * that AES context is always aligned to at least 8 bytes because it is created
  * with kmalloc() in the crypto infrastructure
index ae0fdef0ac1156c120c40ebc591c90898a13043f..2a271a6d692496a53ee5aded35ca9b4e44378779 100644 (file)
@@ -2025,7 +2025,7 @@ static struct cpu_spec * __init setup_cpu_spec(unsigned long offset,
                 * oprofile_cpu_type already has a value, then we are
                 * possibly overriding a real PVR with a logical one,
                 * and, in that case, keep the current value for
-                * oprofile_cpu_type. Futhermore, let's ensure that the
+                * oprofile_cpu_type. Furthermore, let's ensure that the
                 * fix for the PMAO bug is enabled on compatibility mode.
                 */
                if (old.oprofile_cpu_type != NULL) {
index 64e423d2fe0f113aa19d125c09da075c6cde21f4..30d4eca88d174d25743fed5198194b17c0e09ae2 100644 (file)
@@ -27,7 +27,7 @@ int set_dawr(int nr, struct arch_hw_breakpoint *brk)
        dawrx |= (brk->type & (HW_BRK_TYPE_PRIV_ALL)) >> 3;
        /*
         * DAWR length is stored in field MDR bits 48:53.  Matches range in
-        * doublewords (64 bits) baised by -1 eg. 0b000000=1DW and
+        * doublewords (64 bits) biased by -1 eg. 0b000000=1DW and
         * 0b111111=64DW.
         * brk->hw_len is in bytes.
         * This aligns up to double word size, shifts and does the bias.
index 28bb1e7263a6c6a3c8fffb9f285f5c0cdf881fae..ab316e155ea9f5f16b05cb9c6bab16c65057d317 100644 (file)
@@ -1329,7 +1329,7 @@ int eeh_pe_set_option(struct eeh_pe *pe, int option)
 
        /*
         * EEH functionality could possibly be disabled, just
-        * return error for the case. And the EEH functinality
+        * return error for the case. And the EEH functionality
         * isn't expected to be disabled on one specific PE.
         */
        switch (option) {
@@ -1804,7 +1804,7 @@ static int eeh_debugfs_break_device(struct pci_dev *pdev)
         *    PE freeze. Using the in_8() accessor skips the eeh detection hook
         *    so the freeze hook so the EEH Detection machinery won't be
         *    triggered here. This is to match the usual behaviour of EEH
-        *    where the HW will asyncronously freeze a PE and it's up to
+        *    where the HW will asynchronously freeze a PE and it's up to
         *    the kernel to notice and deal with it.
         *
         * 3. Turn Memory space back on. This is more important for VFs
index a7a8dc182efb98e741d90443f75bd53da15fac71..c23a454af08a8593d4bcd0101e4d9b1f3c25db45 100644 (file)
@@ -143,7 +143,7 @@ int __eeh_send_failure_event(struct eeh_pe *pe)
 int eeh_send_failure_event(struct eeh_pe *pe)
 {
        /*
-        * If we've manually supressed recovery events via debugfs
+        * If we've manually suppressed recovery events via debugfs
         * then just drop it on the floor.
         */
        if (eeh_debugfs_no_recover) {
index b59ee7053bba2a6caa54600039d317bbccec4e0c..a4f5bbda9715cd0585860fd9e9c417427cecc77a 100644 (file)
@@ -1671,8 +1671,8 @@ int __init setup_fadump(void)
 }
 /*
  * Use subsys_initcall_sync() here because there is dependency with
- * crash_save_vmcoreinfo_init(), which mush run first to ensure vmcoreinfo initialization
- * is done before regisering with f/w.
+ * crash_save_vmcoreinfo_init(), which must run first to ensure vmcoreinfo initialization
+ * is done before registering with f/w.
  */
 subsys_initcall_sync(setup_fadump);
 #else /* !CONFIG_PRESERVE_FA_DUMP */
index a0432ef46967efadb2daa0509cebd46e2968ecbf..e25b796682cc07ff55c526974562c59cad45597b 100644 (file)
@@ -99,7 +99,7 @@ static unsigned long get_plt_size(const Elf32_Ehdr *hdr,
 
                        /* Sort the relocation information based on a symbol and
                         * addend key. This is a stable O(n*log n) complexity
-                        * alogrithm but it will reduce the complexity of
+                        * algorithm but it will reduce the complexity of
                         * count_relocs() to linear complexity O(n)
                         */
                        sort((void *)hdr + sechdrs[i].sh_offset,
index 794720530442702f8bd0f6a46f6e40d755febf95..2cce576edbc543d64ce834082dc82bb1815decf8 100644 (file)
@@ -194,7 +194,7 @@ static unsigned long get_stubs_size(const Elf64_Ehdr *hdr,
 
                        /* Sort the relocation information based on a symbol and
                         * addend key. This is a stable O(n*log n) complexity
-                        * alogrithm but it will reduce the complexity of
+                        * algorithm but it will reduce the complexity of
                         * count_relocs() to linear complexity O(n)
                         */
                        sort((void *)sechdrs[i].sh_addr,
@@ -361,7 +361,7 @@ static inline int create_ftrace_stub(struct ppc64_stub_entry *entry,
        entry->jump[1] |= PPC_HA(reladdr);
        entry->jump[2] |= PPC_LO(reladdr);
 
-       /* Eventhough we don't use funcdata in the stub, it's needed elsewhere. */
+       /* Even though we don't use funcdata in the stub, it's needed elsewhere. */
        entry->funcdata = func_desc(addr);
        entry->magic = STUB_MAGIC;
 
index 8bc9cf62cd93d55a2e78d8e3e2bbf41e5afbdd5b..9a97a93bd11cc98b49c1e9d0a434cc147e184f81 100644 (file)
@@ -1688,7 +1688,7 @@ EXPORT_SYMBOL_GPL(pcibios_scan_phb);
 static void fixup_hide_host_resource_fsl(struct pci_dev *dev)
 {
        int i, class = dev->class >> 8;
-       /* When configured as agent, programing interface = 1 */
+       /* When configured as agent, programming interface = 1 */
        int prog_if = dev->class & 0xf;
 
        if ((class == PCI_CLASS_PROCESSOR_POWERPC ||
index c3024f1047654c3a9ef774a2ab1395407032cf15..6f2b0cc1ddd6fe220da3beaed17b5a80b6a97393 100644 (file)
@@ -244,7 +244,7 @@ EXPORT_SYMBOL(of_create_pci_dev);
  * @dev: pci_dev structure for the bridge
  *
  * of_scan_bus() calls this routine for each PCI bridge that it finds, and
- * this routine in turn call of_scan_bus() recusively to scan for more child
+ * this routine in turn call of_scan_bus() recursively to scan for more child
  * devices.
  */
 void of_scan_pci_bridge(struct pci_dev *dev)
index e7f809bdd43343761e9a6ddc56804739772fff13..d92fb53dab5659737a86600f22c202b724b81d25 100644 (file)
@@ -305,7 +305,7 @@ static void __giveup_vsx(struct task_struct *tsk)
        unsigned long msr = tsk->thread.regs->msr;
 
        /*
-        * We should never be ssetting MSR_VSX without also setting
+        * We should never be setting MSR_VSX without also setting
         * MSR_FP and MSR_VEC
         */
        WARN_ON((msr & MSR_VSX) && !((msr & MSR_FP) && (msr & MSR_VEC)));
@@ -643,7 +643,7 @@ static void do_break_handler(struct pt_regs *regs)
                return;
        }
 
-       /* Otherwise findout which DAWR caused exception and disable it. */
+       /* Otherwise find out which DAWR caused exception and disable it. */
        wp_get_instr_detail(regs, &instr, &type, &size, &ea);
 
        for (i = 0; i < nr_wp_slots(); i++) {
index 0ac5faacc909cac6497a7aa14c113bd9dbc7037b..ace861ec4c4c6d145af9702f90cffef3b31d664f 100644 (file)
@@ -3416,7 +3416,7 @@ unsigned long __init prom_init(unsigned long r3, unsigned long r4,
         *
         * PowerMacs use a different mechanism to spin CPUs
         *
-        * (This must be done after instanciating RTAS)
+        * (This must be done after instantiating RTAS)
         */
        if (of_platform != PLATFORM_POWERMAC)
                prom_hold_cpus();
index f15bc78caf7188278eca0074b61f1053b9563086..076d867412c70d52bf7bdf7968b097ed94de9268 100644 (file)
@@ -174,7 +174,7 @@ int ptrace_get_reg(struct task_struct *task, int regno, unsigned long *data)
 
        /*
         * softe copies paca->irq_soft_mask variable state. Since irq_soft_mask is
-        * no more used as a flag, lets force usr to alway see the softe value as 1
+        * no more used as a flag, lets force usr to always see the softe value as 1
         * which means interrupts are not soft disabled.
         */
        if (IS_ENABLED(CONFIG_PPC64) && regno == PT_SOFTE) {
index a99179d835382f1c1d6a3ea408cb593ef93f4a39..bc817a5619d6412c81832574f3b5062605b9e839 100644 (file)
@@ -120,7 +120,7 @@ static struct kmem_cache *flash_block_cache = NULL;
 /*
  * Local copy of the flash block list.
  *
- * The rtas_firmware_flash_list varable will be
+ * The rtas_firmware_flash_list variable will be
  * set once the data is fully read.
  *
  * For convenience as we build the list we use virtual addrs,
index 518ae5aa94109603c5943b2254b881baa7ec74ee..3acf2782acdf2cb845b4e3b9bbb065acdaff4395 100644 (file)
@@ -279,7 +279,7 @@ static int show_cpuinfo(struct seq_file *m, void *v)
                           proc_freq / 1000000, proc_freq % 1000000);
 
        /* If we are a Freescale core do a simple check so
-        * we dont have to keep adding cases in the future */
+        * we don't have to keep adding cases in the future */
        if (PVR_VER(pvr) & 0x8000) {
                switch (PVR_VER(pvr)) {
                case 0x8000:    /* 7441/7450/7451, Voyager */
index 73d483b07ff39e9ba5f251a4be3cbb8e9d44db96..858fc13b8c5196a0ca6df202b655e096cd5e69cc 100644 (file)
@@ -123,7 +123,7 @@ static long notrace __unsafe_setup_sigcontext(struct sigcontext __user *sc,
 #endif
        struct pt_regs *regs = tsk->thread.regs;
        unsigned long msr = regs->msr;
-       /* Force usr to alway see softe as 1 (interrupts enabled) */
+       /* Force usr to always see softe as 1 (interrupts enabled) */
        unsigned long softe = 0x1;
 
        BUG_ON(tsk != current);
index de0f6f09a5ddc947a8cddd2e1a1e9a1950b7cf9a..a69df557e2b7106f87124e000c2dfa2bc0b8ea2a 100644 (file)
@@ -1102,7 +1102,7 @@ void __init smp_prepare_cpus(unsigned int max_cpus)
        DBG("smp_prepare_cpus\n");
 
        /* 
-        * setup_cpu may need to be called on the boot cpu. We havent
+        * setup_cpu may need to be called on the boot cpu. We haven't
         * spun any cpus up but lets be paranoid.
         */
        BUG_ON(boot_cpuid != smp_processor_id());
index 6d97f9e586f02a8f7353dd77912785543aee572a..e334de41b408b5f81cb67683504e6c9ca958de30 100644 (file)
@@ -828,7 +828,7 @@ static void __read_persistent_clock(struct timespec64 *ts)
        static int first = 1;
 
        ts->tv_nsec = 0;
-       /* XXX this is a litle fragile but will work okay in the short term */
+       /* XXX this is a little fragile but will work okay in the short term */
        if (first) {
                first = 0;
                if (ppc_md.time_init)
@@ -973,7 +973,7 @@ void secondary_cpu_time_init(void)
         */
        start_cpu_decrementer();
 
-       /* FIME: Should make unrelatred change to move snapshot_timebase
+       /* FIME: Should make unrelated change to move snapshot_timebase
         * call here ! */
        register_decrementer_clockevent(smp_processor_id());
 }
index bfc27496fe7e25dbf0ca4b92ebe7c46eab0a6ccd..7d28b95536540bae5f2271fb0c2b8c327ccaa633 100644 (file)
@@ -56,7 +56,7 @@
  * solved by also having a SMP watchdog where all CPUs check all other
  * CPUs heartbeat.
  *
- * The SMP checker can detect lockups on other CPUs. A gobal "pending"
+ * The SMP checker can detect lockups on other CPUs. A global "pending"
  * cpumask is kept, containing all CPUs which enable the watchdog. Each
  * CPU clears their pending bit in their heartbeat timer. When the bitmask
  * becomes empty, the last CPU to clear its pending bit updates a global
index 6cc7793b8420c81255cd692c7eaaf468487fe496..c29c639551fe032f61299a2e7b16bc859cbaf770 100644 (file)
@@ -406,7 +406,7 @@ static int __init export_htab_values(void)
        if (!node)
                return -ENODEV;
 
-       /* remove any stale propertys so ours can be found */
+       /* remove any stale properties so ours can be found */
        of_remove_property(node, of_find_property(node, htab_base_prop.name, NULL));
        of_remove_property(node, of_find_property(node, htab_size_prop.name, NULL));
 
index 0aeb51738ca9b2d8e0966c291a3d6b19bf84d87a..1137c4df726c3b821f48a8ef5bb887d86fedae77 100644 (file)
@@ -58,7 +58,7 @@ struct kvm_resize_hpt {
        /* Possible values and their usage:
         *  <0     an error occurred during allocation,
         *  -EBUSY allocation is in the progress,
-        *  0      allocation made successfuly.
+        *  0      allocation made successfully.
         */
        int error;
 
index fdeda6a9cff449b1a13cc45a05ae1629183b13b3..fdcc7b287dd8fd34dd27a793230fd3f3452c1137 100644 (file)
@@ -453,7 +453,7 @@ static long kvmppc_rm_ua_to_hpa(struct kvm_vcpu *vcpu, unsigned long mmu_seq,
         * we are doing this on secondary cpus and current task there
         * is not the hypervisor. Also this is safe against THP in the
         * host, because an IPI to primary thread will wait for the secondary
-        * to exit which will agains result in the below page table walk
+        * to exit which will again result in the below page table walk
         * to finish.
         */
        /* an rmap lock won't make it safe. because that just ensure hash
index fdb57be71aa659542d5e4195e3904bc66ec52a92..5bbfb2eed1277f2ec6257dc8aee469ceac503e5c 100644 (file)
@@ -268,7 +268,7 @@ int kvmppc_core_emulate_op_pr(struct kvm_vcpu *vcpu,
 
                        /*
                         * add rules to fit in ISA specification regarding TM
-                        * state transistion in TM disable/Suspended state,
+                        * state transition in TM disable/Suspended state,
                         * and target TM state is TM inactive(00) state. (the
                         * change should be suppressed).
                         */
index a28e5b3daabdfefa742cb6a900d81d21312aa85c..ac38c1cad378d5d38a5008720262708e0d73b267 100644 (file)
@@ -379,7 +379,7 @@ void restore_p9_host_os_sprs(struct kvm_vcpu *vcpu,
 {
        /*
         * current->thread.xxx registers must all be restored to host
-        * values before a potential context switch, othrewise the context
+        * values before a potential context switch, otherwise the context
         * switch itself will overwrite current->thread.xxx with the values
         * from the guest SPRs.
         */
index 45c993dd05f5ef87b52d256165c3a6b7e86e8284..0f66f7fbfb8086d4ae553c66f65276f6bc3a38f3 100644 (file)
@@ -120,7 +120,7 @@ static DEFINE_SPINLOCK(kvmppc_uvmem_bitmap_lock);
  *     content is un-encrypted.
  *
  * (c) Normal - The GFN is a normal. The GFN is associated with
- *     a normal VM. The contents of the GFN is accesible to
+ *     a normal VM. The contents of the GFN is accessible to
  *     the Hypervisor. Its content is never encrypted.
  *
  * States of a VM.
index 7bf9e6ca5c2df60506bb2225a92c1914c71d5b26..d6abed6e51e6995a66df51b59d544fce56a6dfee 100644 (file)
@@ -1287,7 +1287,7 @@ int kvmppc_handle_exit_pr(struct kvm_vcpu *vcpu, unsigned int exit_nr)
 
                /* Get last sc for papr */
                if (vcpu->arch.papr_enabled) {
-                       /* The sc instuction points SRR0 to the next inst */
+                       /* The sc instruction points SRR0 to the next inst */
                        emul = kvmppc_get_last_inst(vcpu, INST_SC, &last_sc);
                        if (emul != EMULATE_DONE) {
                                kvmppc_set_pc(vcpu, kvmppc_get_pc(vcpu) - 4);
index ab6d37d78c62d4efa8047d7d0b8f1ea136e7fbb7..589a8f2571201ce56897afbf28078cb8a23ca713 100644 (file)
@@ -462,7 +462,7 @@ static void icp_deliver_irq(struct kvmppc_xics *xics, struct kvmppc_icp *icp,
         * new guy. We cannot assume that the rejected interrupt is less
         * favored than the new one, and thus doesn't need to be delivered,
         * because by the time we exit icp_try_to_deliver() the target
-        * processor may well have alrady consumed & completed it, and thus
+        * processor may well have already consumed & completed it, and thus
         * the rejected interrupt might actually be already acceptable.
         */
        if (icp_try_to_deliver(icp, new_irq, state->priority, &reject)) {
index c0ce5531d9bcb7461db6f7c8a68e2c6a6014009b..24d434f1f012cdf63532db800cf457a42fb7383e 100644 (file)
@@ -124,7 +124,7 @@ void kvmppc_xive_push_vcpu(struct kvm_vcpu *vcpu)
                 * interrupt might have fired and be on its way to the
                 * host queue while we mask it, and if we unmask it
                 * early enough (re-cede right away), there is a
-                * theorical possibility that it fires again, thus
+                * theoretical possibility that it fires again, thus
                 * landing in the target queue more than once which is
                 * a big no-no.
                 *
@@ -622,7 +622,7 @@ static int xive_target_interrupt(struct kvm *kvm,
 
 /*
  * Targetting rules: In order to avoid losing track of
- * pending interrupts accross mask and unmask, which would
+ * pending interrupts across mask and unmask, which would
  * allow queue overflows, we implement the following rules:
  *
  *  - Unless it was never enabled (or we run out of capacity)
@@ -1073,7 +1073,7 @@ int kvmppc_xive_clr_mapped(struct kvm *kvm, unsigned long guest_irq,
        /*
         * If old_p is set, the interrupt is pending, we switch it to
         * PQ=11. This will force a resend in the host so the interrupt
-        * isn't lost to whatver host driver may pick it up
+        * isn't lost to whatever host driver may pick it up
         */
        if (state->old_p)
                xive_vm_esb_load(state->pt_data, XIVE_ESB_SET_PQ_11);
index fa0d8dbbe48411c28703e0577518ed984ad96d66..4ff1372e48d40292e8bfe0d2d2b11689da20359f 100644 (file)
@@ -309,7 +309,7 @@ static int kvmppc_core_vcpu_create_e500mc(struct kvm_vcpu *vcpu)
        BUILD_BUG_ON(offsetof(struct kvmppc_vcpu_e500, vcpu) != 0);
        vcpu_e500 = to_e500(vcpu);
 
-       /* Invalid PIR value -- this LPID dosn't have valid state on any cpu */
+       /* Invalid PIR value -- this LPID doesn't have valid state on any cpu */
        vcpu->arch.oldpir = 0xffffffff;
 
        err = kvmppc_e500_tlb_init(vcpu_e500);
index 7ce8914992e3f5fdd14f463144bbf91cf1606433..2e0cad5817bafe7480e556e421819f69bbf90465 100644 (file)
@@ -377,7 +377,7 @@ int hash__has_transparent_hugepage(void)
        if (mmu_psize_defs[MMU_PAGE_16M].shift != PMD_SHIFT)
                return 0;
        /*
-        * We need to make sure that we support 16MB hugepage in a segement
+        * We need to make sure that we support 16MB hugepage in a segment
         * with base page size 64K or 4K. We only enable THP with a PAGE_SIZE
         * of 64K.
         */
index 72a3eca02449d350f57b678a4c0a8765a6c2244c..20662d378fd4dd77418e7bdc1f9acb02d722e512 100644 (file)
@@ -1338,7 +1338,7 @@ static int subpage_protection(struct mm_struct *mm, unsigned long ea)
        spp >>= 30 - 2 * ((ea >> 12) & 0xf);
 
        /*
-        * 0 -> full premission
+        * 0 -> full permission
         * 1 -> Read only
         * 2 -> no access.
         * We return the flag that need to be cleared.
@@ -1659,7 +1659,7 @@ DEFINE_INTERRUPT_HANDLER(do_hash_fault)
 
        err = hash_page_mm(mm, ea, access, TRAP(regs), flags);
        if (unlikely(err < 0)) {
-               // failed to instert a hash PTE due to an hypervisor error
+               // failed to insert a hash PTE due to an hypervisor error
                if (user_mode(regs)) {
                        if (IS_ENABLED(CONFIG_PPC_SUBPAGE_PROT) && err == -2)
                                _exception(SIGSEGV, regs, SEGV_ACCERR, ea);
index 052e6590f84fb95410f4e407045365184ef515ee..071bb66c3ad9effdc52024a8e1f87b637c6cc27a 100644 (file)
@@ -331,7 +331,7 @@ static pmd_t *__alloc_for_pmdcache(struct mm_struct *mm)
        spin_lock(&mm->page_table_lock);
        /*
         * If we find pgtable_page set, we return
-        * the allocated page with single fragement
+        * the allocated page with single fragment
         * count.
         */
        if (likely(!mm->context.pmd_frag)) {
index def04631a74d525322170fb36e06dc10d2b4b09e..db2f3d193448176fe2c3c142795a3fd3cc466204 100644 (file)
@@ -359,7 +359,7 @@ static void __init radix_init_pgtable(void)
        if (!cpu_has_feature(CPU_FTR_HVMODE) &&
                        cpu_has_feature(CPU_FTR_P9_RADIX_PREFETCH_BUG)) {
                /*
-                * Older versions of KVM on these machines perfer if the
+                * Older versions of KVM on these machines prefer if the
                 * guest only uses the low 19 PID bits.
                 */
                mmu_pid_bits = 19;
index 7724af19ed7e68da9e4fd23767359b098e6832bf..dda51fef2d2ec4e10a1e15aa33e27afc8010c860 100644 (file)
@@ -397,7 +397,7 @@ static inline void _tlbie_pid(unsigned long pid, unsigned long ric)
 
        /*
         * Workaround the fact that the "ric" argument to __tlbie_pid
-        * must be a compile-time contraint to match the "i" constraint
+        * must be a compile-time constraint to match the "i" constraint
         * in the asm statement.
         */
        switch (ric) {
index 81091b9587f6206e6857d7f3b5e8d88e64a7d737..6956f637a38c1062c05081bc3ad045b321563ddd 100644 (file)
@@ -347,7 +347,7 @@ void slb_setup_new_exec(void)
        /*
         * We have no good place to clear the slb preload cache on exec,
         * flush_thread is about the earliest arch hook but that happens
-        * after we switch to the mm and have aleady preloaded the SLBEs.
+        * after we switch to the mm and have already preloaded the SLBEs.
         *
         * For the most part that's probably okay to use entries from the
         * previous exec, they will age out if unused. It may turn out to
@@ -615,7 +615,7 @@ static void slb_cache_update(unsigned long esid_data)
        } else {
                /*
                 * Our cache is full and the current cache content strictly
-                * doesn't indicate the active SLB conents. Bump the ptr
+                * doesn't indicate the active SLB contents. Bump the ptr
                 * so that switch_slb() will ignore the cache.
                 */
                local_paca->slb_cache_ptr = SLB_CACHE_ENTRIES + 1;
index 83c0ee9fbf05bc9ac7f72da02499065a61877cdf..2e11952057f8c25b23ecdd2da7fc7f641b12084b 100644 (file)
@@ -111,7 +111,7 @@ static int __meminit vmemmap_populated(unsigned long vmemmap_addr, int vmemmap_m
 }
 
 /*
- * vmemmap virtual address space management does not have a traditonal page
+ * vmemmap virtual address space management does not have a traditional page
  * table to track which virtual struct pages are backed by physical mapping.
  * The virtual to physical mappings are tracked in a simple linked list
  * format. 'vmemmap_list' maintains the entire vmemmap physical mapping at
@@ -128,7 +128,7 @@ static struct vmemmap_backing *next;
 
 /*
  * The same pointer 'next' tracks individual chunks inside the allocated
- * full page during the boot time and again tracks the freeed nodes during
+ * full page during the boot time and again tracks the freed nodes during
  * runtime. It is racy but it does not happen as they are separated by the
  * boot process. Will create problem if some how we have memory hotplug
  * operation during boot !!
index 8b88be91b622ab3922772523b91c89e15b4a67e0..307ca919d393052a38c27cc21950d4e5cfb58a9e 100644 (file)
@@ -142,7 +142,7 @@ book3e_hugetlb_preload(struct vm_area_struct *vma, unsigned long ea, pte_t pte)
        tsize = shift - 10;
        /*
         * We can't be interrupted while we're setting up the MAS
-        * regusters or after we've confirmed that no tlb exists.
+        * registers or after we've confirmed that no tlb exists.
         */
        local_irq_save(flags);
 
index 96c38f971603fc5adbeb956629dc31f70760f310..636ec583d9892d7072552ff26faa0016fac082a3 100644 (file)
@@ -315,7 +315,7 @@ static unsigned long __init kaslr_choose_location(void *dt_ptr, phys_addr_t size
        ram = map_mem_in_cams(ram, CONFIG_LOWMEM_CAM_NUM, true, true);
        linear_sz = min_t(unsigned long, ram, SZ_512M);
 
-       /* If the linear size is smaller than 64M, do not randmize */
+       /* If the linear size is smaller than 64M, do not randomize */
        if (linear_sz < SZ_64M)
                return 0;
 
index 97ae4935da79905a9134ba0198a7397867ed3c9c..20652daa1d7e3ab154b1f2fcd1782b6901c81a01 100644 (file)
@@ -83,7 +83,7 @@ static pte_t *__alloc_for_ptecache(struct mm_struct *mm, int kernel)
        spin_lock(&mm->page_table_lock);
        /*
         * If we find pgtable_page set, we return
-        * the allocated page with single fragement
+        * the allocated page with single fragment
         * count.
         */
        if (likely(!pte_frag_get(&mm->context))) {
index 4738c4dbf5676c2a46fc54dbce44a0911d2cbd34..308a2e40d7be9992624b15c40ce85bfdf4df5dd0 100644 (file)
@@ -157,7 +157,7 @@ static void mpc8xx_pmu_del(struct perf_event *event, int flags)
 
        mpc8xx_pmu_read(event);
 
-       /* If it was the last user, stop counting to avoid useles overhead */
+       /* If it was the last user, stop counting to avoid useless overhead */
        switch (event_type(event)) {
        case PERF_8xx_ID_CPU_CYCLES:
                break;
index b5b42cf0a7039d46601026b173ff1869af2a1400..140502a7fdf861d6f20ac999987a81caeea4e879 100644 (file)
@@ -1142,7 +1142,7 @@ static u64 check_and_compute_delta(u64 prev, u64 val)
        /*
         * POWER7 can roll back counter values, if the new value is smaller
         * than the previous value it will cause the delta and the counter to
-        * have bogus values unless we rolled a counter over.  If a coutner is
+        * have bogus values unless we rolled a counter over.  If a counter is
         * rolled back, it will be smaller, but within 256, which is the maximum
         * number of events to rollback at once.  If we detect a rollback
         * return 0.  This can lead to a small lack of precision in the
@@ -2057,7 +2057,7 @@ static int power_pmu_event_init(struct perf_event *event)
        /*
         * PMU config registers have fields that are
         * reserved and some specific values for bit fields are reserved.
-        * For ex., MMCRA[61:62] is Randome Sampling Mode (SM)
+        * For ex., MMCRA[61:62] is Random Sampling Mode (SM)
         * and value of 0b11 to this field is reserved.
         * Check for invalid values in attr.config.
         */
@@ -2447,7 +2447,7 @@ static void __perf_event_interrupt(struct pt_regs *regs)
        }
 
        /*
-        * During system wide profling or while specific CPU is monitored for an
+        * During system wide profiling or while specific CPU is monitored for an
         * event, some corner cases could cause PMC to overflow in idle path. This
         * will trigger a PMI after waking up from idle. Since counter values are _not_
         * saved/restored in idle path, can lead to below "Can't find PMC" message.
index 526d4b767534c28217efe6944ff95a12a92a6de2..498f1a2f7658cbda54848dc52d0763cc7b464d40 100644 (file)
@@ -521,7 +521,7 @@ static int nest_imc_event_init(struct perf_event *event)
 
        /*
         * Nest HW counter memory resides in a per-chip reserve-memory (HOMER).
-        * Get the base memory addresss for this cpu.
+        * Get the base memory address for this cpu.
         */
        chip_id = cpu_to_chip_id(event->cpu);
 
@@ -674,7 +674,7 @@ static int ppc_core_imc_cpu_offline(unsigned int cpu)
        /*
         * Check whether core_imc is registered. We could end up here
         * if the cpuhotplug callback registration fails. i.e, callback
-        * invokes the offline path for all sucessfully registered cpus.
+        * invokes the offline path for all successfully registered cpus.
         * At this stage, core_imc pmu will not be registered and we
         * should return here.
         *
index a74d382ecbb77f4e8f842e7c12857aa7c65a4143..839cc68212c18c6131e86c84508ec87c21ca2d6c 100644 (file)
@@ -82,11 +82,11 @@ static unsigned long sdar_mod_val(u64 event)
 static void mmcra_sdar_mode(u64 event, unsigned long *mmcra)
 {
        /*
-        * MMCRA[SDAR_MODE] specifices how the SDAR should be updated in
-        * continous sampling mode.
+        * MMCRA[SDAR_MODE] specifies how the SDAR should be updated in
+        * continuous sampling mode.
         *
         * Incase of Power8:
-        * MMCRA[SDAR_MODE] will be programmed as "0b01" for continous sampling
+        * MMCRA[SDAR_MODE] will be programmed as "0b01" for continuous sampling
         * mode and will be un-changed when setting MMCRA[63] (Marked events).
         *
         * Incase of Power9/power10:
index 0b03d812baae5bb82a4b83a8641e03060aefd840..0652c7e6922560ccb75955f211735944388d3b6d 100644 (file)
@@ -663,7 +663,7 @@ static void __init mpc512x_clk_setup_mclk(struct mclk_setup_data *entry, size_t
         *   the PSC/MSCAN/SPDIF (serial drivers et al) need the MCLK
         *   for their bitrate
         * - in the absence of "aliases" for clocks we need to create
-        *   individial 'struct clk' items for whatever might get
+        *   individual 'struct clk' items for whatever might get
         *   referenced or looked up, even if several of those items are
         *   identical from the logical POV (their rate value)
         * - for easier future maintenance and for better reflection of
index e3411663edadb7c3251d539dd71221ee2144a928..96d9cf49560d951304a14aa17e51cecc06c1717c 100644 (file)
@@ -289,7 +289,7 @@ static void __init mpc512x_setup_diu(void)
 
        /*
         * We do not allocate and configure new area for bitmap buffer
-        * because it would requere copying bitmap data (splash image)
+        * because it would require copying bitmap data (splash image)
         * and so negatively affect boot time. Instead we reserve the
         * already configured frame buffer area so that it won't be
         * destroyed. The starting address of the area to reserve and
index 565e3a83dc9ee1c1d0dc5de9dbc73d711d97fc05..60aa6015e284bc784b409a7e37d47abb5a2ba92b 100644 (file)
@@ -308,7 +308,7 @@ int mpc5200_psc_ac97_gpio_reset(int psc_number)
 
        spin_lock_irqsave(&gpio_lock, flags);
 
-       /* Reconfiure pin-muxing to gpio */
+       /* Reconfigure pin-muxing to gpio */
        mux = in_be32(&simple_gpio->port_config);
        out_be32(&simple_gpio->port_config, mux & (~gpio));
 
index 0cb248269db75cdafad2affd72a1584f57b78b04..03e9bf7c077376f36cffda275a5121f069ba1ffc 100644 (file)
@@ -398,7 +398,7 @@ static int mpc52xx_gpt_do_start(struct mpc52xx_gpt_priv *gpt, u64 period,
                set |= MPC52xx_GPT_MODE_CONTINUOUS;
 
        /* Determine the number of clocks in the requested period.  64 bit
-        * arithmatic is done here to preserve the precision until the value
+        * arithmetic is done here to preserve the precision until the value
         * is scaled back down into the u32 range.  Period is in 'ns', bus
         * frequency is in Hz. */
        clocks = period * (u64)gpt->ipb_freq;
index b91ebebd9ff20e70da9a38f1c3477215ec80ae0b..54dfc63809d31bad2f914acd0cc25fdddc08c7a0 100644 (file)
@@ -104,7 +104,7 @@ static void mpc52xx_lpbfifo_kick(struct mpc52xx_lpbfifo_request *req)
                 *
                 * Configure the watermarks so DMA will always complete correctly.
                 * It may be worth experimenting with the ALARM value to see if
-                * there is a performance impacit.  However, if it is wrong there
+                * there is a performance impact.  However, if it is wrong there
                 * is a risk of DMA not transferring the last chunk of data
                 */
                if (write) {
index 5bd48703025649c37d37874f31dbbf4958caf542..ad0b88ecfd0ca74c640df2d216e51ecab83b0ee6 100644 (file)
@@ -151,7 +151,7 @@ static void __init mpc85xx_cds_pci_irq_fixup(struct pci_dev *dev)
                 */
                case PCI_DEVICE_ID_VIA_82C586_2:
                /* There are two USB controllers.
-                * Identify them by functon number
+                * Identify them by function number
                 */
                        if (PCI_FUNC(dev->devfn) == 3)
                                dev->irq = 11;
index 44bbbc535e1df7a7a9a98bd3743541f1348b62ae..884da08806ce3013b67f692478b30faee9efc39c 100644 (file)
@@ -180,7 +180,7 @@ DECLARE_PCI_FIXUP_HEADER(PCI_VENDOR_ID_NEC, PCI_DEVICE_ID_NEC_USB,
  *
  * This function is called to determine whether the BSP is compatible with the
  * supplied device-tree, which is assumed to be the correct one for the actual
- * board. It is expected thati, in the future, a kernel may support multiple
+ * board. It is expected that, in the future, a kernel may support multiple
  * boards.
  */
 static int __init gef_ppc9a_probe(void)
index 46d6d3d4957a49115c7f4469d3bd3153cbb93c21..baaf1ab07016546b1ebd937cad6926987dd1da08 100644 (file)
@@ -167,7 +167,7 @@ DECLARE_PCI_FIXUP_HEADER(PCI_VENDOR_ID_NEC, PCI_DEVICE_ID_NEC_USB,
  *
  * This function is called to determine whether the BSP is compatible with the
  * supplied device-tree, which is assumed to be the correct one for the actual
- * board. It is expected thati, in the future, a kernel may support multiple
+ * board. It is expected that, in the future, a kernel may support multiple
  * boards.
  */
 static int __init gef_sbc310_probe(void)
index acf2c6c3c1eb79d7e8ed69e480bd76af1cf089a1..120caf6af71d2db7ed3a10846915acb25e1d1e96 100644 (file)
@@ -157,7 +157,7 @@ DECLARE_PCI_FIXUP_HEADER(PCI_VENDOR_ID_NEC, PCI_DEVICE_ID_NEC_USB,
  *
  * This function is called to determine whether the BSP is compatible with the
  * supplied device-tree, which is assumed to be the correct one for the actual
- * board. It is expected thati, in the future, a kernel may support multiple
+ * board. It is expected that, in the future, a kernel may support multiple
  * boards.
  */
 static int __init gef_sbc610_probe(void)
index f9a1615b74daed8bcf0120bf4b76dc41a04b6bf6..c0799fb26b6d6080a3c0f638f70eafd716af53ed 100644 (file)
@@ -30,7 +30,7 @@
  *
  * where "vas_copy" and "vas_paste" are defined in copy-paste.h.
  * copy/paste returns to the user space directly. So refer NX hardware
- * documententation for exact copy/paste usage and completion / error
+ * documentation for exact copy/paste usage and completion / error
  * conditions.
  */
 
index 1c4c53bec66c1aa38ac5578f7e30aa77f3ae26ab..03512a41bd7e2cd2ccf55ff6c08b764ad6cffb2a 100644 (file)
@@ -23,7 +23,7 @@
  * Current implementation uses "cpu" nodes. We build our own mapping
  * array of cpu numbers to cpu nodes locally for now to allow interrupt
  * time code to have a fast path rather than call of_get_cpu_node(). If
- * we implement cpu hotplug, we'll have to install an appropriate norifier
+ * we implement cpu hotplug, we'll have to install an appropriate notifier
  * in order to release references to the cpu going away
  */
 static struct cbe_regs_map
index 25e726bf01727104f4f475fa5b01dc79c63fb22f..3f141cf5e580d7e3e01750d6152b5a869257d414 100644 (file)
@@ -582,7 +582,7 @@ static int cell_of_bus_notify(struct notifier_block *nb, unsigned long action,
 {
        struct device *dev = data;
 
-       /* We are only intereted in device addition */
+       /* We are only interested in device addition */
        if (action != BUS_NOTIFY_ADD_DEVICE)
                return 0;
 
index a1c293f42a1fb131d06d6cfd51fe91e229325e2e..3a2ea8376e3223e8e3ac2a9885f8c065dea8c41b 100644 (file)
@@ -81,7 +81,7 @@ static int __init spiderpci_pci_setup_chip(struct pci_controller *phb,
        /*
         * On CellBlade, we can't know that which XDR memory is used by
         * kmalloc() to allocate dummy_page_va.
-        * In order to imporve the performance, the XDR which is used to
+        * In order to improve the performance, the XDR which is used to
         * allocate dummy_page_va is the nearest the spider-pci.
         * We have to select the CBE which is the nearest the spider-pci
         * to allocate memory from the best XDR, but I don't know that
index ddf8742f09a3e8ff3ab4dd914d4078eee95da336..080ed2d2c6829f4ecda43bd7cbd9043c8073348a 100644 (file)
@@ -457,7 +457,7 @@ static void __init init_affinity_node(int cbe)
 
                /*
                 * Walk through each phandle in vicinity property of the spu
-                * (tipically two vicinity phandles per spe node)
+                * (typically two vicinity phandles per spe node)
                 */
                for (i = 0; i < (lenp / sizeof(phandle)); i++) {
                        if (vic_handles[i] == avoid_ph)
index df89d916236d965595702eef3a5f7a813deae485..9aded0188ce8b5110819160f93df7587376bf9d4 100644 (file)
@@ -1472,7 +1472,7 @@ int __init pmac_i2c_init(void)
        smu_i2c_probe();
 #endif
 
-       /* Now add plaform functions for some known devices */
+       /* Now add platform functions for some known devices */
        pmac_i2c_devscan(pmac_i2c_dev_create);
 
        return 0;
index 89e22c460ebf982c3de6dc76ba2fe04019d10f06..33f7b959c810f0ba55bdacac3ae2b5cd123df810 100644 (file)
@@ -390,7 +390,7 @@ static struct eeh_dev *pnv_eeh_probe(struct pci_dev *pdev)
         * should be blocked until PE reset. MMIO access is dropped
         * by hardware certainly. In order to drop PCI config requests,
         * one more flag (EEH_PE_CFG_RESTRICTED) is introduced, which
-        * will be checked in the backend for PE state retrival. If
+        * will be checked in the backend for PE state retrieval. If
         * the PE becomes frozen for the first time and the flag has
         * been set for the PE, we will set EEH_PE_CFG_BLOCKED for
         * that PE to block its config space.
@@ -981,7 +981,7 @@ static int pnv_eeh_do_af_flr(struct pci_dn *pdn, int option)
        case EEH_RESET_FUNDAMENTAL:
                /*
                 * Wait for Transaction Pending bit to clear. A word-aligned
-                * test is used, so we use the conrol offset rather than status
+                * test is used, so we use the control offset rather than status
                 * and shift the test bit to match.
                 */
                pnv_eeh_wait_for_pending(pdn, "AF",
@@ -1048,7 +1048,7 @@ static int pnv_eeh_reset(struct eeh_pe *pe, int option)
         * frozen state during PE reset. However, the good idea here from
         * benh is to keep frozen state before we get PE reset done completely
         * (until BAR restore). With the frozen state, HW drops illegal IO
-        * or MMIO access, which can incur recrusive frozen PE during PE
+        * or MMIO access, which can incur recursive frozen PE during PE
         * reset. The side effect is that EEH core has to clear the frozen
         * state explicitly after BAR restore.
         */
@@ -1095,8 +1095,8 @@ static int pnv_eeh_reset(struct eeh_pe *pe, int option)
         * bus is behind a hotplug slot and it will use the slot provided
         * reset methods to prevent spurious hotplug events during the reset.
         *
-        * Fundemental resets need to be handled internally to EEH since the
-        * PCI core doesn't really have a concept of a fundemental reset,
+        * Fundamental resets need to be handled internally to EEH since the
+        * PCI core doesn't really have a concept of a fundamental reset,
         * mainly because there's no standard way to generate one. Only a
         * few devices require an FRESET so it should be fine.
         */
index a6677a111aca148ef208cc52d7779d48c92dc812..6f94b808dd39ac3d7369ee2fb6e3514d88d03bf7 100644 (file)
@@ -112,7 +112,7 @@ static int __init pnv_save_sprs_for_deep_states(void)
                        if (rc != 0)
                                return rc;
 
-                       /* Only p8 needs to set extra HID regiters */
+                       /* Only p8 needs to set extra HID registers */
                        if (!cpu_has_feature(CPU_FTR_ARCH_300)) {
                                uint64_t hid1_val = mfspr(SPRN_HID1);
                                uint64_t hid4_val = mfspr(SPRN_HID4);
@@ -1204,7 +1204,7 @@ static void __init pnv_arch300_idle_init(void)
                 * The idle code does not deal with TB loss occurring
                 * in a shallower state than SPR loss, so force it to
                 * behave like SPRs are lost if TB is lost. POWER9 would
-                * never encouter this, but a POWER8 core would if it
+                * never encounter this, but a POWER8 core would if it
                 * implemented the stop instruction. So this is for forward
                 * compatibility.
                 */
index 28b009b46464a8d797f7b42dee8cbb1c9428d49c..27c936075031a652c869210c83b4ca3922713889 100644 (file)
@@ -289,7 +289,7 @@ int pnv_ocxl_get_pasid_count(struct pci_dev *dev, int *count)
         * be used by a function depends on how many functions exist
         * on the device. The NPU needs to be configured to know how
         * many bits are available to PASIDs and how many are to be
-        * used by the function BDF indentifier.
+        * used by the function BDF identifier.
         *
         * We only support one AFU-carrying function for now.
         */
index 5e147f32e93238483a90ea45e40af6a2948c4d38..964f464b1b0e38fb305a591d45350d172066c483 100644 (file)
@@ -206,7 +206,7 @@ static u64 opal_fadump_init_mem_struct(struct fw_dump *fadump_conf)
        opal_fdm->region_cnt = cpu_to_be16(reg_cnt);
 
        /*
-        * Kernel metadata is passed to f/w and retrieved in capture kerenl.
+        * Kernel metadata is passed to f/w and retrieved in capture kernel.
         * So, use it to save fadump header address instead of calculating it.
         */
        opal_fdm->fadumphdr_addr = cpu_to_be64(be64_to_cpu(opal_fdm->rgn[0].dest) +
index 5390c888db162b16fb9849a327af269911356e23..d129d6d45a500b2b0d659b1c85ccb600ccc7937a 100644 (file)
@@ -197,7 +197,7 @@ static ssize_t lpc_debug_read(struct file *filp, char __user *ubuf,
 
                /*
                 * Select access size based on count and alignment and
-                * access type. IO and MEM only support byte acceses,
+                * access type. IO and MEM only support byte accesses,
                 * FW supports all 3.
                 */
                len = 1;
index 1e8e17df9ce807a90b56a26d8e9fb7f5df58e61d..a1754a28265dd0ec6191c9532294f0ca884dca44 100644 (file)
@@ -82,7 +82,7 @@ static DECLARE_WORK(mem_error_work, mem_error_handler);
 
 /*
  * opal_memory_err_event - notifier handler that queues up the opal message
- * to be preocessed later.
+ * to be processed later.
  */
 static int opal_memory_err_event(struct notifier_block *nb,
                          unsigned long msg_type, void *msg)
index 04155aaaadb1d2a51f133db8b9920359dcfeecee..fe3d111b881c2a277c1d59215fabfbb9570b1c5d 100644 (file)
@@ -699,7 +699,7 @@ static int pnv_pci_sriov_enable(struct pci_dev *pdev, u16 num_vfs)
                return -ENOSPC;
        }
 
-       /* allocate a contigious block of PEs for our VFs */
+       /* allocate a contiguous block of PEs for our VFs */
        base_pe = pnv_ioda_alloc_pe(phb, num_vfs);
        if (!base_pe) {
                pci_err(pdev, "Unable to allocate PEs for %d VFs\n", num_vfs);
index 5ce924611b941bdaf9a676e4151139cd1ce967ea..63ef61ed7597ff6ec75beca63552bcdae41ae51a 100644 (file)
@@ -364,7 +364,7 @@ static void  __maybe_unused _dma_dump_region(const struct ps3_dma_region *r,
  * @bus_addr: Starting ioc bus address of the area to map.
  * @len: Length in bytes of the area to map.
  * @link: A struct list_head used with struct ps3_dma_region.chunk_list, the
- * list of all chuncks owned by the region.
+ * list of all chunks owned by the region.
  *
  * This implementation uses a very simple dma page manager
  * based on the dma_chunk structure.  This scheme assumes
index b637bf2920474e8254f57583fa09b8245a3ad9f0..2502e9b17df4abe7b4eb9472e4b2d1e3d9187e78 100644 (file)
@@ -601,7 +601,7 @@ static dma_addr_t ps3_ioc0_map_page(struct device *_dev, struct page *page,
                iopte_flag |= CBE_IOPTE_PP_W | CBE_IOPTE_SO_RW;
                break;
        default:
-               /* not happned */
+               /* not happened */
                BUG();
        }
        result = ps3_dma_map(dev->d_region, (unsigned long)ptr, size,
index f9af879c0222ccbc5f9b9ed9630cafdfd78100e6..73ae91200b9f22faf99d896a8b742593eed2b06c 100644 (file)
@@ -512,7 +512,7 @@ static int pseries_eeh_set_option(struct eeh_pe *pe, int option)
        int ret = 0;
 
        /*
-        * When we're enabling or disabling EEH functioality on
+        * When we're enabling or disabling EEH functionality on
         * the particular PE, the PE config address is possibly
         * unavailable. Therefore, we have to figure it out from
         * the FDT node.
index 4d991cf840d9104c0fb2ba538592a9f92dde97e1..7639e7355df2052d3bac3977895f742032f5d196 100644 (file)
@@ -1430,7 +1430,7 @@ static bool enable_ddw(struct pci_dev *dev, struct device_node *pdn)
 
                pci->table_group->tables[1] = newtbl;
 
-               /* Keep default DMA window stuct if removed */
+               /* Keep default DMA window struct if removed */
                if (default_win_removed) {
                        tbl->it_size = 0;
                        vfree(tbl->it_map);
index 955ff8aa1644d03da0a53b6ca7e2f2a465d737ba..36433bb1560df49aa7ae1f7ae0c2f3cdacb44b7f 100644 (file)
@@ -658,7 +658,7 @@ static resource_size_t pseries_get_iov_fw_value(struct pci_dev *dev, int resno,
         */
        num_res = of_read_number(&indexes[NUM_RES_PROPERTY], 1);
        if (resno >= num_res)
-               return 0; /* or an errror */
+               return 0; /* or an error */
 
        i = START_OF_ENTRIES + NEXT_ENTRY * resno;
        switch (value) {
@@ -762,7 +762,7 @@ static void pseries_pci_fixup_iov_resources(struct pci_dev *pdev)
 
        if (!pdev->is_physfn)
                return;
-       /*Firmware must support open sriov otherwise dont configure*/
+       /*Firmware must support open sriov otherwise don't configure*/
        indexes = of_get_property(dn, "ibm,open-sriov-vf-bar-info", NULL);
        if (indexes)
                of_pci_parse_iov_addrs(pdev, indexes);
index 909535ca513a0a035f919d31a35dc99c470bd07d..59aef6062847b7a4112b9efe1463919bb275b8e9 100644 (file)
@@ -67,7 +67,7 @@ struct vas_sysfs_entry {
  * Create sysfs interface:
  * /sys/devices/vas/vas0/gzip/default_capabilities
  *     This directory contains the following VAS GZIP capabilities
- *     for the defaule credit type.
+ *     for the default credit type.
  * /sys/devices/vas/vas0/gzip/default_capabilities/nr_total_credits
  *     Total number of default credits assigned to the LPAR which
  *     can be changed with DLPAR operation.
index 1f59d78c77a1fd690a978f619c6017c0c0f78de5..245e0a42981ab0ec74a54cb589a0791ce0c0006f 100644 (file)
@@ -807,7 +807,7 @@ int vas_reconfig_capabilties(u8 type)
        atomic_set(&caps->nr_total_credits, new_nr_creds);
        /*
         * The total number of available credits may be decreased or
-        * inceased with DLPAR operation. Means some windows have to be
+        * increased with DLPAR operation. Means some windows have to be
         * closed / reopened. Hold the vas_pseries_mutex so that the
         * the user space can not open new windows.
         */
index 1985e067e952e7b7b88d61fe17d737607048507c..18acfb4e82af8043bf7bee6a63b9c86f97b3195b 100644 (file)
@@ -37,7 +37,7 @@ EXPORT_SYMBOL(fsl_lbc_ctrl_dev);
  *
  * This function converts a base address of lbc into the right format for the
  * BR register. If the SOC has eLBC then it returns 32bit physical address
- * else it convers a 34bit local bus physical address to correct format of
+ * else it converts a 34bit local bus physical address to correct format of
  * 32bit address for BR register (Example: MPC8641).
  */
 u32 fsl_lbc_addr(phys_addr_t addr_base)
index a97ce602394e580836bf1db2b0831f8c84b6bd77..e5e29033929a57da8b0a750ddd65148c85f10235 100644 (file)
@@ -218,7 +218,7 @@ static void setup_pci_atmu(struct pci_controller *hose)
                 * windows have implemented the default target value as 0xf
                 * for CCSR space.In all Freescale legacy devices the target
                 * of 0xf is reserved for local memory space. 9132 Rev1.0
-                * now has local mempry space mapped to target 0x0 instead of
+                * now has local memory space mapped to target 0x0 instead of
                 * 0xf. Hence adding a workaround to remove the target 0xf
                 * defined for memory space from Inbound window attributes.
                 */
index 02553a8ce19197695700b5d3a6b8950a39470811..413b375c4d28c145a47fffdf00a1388eac4bad5a 100644 (file)
@@ -150,7 +150,7 @@ static struct irq_chip gef_pic_chip = {
 };
 
 
-/* When an interrupt is being configured, this call allows some flexibilty
+/* When an interrupt is being configured, this call allows some flexibility
  * in deciding which irq_chip structure is used
  */
 static int gef_pic_host_map(struct irq_domain *h, unsigned int virq,
index 36ec0bdd8b63c41d2c98b1a2121f616f832d928d..a25413826b63ec5f66737111a77becfea71ba4e3 100644 (file)
@@ -99,7 +99,7 @@ void mpic_msgr_disable(struct mpic_msgr *msgr)
 EXPORT_SYMBOL_GPL(mpic_msgr_disable);
 
 /* The following three functions are used to compute the order and number of
- * the message register blocks.  They are clearly very inefficent.  However,
+ * the message register blocks.  They are clearly very inefficient.  However,
  * they are called *only* a few times during device initialization.
  */
 static unsigned int mpic_msgr_number_of_blocks(void)
index f412d6ad0b6602f63cb6a286d03734a454d29e64..9936c014ac7df391d4c1388c85bc82054946aef1 100644 (file)
@@ -37,7 +37,7 @@ static int __init mpic_msi_reserve_u3_hwirqs(struct mpic *mpic)
        /* Reserve source numbers we know are reserved in the HW.
         *
         * This is a bit of a mix of U3 and U4 reserves but that's going
-        * to work fine, we have plenty enugh numbers left so let's just
+        * to work fine, we have plenty enough numbers left so let's just
         * mark anything we don't like reserved.
         */
        for (i = 0;   i < 8;   i++)
index 444e9ce42d0a5175be39320714989ebef8ed1570..b2f0a73e8f930ee1f8bbb9401cfc0b5e354ff73f 100644 (file)
@@ -255,7 +255,7 @@ EXPORT_SYMBOL(mpic_start_timer);
 
 /**
  * mpic_stop_timer - stop hardware timer
- * @handle: the timer to be stoped
+ * @handle: the timer to be stopped
  *
  * The timer periodically generates an interrupt. Unless user stops the timer.
  */
index 3f4841dfefb5f86d37ee7c818a656fd2a79d67e1..73d129594078289f5fe45b02fff7421e041aa424 100644 (file)
@@ -78,7 +78,7 @@ static u64 find_u4_magic_addr(struct pci_dev *pdev, unsigned int hwirq)
 
        /* U4 PCIe MSIs need to write to the special register in
         * the bridge that generates interrupts. There should be
-        * theorically a register at 0xf8005000 where you just write
+        * theoretically a register at 0xf8005000 where you just write
         * the MSI number and that triggers the right interrupt, but
         * unfortunately, this is busted in HW, the bridge endian swaps
         * the value and hits the wrong nibble in the register.
index f940428ad13fed6135d853665581a30d2f3c97de..45f72fc715fc7468e3288c0f01e668d7269a7eb4 100644 (file)
@@ -617,7 +617,7 @@ bool __init xive_native_init(void)
 
        xive_tima_os = r.start;
 
-       /* Grab size of provisionning pages */
+       /* Grab size of provisioning pages */
        xive_parse_provisioning(np);
 
        /* Switch the XIVE to exploitation mode */
index dfb80810b16cbfc5325c8386b3bf25979e70b2e0..0774d711453efaf1508924518e193329970577e9 100644 (file)
@@ -408,7 +408,7 @@ const struct powerpc_operand powerpc_operands[] =
 #define FXM4 FXM + 1
   { 0xff, 12, insert_fxm, extract_fxm,
     PPC_OPERAND_OPTIONAL | PPC_OPERAND_OPTIONAL_VALUE},
-  /* If the FXM4 operand is ommitted, use the sentinel value -1.  */
+  /* If the FXM4 operand is omitted, use the sentinel value -1.  */
   { -1, -1, NULL, NULL, 0},
 
   /* The IMM20 field in an LI instruction.  */
index fd72753e8ad5023761b9363fc33726c4e26647f2..27da7d5c20241373681aab104e49051be18a9cd4 100644 (file)
@@ -2024,7 +2024,7 @@ static void dump_206_sprs(void)
        if (!cpu_has_feature(CPU_FTR_ARCH_206))
                return;
 
-       /* Actually some of these pre-date 2.06, but whatevs */
+       /* Actually some of these pre-date 2.06, but whatever */
 
        printf("srr0   = %.16lx  srr1  = %.16lx dsisr  = %.8lx\n",
                mfspr(SPRN_SRR0), mfspr(SPRN_SRR1), mfspr(SPRN_DSISR));