rcu: Fix various typos in comments
authorIngo Molnar <mingo@kernel.org>
Tue, 23 Mar 2021 05:29:10 +0000 (22:29 -0700)
committerPaul E. McKenney <paulmck@kernel.org>
Wed, 12 May 2021 19:11:05 +0000 (12:11 -0700)
Fix ~12 single-word typos in RCU code comments.

[ paulmck: Apply feedback from Randy Dunlap. ]
Reviewed-by: Randy Dunlap <rdunlap@infradead.org>
Signed-off-by: Ingo Molnar <mingo@kernel.org>
Signed-off-by: Paul E. McKenney <paulmck@kernel.org>
kernel/rcu/srcutree.c
kernel/rcu/sync.c
kernel/rcu/tasks.h
kernel/rcu/tree.c
kernel/rcu/tree.h
kernel/rcu/tree_plugin.h
tools/testing/selftests/rcutorture/formal/srcu-cbmc/src/locks.h

index e26547b..036ff54 100644 (file)
@@ -777,9 +777,9 @@ static bool srcu_might_be_idle(struct srcu_struct *ssp)
        spin_unlock_irqrestore_rcu_node(sdp, flags);
 
        /*
-        * No local callbacks, so probabalistically probe global state.
+        * No local callbacks, so probabilistically probe global state.
         * Exact information would require acquiring locks, which would
-        * kill scalability, hence the probabalistic nature of the probe.
+        * kill scalability, hence the probabilistic nature of the probe.
         */
 
        /* First, see if enough time has passed since the last GP. */
index d4558ab..33d896d 100644 (file)
@@ -94,9 +94,9 @@ static void rcu_sync_func(struct rcu_head *rhp)
                rcu_sync_call(rsp);
        } else {
                /*
-                * We're at least a GP after the last rcu_sync_exit(); eveybody
+                * We're at least a GP after the last rcu_sync_exit(); everybody
                 * will now have observed the write side critical section.
-                * Let 'em rip!.
+                * Let 'em rip!
                 */
                WRITE_ONCE(rsp->gp_state, GP_IDLE);
        }
index 350ebf5..da906b7 100644 (file)
@@ -23,7 +23,7 @@ typedef void (*postgp_func_t)(struct rcu_tasks *rtp);
  * struct rcu_tasks - Definition for a Tasks-RCU-like mechanism.
  * @cbs_head: Head of callback list.
  * @cbs_tail: Tail pointer for callback list.
- * @cbs_wq: Wait queue allowning new callback to get kthread's attention.
+ * @cbs_wq: Wait queue allowing new callback to get kthread's attention.
  * @cbs_lock: Lock protecting callback list.
  * @kthread_ptr: This flavor's grace-period/callback-invocation kthread.
  * @gp_func: This flavor's grace-period-wait function.
@@ -504,7 +504,7 @@ DEFINE_RCU_TASKS(rcu_tasks, rcu_tasks_wait_gp, call_rcu_tasks, "RCU Tasks");
  * or transition to usermode execution.  As such, there are no read-side
  * primitives analogous to rcu_read_lock() and rcu_read_unlock() because
  * this primitive is intended to determine that all tasks have passed
- * through a safe state, not so much for data-strcuture synchronization.
+ * through a safe state, not so much for data-structure synchronization.
  *
  * See the description of call_rcu() for more detailed information on
  * memory ordering guarantees.
@@ -637,7 +637,7 @@ DEFINE_RCU_TASKS(rcu_tasks_rude, rcu_tasks_rude_wait_gp, call_rcu_tasks_rude,
  * there are no read-side primitives analogous to rcu_read_lock() and
  * rcu_read_unlock() because this primitive is intended to determine
  * that all tasks have passed through a safe state, not so much for
- * data-strcuture synchronization.
+ * data-structure synchronization.
  *
  * See the description of call_rcu() for more detailed information on
  * memory ordering guarantees.
@@ -1163,7 +1163,7 @@ static void exit_tasks_rcu_finish_trace(struct task_struct *t)
  * there are no read-side primitives analogous to rcu_read_lock() and
  * rcu_read_unlock() because this primitive is intended to determine
  * that all tasks have passed through a safe state, not so much for
- * data-strcuture synchronization.
+ * data-structure synchronization.
  *
  * See the description of call_rcu() for more detailed information on
  * memory ordering guarantees.
index 5f1545a..ed1b546 100644 (file)
@@ -2489,7 +2489,7 @@ int rcutree_dead_cpu(unsigned int cpu)
 
 /*
  * Invoke any RCU callbacks that have made it to the end of their grace
- * period.  Thottle as specified by rdp->blimit.
+ * period.  Throttle as specified by rdp->blimit.
  */
 static void rcu_do_batch(struct rcu_data *rdp)
 {
@@ -3848,7 +3848,7 @@ EXPORT_SYMBOL_GPL(start_poll_synchronize_rcu);
  *
  * If a full RCU grace period has elapsed since the earlier call from
  * which oldstate was obtained, return @true, otherwise return @false.
- * If @false is returned, it is the caller's responsibilty to invoke this
+ * If @false is returned, it is the caller's responsibility to invoke this
  * function later on until it does return @true.  Alternatively, the caller
  * can explicitly wait for a grace period, for example, by passing @oldstate
  * to cond_synchronize_rcu() or by directly invoking synchronize_rcu().
@@ -4094,7 +4094,7 @@ EXPORT_SYMBOL_GPL(rcu_barrier);
 /*
  * Propagate ->qsinitmask bits up the rcu_node tree to account for the
  * first CPU in a given leaf rcu_node structure coming online.  The caller
- * must hold the corresponding leaf rcu_node ->lock with interrrupts
+ * must hold the corresponding leaf rcu_node ->lock with interrupts
  * disabled.
  */
 static void rcu_init_new_rnp(struct rcu_node *rnp_leaf)
index 9a16487..c1ed047 100644 (file)
@@ -153,7 +153,7 @@ struct rcu_data {
        unsigned long   gp_seq;         /* Track rsp->gp_seq counter. */
        unsigned long   gp_seq_needed;  /* Track furthest future GP request. */
        union rcu_noqs  cpu_no_qs;      /* No QSes yet for this CPU. */
-       bool            core_needs_qs;  /* Core waits for quiesc state. */
+       bool            core_needs_qs;  /* Core waits for quiescent state. */
        bool            beenonline;     /* CPU online at least once. */
        bool            gpwrap;         /* Possible ->gp_seq wrap. */
        bool            exp_deferred_qs; /* This CPU awaiting a deferred QS? */
index dfb048e..b0c3fb4 100644 (file)
@@ -2857,7 +2857,7 @@ static void show_rcu_nocb_state(struct rcu_data *rdp)
        waslocked = raw_spin_is_locked(&rdp->nocb_gp_lock);
        wassleep = swait_active(&rdp->nocb_gp_wq);
        if (!rdp->nocb_gp_sleep && !waslocked && !wassleep)
-               return;  /* Nothing untowards. */
+               return;  /* Nothing untoward. */
 
        pr_info("   nocb GP activity on CB-only CPU!!! %c%c%c %c\n",
                "lL"[waslocked],
index cf6938d..1e24827 100644 (file)
@@ -174,7 +174,7 @@ static inline bool spin_trylock(spinlock_t *lock)
 }
 
 struct completion {
-       /* Hopefuly this won't overflow. */
+       /* Hopefully this won't overflow. */
        unsigned int count;
 };