mm: fix some comment errors
authorQuanfa Fu <fuqf0919@gmail.com>
Fri, 14 Jan 2022 22:09:25 +0000 (14:09 -0800)
committerLinus Torvalds <torvalds@linux-foundation.org>
Sat, 15 Jan 2022 14:30:31 +0000 (16:30 +0200)
Link: https://lkml.kernel.org/r/20211101040208.460810-1-fuqf0919@gmail.com
Signed-off-by: Quanfa Fu <fuqf0919@gmail.com>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
Signed-off-by: Linus Torvalds <torvalds@linux-foundation.org>
mm/khugepaged.c
mm/memory-failure.c
mm/slab_common.c
mm/swap.c

index 02071f213c58ce2e6e9747564f9c0bfad69dd3a5..7af84bac6fc241cd116e4b8f8dc5c530bbd0dabc 100644 (file)
@@ -1303,7 +1303,7 @@ static int khugepaged_scan_pmd(struct mm_struct *mm,
                /*
                 * Record which node the original page is from and save this
                 * information to khugepaged_node_load[].
-                * Khupaged will allocate hugepage from the node has the max
+                * Khugepaged will allocate hugepage from the node has the max
                 * hit record.
                 */
                node = page_to_nid(page);
index 6a2b4b86b6796012e2dfa9c99ccc1de56afdc3e4..373837bb94cb3a4a580beba950a8f654912ccdcd 100644 (file)
@@ -1306,7 +1306,7 @@ static int __get_unpoison_page(struct page *page)
  *
  * get_hwpoison_page() takes a page refcount of an error page to handle memory
  * error on it, after checking that the error page is in a well-defined state
- * (defined as a page-type we can successfully handle the memor error on it,
+ * (defined as a page-type we can successfully handle the memory error on it,
  * such as LRU page and hugetlb page).
  *
  * Memory error handling could be triggered at any time on any type of page,
index 1f75bd4e95d63ab6cfb52bd0031932cbc2298e81..9513244457e6f4653aa056fca914e36f6be9b7fd 100644 (file)
@@ -819,7 +819,7 @@ void __init setup_kmalloc_cache_index_table(void)
 
        if (KMALLOC_MIN_SIZE >= 64) {
                /*
-                * The 96 byte size cache is not used if the alignment
+                * The 96 byte sized cache is not used if the alignment
                 * is 64 byte.
                 */
                for (i = 64 + 8; i <= 96; i += 8)
index e8c9dc6d03771b2035079f0ebd74891e7169e31c..b461814ce0cb6363250b343806fa2d2b9ab307b8 100644 (file)
--- a/mm/swap.c
+++ b/mm/swap.c
@@ -882,7 +882,7 @@ void lru_cache_disable(void)
         * all online CPUs so any calls of lru_cache_disabled wrapped by
         * local_lock or preemption disabled would be ordered by that.
         * The atomic operation doesn't need to have stronger ordering
-        * requirements because that is enforeced by the scheduling
+        * requirements because that is enforced by the scheduling
         * guarantees.
         */
        __lru_add_drain_all(true);