kasan, slub: fix HW_TAGS zeroing with slub_debug
authorAndrey Konovalov <andreyknvl@google.com>
Wed, 5 Jul 2023 12:44:02 +0000 (14:44 +0200)
committerAndrew Morton <akpm@linux-foundation.org>
Sat, 8 Jul 2023 16:29:32 +0000 (09:29 -0700)
Commit 946fa0dbf2d8 ("mm/slub: extend redzone check to extra allocated
kmalloc space than requested") added precise kmalloc redzone poisoning to
the slub_debug functionality.

However, this commit didn't account for HW_TAGS KASAN fully initializing
the object via its built-in memory initialization feature.  Even though
HW_TAGS KASAN memory initialization contains special memory initialization
handling for when slub_debug is enabled, it does not account for in-object
slub_debug redzones.  As a result, HW_TAGS KASAN can overwrite these
redzones and cause false-positive slub_debug reports.

To fix the issue, avoid HW_TAGS KASAN memory initialization when
slub_debug is enabled altogether.  Implement this by moving the
__slub_debug_enabled check to slab_post_alloc_hook.  Common slab code
seems like a more appropriate place for a slub_debug check anyway.

Link: https://lkml.kernel.org/r/678ac92ab790dba9198f9ca14f405651b97c8502.1688561016.git.andreyknvl@google.com
Fixes: 946fa0dbf2d8 ("mm/slub: extend redzone check to extra allocated kmalloc space than requested")
Signed-off-by: Andrey Konovalov <andreyknvl@google.com>
Reported-by: Will Deacon <will@kernel.org>
Acked-by: Marco Elver <elver@google.com>
Cc: Mark Rutland <mark.rutland@arm.com>
Cc: Alexander Potapenko <glider@google.com>
Cc: Andrey Ryabinin <ryabinin.a.a@gmail.com>
Cc: Catalin Marinas <catalin.marinas@arm.com>
Cc: Christoph Lameter <cl@linux.com>
Cc: David Rientjes <rientjes@google.com>
Cc: Dmitry Vyukov <dvyukov@google.com>
Cc: Feng Tang <feng.tang@intel.com>
Cc: Hyeonggon Yoo <42.hyeyoo@gmail.com>
Cc: Joonsoo Kim <iamjoonsoo.kim@lge.com>
Cc: kasan-dev@googlegroups.com
Cc: Pekka Enberg <penberg@kernel.org>
Cc: Peter Collingbourne <pcc@google.com>
Cc: Roman Gushchin <roman.gushchin@linux.dev>
Cc: Vincenzo Frascino <vincenzo.frascino@arm.com>
Cc: Vlastimil Babka <vbabka@suse.cz>
Cc: <stable@vger.kernel.org>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
mm/kasan/kasan.h
mm/slab.h

index b799f11..2e973b3 100644 (file)
@@ -466,18 +466,6 @@ static inline void kasan_unpoison(const void *addr, size_t size, bool init)
 
        if (WARN_ON((unsigned long)addr & KASAN_GRANULE_MASK))
                return;
-       /*
-        * Explicitly initialize the memory with the precise object size to
-        * avoid overwriting the slab redzone. This disables initialization in
-        * the arch code and may thus lead to performance penalty. This penalty
-        * does not affect production builds, as slab redzones are not enabled
-        * there.
-        */
-       if (__slub_debug_enabled() &&
-           init && ((unsigned long)size & KASAN_GRANULE_MASK)) {
-               init = false;
-               memzero_explicit((void *)addr, size);
-       }
        size = round_up(size, KASAN_GRANULE_SIZE);
 
        hw_set_mem_tag_range((void *)addr, size, tag, init);
index 6a5633b..9c0e09d 100644 (file)
--- a/mm/slab.h
+++ b/mm/slab.h
@@ -723,6 +723,7 @@ static inline void slab_post_alloc_hook(struct kmem_cache *s,
                                        unsigned int orig_size)
 {
        unsigned int zero_size = s->object_size;
+       bool kasan_init = init;
        size_t i;
 
        flags &= gfp_allowed_mask;
@@ -740,6 +741,17 @@ static inline void slab_post_alloc_hook(struct kmem_cache *s,
                zero_size = orig_size;
 
        /*
+        * When slub_debug is enabled, avoid memory initialization integrated
+        * into KASAN and instead zero out the memory via the memset below with
+        * the proper size. Otherwise, KASAN might overwrite SLUB redzones and
+        * cause false-positive reports. This does not lead to a performance
+        * penalty on production builds, as slub_debug is not intended to be
+        * enabled there.
+        */
+       if (__slub_debug_enabled())
+               kasan_init = false;
+
+       /*
         * As memory initialization might be integrated into KASAN,
         * kasan_slab_alloc and initialization memset must be
         * kept together to avoid discrepancies in behavior.
@@ -747,8 +759,8 @@ static inline void slab_post_alloc_hook(struct kmem_cache *s,
         * As p[i] might get tagged, memset and kmemleak hook come after KASAN.
         */
        for (i = 0; i < size; i++) {
-               p[i] = kasan_slab_alloc(s, p[i], flags, init);
-               if (p[i] && init && !kasan_has_integrated_init())
+               p[i] = kasan_slab_alloc(s, p[i], flags, kasan_init);
+               if (p[i] && init && (!kasan_init || !kasan_has_integrated_init()))
                        memset(p[i], 0, zero_size);
                kmemleak_alloc_recursive(p[i], s->object_size, 1,
                                         s->flags, flags);