tools arch: Update arch/x86/lib/mem{cpy,set}_64.S copies used in 'perf bench mem...
authorArnaldo Carvalho de Melo <acme@redhat.com>
Sun, 9 May 2021 13:19:37 +0000 (10:19 -0300)
committerArnaldo Carvalho de Melo <acme@redhat.com>
Thu, 13 Jan 2022 13:54:44 +0000 (10:54 -0300)
To bring in the change made in this cset:

  f94909ceb1ed4bfd ("x86: Prepare asm files for straight-line-speculation")

It silences these perf tools build warnings, no change in the tools:

  Warning: Kernel ABI header at 'tools/arch/x86/lib/memcpy_64.S' differs from latest version at 'arch/x86/lib/memcpy_64.S'
  diff -u tools/arch/x86/lib/memcpy_64.S arch/x86/lib/memcpy_64.S
  Warning: Kernel ABI header at 'tools/arch/x86/lib/memset_64.S' differs from latest version at 'arch/x86/lib/memset_64.S'
  diff -u tools/arch/x86/lib/memset_64.S arch/x86/lib/memset_64.S

The code generated was checked before and after using 'objdump -d /tmp/build/perf/bench/mem-memcpy-x86-64-asm.o',
no changes.

Cc: Borislav Petkov <bp@suse.de>
Cc: Peter Zijlstra <peterz@infradead.org>
Signed-off-by: Arnaldo Carvalho de Melo <acme@redhat.com>
tools/arch/x86/lib/memcpy_64.S
tools/arch/x86/lib/memset_64.S

index 1cc9da6..59cf234 100644 (file)
@@ -39,7 +39,7 @@ SYM_FUNC_START_WEAK(memcpy)
        rep movsq
        movl %edx, %ecx
        rep movsb
-       ret
+       RET
 SYM_FUNC_END(memcpy)
 SYM_FUNC_END_ALIAS(__memcpy)
 EXPORT_SYMBOL(memcpy)
@@ -53,7 +53,7 @@ SYM_FUNC_START_LOCAL(memcpy_erms)
        movq %rdi, %rax
        movq %rdx, %rcx
        rep movsb
-       ret
+       RET
 SYM_FUNC_END(memcpy_erms)
 
 SYM_FUNC_START_LOCAL(memcpy_orig)
@@ -137,7 +137,7 @@ SYM_FUNC_START_LOCAL(memcpy_orig)
        movq %r9,       1*8(%rdi)
        movq %r10,      -2*8(%rdi, %rdx)
        movq %r11,      -1*8(%rdi, %rdx)
-       retq
+       RET
        .p2align 4
 .Lless_16bytes:
        cmpl $8,        %edx
@@ -149,7 +149,7 @@ SYM_FUNC_START_LOCAL(memcpy_orig)
        movq -1*8(%rsi, %rdx),  %r9
        movq %r8,       0*8(%rdi)
        movq %r9,       -1*8(%rdi, %rdx)
-       retq
+       RET
        .p2align 4
 .Lless_8bytes:
        cmpl $4,        %edx
@@ -162,7 +162,7 @@ SYM_FUNC_START_LOCAL(memcpy_orig)
        movl -4(%rsi, %rdx), %r8d
        movl %ecx, (%rdi)
        movl %r8d, -4(%rdi, %rdx)
-       retq
+       RET
        .p2align 4
 .Lless_3bytes:
        subl $1, %edx
@@ -180,7 +180,7 @@ SYM_FUNC_START_LOCAL(memcpy_orig)
        movb %cl, (%rdi)
 
 .Lend:
-       retq
+       RET
 SYM_FUNC_END(memcpy_orig)
 
 .popsection
index 9827ae2..d624f2b 100644 (file)
@@ -40,7 +40,7 @@ SYM_FUNC_START(__memset)
        movl %edx,%ecx
        rep stosb
        movq %r9,%rax
-       ret
+       RET
 SYM_FUNC_END(__memset)
 SYM_FUNC_END_ALIAS(memset)
 EXPORT_SYMBOL(memset)
@@ -63,7 +63,7 @@ SYM_FUNC_START_LOCAL(memset_erms)
        movq %rdx,%rcx
        rep stosb
        movq %r9,%rax
-       ret
+       RET
 SYM_FUNC_END(memset_erms)
 
 SYM_FUNC_START_LOCAL(memset_orig)
@@ -125,7 +125,7 @@ SYM_FUNC_START_LOCAL(memset_orig)
 
 .Lende:
        movq    %r10,%rax
-       ret
+       RET
 
 .Lbad_alignment:
        cmpq $7,%rdx