Undo accidental checkin.
authorUlrich Drepper <drepper@gmail.com>
Tue, 14 Dec 2010 18:09:28 +0000 (13:09 -0500)
committerUlrich Drepper <drepper@gmail.com>
Tue, 14 Dec 2010 18:09:28 +0000 (13:09 -0500)
ChangeLog
sysdeps/i386/i686/multiarch/strcmp.S

index 7cd6d64..7650dba 100644 (file)
--- a/ChangeLog
+++ b/ChangeLog
@@ -1,3 +1,7 @@
+2010-12-14  Ulrich Drepper  <dreper@gmail.com>
+
+       * sysdeps/i386/i686/multiarch/strcmp.S: Undo accident checkin.
+
 2010-12-10  Andreas Schwab  <schwab@redhat.com>
 
        * wcsmbs/wchar.h (wcpcpy, wcpncpy): Only declare under
index 8724594..7136d47 100644 (file)
    need strncmp before the initialization happened.  */
 #if (defined SHARED || !defined USE_AS_STRNCMP) && !defined NOT_IN_libc
 # ifdef SHARED
-       .section        .gnu.linkonce.t.__i686.get_pc_thunk.dx,"ax",@progbits
-       .globl  __i686.get_pc_thunk.dx
-       .hidden __i686.get_pc_thunk.dx
-       .p2align 2
-       .type   __i686.get_pc_thunk.dx,@function
-__i686.get_pc_thunk.dx:
-       movl    (%esp), %edx
+       .section        .gnu.linkonce.t.__i686.get_pc_thunk.bx,"ax",@progbits
+       .globl  __i686.get_pc_thunk.bx
+       .hidden __i686.get_pc_thunk.bx
+       .p2align 4
+       .type   __i686.get_pc_thunk.bx,@function
+__i686.get_pc_thunk.bx:
+       movl    (%esp), %ebx
        ret
-       .size   __i686.get_pc_thunk.dx, .-__i686.get_pc_thunk.dx
 
        .text
 ENTRY(STRCMP)
        .type   STRCMP, @gnu_indirect_function
-       call    __i686.get_pc_thunk.dx
-       addl    $_GLOBAL_OFFSET_TABLE_, %edx
-       cmpl    $0, KIND_OFFSET+__cpu_features@GOTOFF(%edx)
+       pushl   %ebx
+       cfi_adjust_cfa_offset (4)
+       cfi_rel_offset (ebx, 0)
+       call    __i686.get_pc_thunk.bx
+       addl    $_GLOBAL_OFFSET_TABLE_, %ebx
+       cmpl    $0, KIND_OFFSET+__cpu_features@GOTOFF(%ebx)
        jne     1f
        call    __init_cpu_features
-1:     leal    __STRCMP_SSE4_2@GOTOFF(%edx), %eax
-       testl   $bit_SSE4_2, CPUID_OFFSET+index_SSE4_2+__cpu_features@GOTOFF(%edx)
-       jnz     2f
-       leal    __STRCMP_SSSE3@GOTOFF(%edx), %eax
-       testl   $bit_SSSE3, CPUID_OFFSET+index_SSSE3+__cpu_features@GOTOFF(%edx)
-       jnz     2f
-       leal    __STRCMP_IA32@GOTOFF(%edx), %ecx
-2:     ret
+1:     leal    __STRCMP_IA32@GOTOFF(%ebx), %eax
+       testl   $bit_SSSE3, CPUID_OFFSET+index_SSSE3+__cpu_features@GOTOFF(%ebx)
+       jz      2f
+       leal    __STRCMP_SSSE3@GOTOFF(%ebx), %eax
+       testl   $bit_SSE4_2, CPUID_OFFSET+index_SSE4_2+__cpu_features@GOTOFF(%ebx)
+       jz      2f
+       leal    __STRCMP_SSE4_2@GOTOFF(%ebx), %eax
+2:     popl    %ebx
+       cfi_adjust_cfa_offset (-4)
+       cfi_restore (ebx)
+       ret
 END(STRCMP)
 # else
        .text
@@ -74,13 +79,13 @@ ENTRY(STRCMP)
        cmpl    $0, KIND_OFFSET+__cpu_features
        jne     1f
        call    __init_cpu_features
-1:     leal    __STRCMP_SSE4_2, %eax
-       testl   $bit_SSE4_2, CPUID_OFFSET+index_SSE4_2+__cpu_features
-       jnz     2f
-       leal    __STRCMP_SSSE3, %eax
+1:     leal    __STRCMP_IA32, %eax
        testl   $bit_SSSE3, CPUID_OFFSET+index_SSSE3+__cpu_features
-       jnz     2f
-       leal    __STRCMP_IA32, %eax
+       jz      2f
+       leal    __STRCMP_SSSE3, %eax
+       testl   $bit_SSE4_2, CPUID_OFFSET+index_SSE4_2+__cpu_features
+       jz      2f
+       leal    __STRCMP_SSE4_2, %eax
 2:     ret
 END(STRCMP)
 # endif