[X86][SSE] Regenerate vector promotion tests
authorSimon Pilgrim <llvm-dev@redking.me.uk>
Thu, 18 Jan 2018 19:17:26 +0000 (19:17 +0000)
committerSimon Pilgrim <llvm-dev@redking.me.uk>
Thu, 18 Jan 2018 19:17:26 +0000 (19:17 +0000)
llvm-svn: 322877

llvm/test/CodeGen/X86/promote.ll

index 37dfc88..141d3b7 100644 (file)
@@ -1,42 +1,69 @@
-; RUN: llc < %s -mcpu=corei7 | FileCheck %s
+; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
+; RUN: llc < %s -mtriple=i686-unknown-linux-gnu -mcpu=corei7 | FileCheck %s --check-prefixes=CHECK,X86
+; RUN: llc < %s -mtriple=x86_64-unknown-linux-gnu -mcpu=corei7 | FileCheck %s --check-prefixes=CHECK,X64
 
-target datalayout = "e-p:64:64:64-i1:8:8-i8:8:8-i16:16:16-i8:32:32-i64:64:64-f32:32:32-f64:64:64-v64:64:64-v128:128:128-a0:0:64-s0:64:64-f80:128:128-n8:16:32:64-S128"
-target triple = "x86_64-unknown-linux-gnu"
-
-
-; CHECK: mul_f
 define i32 @mul_f(<4 x i8>* %A) {
+; X86-LABEL: mul_f:
+; X86:       # %bb.0: # %entry
+; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
+; X86-NEXT:    pmovzxbd {{.*#+}} xmm0 = mem[0],zero,zero,zero,mem[1],zero,zero,zero,mem[2],zero,zero,zero,mem[3],zero,zero,zero
+; X86-NEXT:    pmulld %xmm0, %xmm0
+; X86-NEXT:    pshufb {{.*#+}} xmm0 = xmm0[0,4,8,12,u,u,u,u,u,u,u,u,u,u,u,u]
+; X86-NEXT:    movd %xmm0, (%eax)
+; X86-NEXT:    xorl %eax, %eax
+; X86-NEXT:    retl
+;
+; X64-LABEL: mul_f:
+; X64:       # %bb.0: # %entry
+; X64-NEXT:    pmovzxbd {{.*#+}} xmm0 = mem[0],zero,zero,zero,mem[1],zero,zero,zero,mem[2],zero,zero,zero,mem[3],zero,zero,zero
+; X64-NEXT:    pmulld %xmm0, %xmm0
+; X64-NEXT:    pshufb {{.*#+}} xmm0 = xmm0[0,4,8,12,u,u,u,u,u,u,u,u,u,u,u,u]
+; X64-NEXT:    movd %xmm0, (%rax)
+; X64-NEXT:    xorl %eax, %eax
+; X64-NEXT:    retq
 entry:
-; CHECK: pmul
-; CHECK-NOT: mulb
   %0 = load <4 x i8>, <4 x i8>* %A, align 8
   %mul = mul <4 x i8> %0, %0
   store <4 x i8> %mul, <4 x i8>* undef
   ret i32 0
-; CHECK: ret
 }
 
-
-; CHECK: shuff_f
 define i32 @shuff_f(<4 x i8>* %A) {
+; X86-LABEL: shuff_f:
+; X86:       # %bb.0: # %entry
+; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
+; X86-NEXT:    pmovzxbd {{.*#+}} xmm0 = mem[0],zero,zero,zero,mem[1],zero,zero,zero,mem[2],zero,zero,zero,mem[3],zero,zero,zero
+; X86-NEXT:    paddd %xmm0, %xmm0
+; X86-NEXT:    pshufb {{.*#+}} xmm0 = xmm0[0,4,8,12,u,u,u,u,u,u,u,u,u,u,u,u]
+; X86-NEXT:    movd %xmm0, (%eax)
+; X86-NEXT:    xorl %eax, %eax
+; X86-NEXT:    retl
+;
+; X64-LABEL: shuff_f:
+; X64:       # %bb.0: # %entry
+; X64-NEXT:    pmovzxbd {{.*#+}} xmm0 = mem[0],zero,zero,zero,mem[1],zero,zero,zero,mem[2],zero,zero,zero,mem[3],zero,zero,zero
+; X64-NEXT:    paddd %xmm0, %xmm0
+; X64-NEXT:    pshufb {{.*#+}} xmm0 = xmm0[0,4,8,12,u,u,u,u,u,u,u,u,u,u,u,u]
+; X64-NEXT:    movd %xmm0, (%rax)
+; X64-NEXT:    xorl %eax, %eax
+; X64-NEXT:    retq
 entry:
-; CHECK: pmovzxbd
-; CHECK: paddd
-; CHECK: pshufb
   %0 = load <4 x i8>, <4 x i8>* %A, align 8
   %add = add <4 x i8> %0, %0
   store <4 x i8> %add, <4 x i8>* undef
   ret i32 0
-; CHECK: ret
 }
 
-; CHECK: bitcast_widen
 define <2 x float> @bitcast_widen(<4 x i32> %in) nounwind readnone {
+; X86-LABEL: bitcast_widen:
+; X86:       # %bb.0: # %entry
+; X86-NEXT:    retl
+;
+; X64-LABEL: bitcast_widen:
+; X64:       # %bb.0: # %entry
+; X64-NEXT:    retq
 entry:
-; CHECK-NOT: pshufd
  %x = shufflevector <4 x i32> %in, <4 x i32> undef, <2 x i32> <i32 0, i32 1>
  %y = bitcast <2 x i32> %x to <2 x float>
  ret <2 x float> %y
-; CHECK: ret
 }
-