[AAch64] Optimize muls with operands having enough zero bits.
authorbipmis <biplob.mishra@arm.com>
Wed, 21 Dec 2022 11:14:45 +0000 (11:14 +0000)
committerbipmis <biplob.mishra@arm.com>
Wed, 21 Dec 2022 11:14:45 +0000 (11:14 +0000)
Fix the regression in the reported test case lagarith-preproc.c.
Specfic to the incorrect umsubl generation.

Differential Revision: https://reviews.llvm.org/D139411

llvm/lib/Target/AArch64/AArch64InstrInfo.td
llvm/test/CodeGen/AArch64/aarch64-mull-masks.ll

index 01f21e3..d82d794 100644 (file)
@@ -1972,7 +1972,7 @@ def : Pat<(i64 (ineg (mul top32Zero:$Rn, (zext GPR32:$Rm)))),
 
 def : Pat<(i64 (sub GPR64:$Ra, (mul top32Zero:$Rn, top32Zero:$Rm))),
           (UMSUBLrrr (EXTRACT_SUBREG $Rn, sub_32), (EXTRACT_SUBREG $Rm, sub_32), GPR64:$Ra)>;
-def : Pat<(i64 (sub GPR64:$Ra, (mul GPR64:$Rn, (zext GPR32:$Rm)))),
+def : Pat<(i64 (sub GPR64:$Ra, (mul top32Zero:$Rn, (zext GPR32:$Rm)))),
           (UMSUBLrrr (EXTRACT_SUBREG $Rn, sub_32), $Rm, GPR64:$Ra)>;
 } // AddedComplexity = 5
 
index 44d31d9..e9baefc 100644 (file)
@@ -1384,3 +1384,18 @@ entry:
   %mul = mul i64 %and, %zext4
   ret i64 %mul
 }
+
+define i64 @regression_umsubl(i64 %a, i32 %b, i64 %c) {
+; CHECK-LABEL: regression_umsubl:
+; CHECK:       // %bb.0: // %entry
+; CHECK-NEXT:    mov w8, w1
+; CHECK-NEXT:    udiv x9, x0, x8
+; CHECK-NEXT:    msub x0, x9, x8, x2
+; CHECK-NEXT:    ret
+entry:
+  %zext1 = zext i32 %b to i64
+  %res = udiv i64 %a, %zext1
+  %mul = mul i64 %res, %zext1
+  %sub = sub i64 %c, %mul
+  ret i64 %sub
+}