[PowerPC] Add support for G_ADD and G_SUB.
authorKai Nacke <kai.peter.nacke@ibm.com>
Mon, 21 Nov 2022 20:47:52 +0000 (20:47 +0000)
committerKai Nacke <kai.peter.nacke@ibm.com>
Mon, 21 Nov 2022 23:35:17 +0000 (23:35 +0000)
Extends the global isel implementation to support G_ADD and G_SUB.

Reviewed By: arsenm, amyk

Differential Revision: https://reviews.llvm.org/D128106

llvm/lib/Target/PowerPC/GISel/PPCLegalizerInfo.cpp
llvm/lib/Target/PowerPC/GISel/PPCRegisterBankInfo.cpp
llvm/test/CodeGen/PowerPC/GlobalISel/ppc-isel-arithmentic.ll [new file with mode: 0644]

index be56b6f..bbbd211 100644 (file)
@@ -27,5 +27,8 @@ PPCLegalizerInfo::PPCLegalizerInfo(const PPCSubtarget &ST) {
   getActionDefinitionsBuilder({G_AND, G_OR, G_XOR})
       .legalFor({S64})
       .clampScalar(0, S64, S64);
+  getActionDefinitionsBuilder({G_ADD, G_SUB})
+      .legalFor({S64})
+      .clampScalar(0, S64, S64);
   getLegacyLegalizerInfo().computeTables();
 }
index 2eb9ec2..8a57010 100644 (file)
@@ -60,6 +60,9 @@ PPCRegisterBankInfo::getInstrMapping(const MachineInstr &MI) const {
   unsigned MappingID = DefaultMappingID;
 
   switch (Opc) {
+    // Arithmetic ops.
+  case TargetOpcode::G_ADD:
+  case TargetOpcode::G_SUB:
     // Bitwise ops.
   case TargetOpcode::G_AND:
   case TargetOpcode::G_OR:
diff --git a/llvm/test/CodeGen/PowerPC/GlobalISel/ppc-isel-arithmentic.ll b/llvm/test/CodeGen/PowerPC/GlobalISel/ppc-isel-arithmentic.ll
new file mode 100644 (file)
index 0000000..5275436
--- /dev/null
@@ -0,0 +1,75 @@
+; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
+; RUN: llc -mtriple ppc64le-linux -ppc-asm-full-reg-names -global-isel -o - < %s \
+; RUN:     | FileCheck %s
+
+define i8 @test_addi8(i8 %a, i8 %b) {
+; CHECK-LABEL: test_addi8:
+; CHECK:       # %bb.0:
+; CHECK-NEXT:    add r3, r3, r4
+; CHECK-NEXT:    blr
+  %res = add i8 %a, %b
+  ret i8 %res
+}
+
+define i16 @test_addi16(i16 %a, i16 %b) {
+; CHECK-LABEL: test_addi16:
+; CHECK:       # %bb.0:
+; CHECK-NEXT:    add r3, r3, r4
+; CHECK-NEXT:    blr
+  %res = add i16 %a, %b
+  ret i16 %res
+}
+
+define i32 @test_addi32(i32 %a, i32 %b) {
+; CHECK-LABEL: test_addi32:
+; CHECK:       # %bb.0:
+; CHECK-NEXT:    add r3, r3, r4
+; CHECK-NEXT:    blr
+  %res = add i32 %a, %b
+  ret i32 %res
+}
+
+define i64 @test_addi64(i64 %a, i64 %b) {
+; CHECK-LABEL: test_addi64:
+; CHECK:       # %bb.0:
+; CHECK-NEXT:    add r3, r3, r4
+; CHECK-NEXT:    blr
+  %res = add i64 %a, %b
+  ret i64 %res
+}
+
+define i8 @test_subi8(i8 %a, i8 %b) {
+; CHECK-LABEL: test_subi8:
+; CHECK:       # %bb.0:
+; CHECK-NEXT:    sub r3, r3, r4
+; CHECK-NEXT:    blr
+  %res = sub i8 %a, %b
+  ret i8 %res
+}
+
+define i16 @test_subi16(i16 %a, i16 %b) {
+; CHECK-LABEL: test_subi16:
+; CHECK:       # %bb.0:
+; CHECK-NEXT:    sub r3, r3, r4
+; CHECK-NEXT:    blr
+  %res = sub i16 %a, %b
+  ret i16 %res
+}
+
+define i32 @test_subi32(i32 %a, i32 %b) {
+; CHECK-LABEL: test_subi32:
+; CHECK:       # %bb.0:
+; CHECK-NEXT:    sub r3, r3, r4
+; CHECK-NEXT:    blr
+  %res = sub i32 %a, %b
+  ret i32 %res
+}
+
+define i64 @test_subi64(i64 %a, i64 %b) {
+; CHECK-LABEL: test_subi64:
+; CHECK:       # %bb.0:
+; CHECK-NEXT:    sub r3, r3, r4
+; CHECK-NEXT:    blr
+  %res = sub i64 %a, %b
+  ret i64 %res
+}