[RegAllocGreedy] Attempt to split unspillable live intervals
authorDylan McKay <dylanmckay34@gmail.com>
Tue, 11 Oct 2016 01:04:36 +0000 (01:04 +0000)
committerDylan McKay <dylanmckay34@gmail.com>
Tue, 11 Oct 2016 01:04:36 +0000 (01:04 +0000)
Summary:
Previously, when allocating unspillable live ranges, we would never
attempt to split. We would always bail out and try last ditch graph
recoloring.

This patch changes this by attempting to split all live intervals before
performing recoloring.

This fixes LLVM bug PR14879.

I can't add test cases for any backends other than AVR because none of
them have small enough register classes to trigger the bug.

Reviewers: qcolombet

Subscribers: MatzeB

Differential Revision: https://reviews.llvm.org/D25070

llvm-svn: 283838

llvm/lib/CodeGen/LiveRangeEdit.cpp
llvm/lib/CodeGen/RegAllocGreedy.cpp
llvm/test/CodeGen/AVR/high-pressure-on-ptrregs.ll [new file with mode: 0644]

index 6165689..bbbac4c 100644 (file)
@@ -438,6 +438,9 @@ LiveRangeEdit::MRI_NoteNewVirtualRegister(unsigned VReg)
   if (VRM)
     VRM->grow();
 
+  if (Parent && !Parent->isSpillable())
+    LIS.getInterval(VReg).markNotSpillable();
+
   NewRegs.push_back(VReg);
 }
 
index f73904c..644b80b 100644 (file)
@@ -2553,18 +2553,20 @@ unsigned RAGreedy::selectOrSplitImpl(LiveInterval &VirtReg,
     return 0;
   }
 
+  if (Stage < RS_Spill) {
+    // Try splitting VirtReg or interferences.
+    unsigned NewVRegSizeBefore = NewVRegs.size();
+    unsigned PhysReg = trySplit(VirtReg, Order, NewVRegs);
+    if (PhysReg || (NewVRegs.size() - NewVRegSizeBefore))
+      return PhysReg;
+  }
+
   // If we couldn't allocate a register from spilling, there is probably some
   // invalid inline assembly. The base class wil report it.
   if (Stage >= RS_Done || !VirtReg.isSpillable())
     return tryLastChanceRecoloring(VirtReg, Order, NewVRegs, FixedRegisters,
                                    Depth);
 
-  // Try splitting VirtReg or interferences.
-  unsigned NewVRegSizeBefore = NewVRegs.size();
-  unsigned PhysReg = trySplit(VirtReg, Order, NewVRegs);
-  if (PhysReg || (NewVRegs.size() - NewVRegSizeBefore))
-    return PhysReg;
-
   // Finally spill VirtReg itself.
   if (EnableDeferredSpilling && getStage(VirtReg) < RS_Memory) {
     // TODO: This is experimental and in particular, we do not model
diff --git a/llvm/test/CodeGen/AVR/high-pressure-on-ptrregs.ll b/llvm/test/CodeGen/AVR/high-pressure-on-ptrregs.ll
new file mode 100644 (file)
index 0000000..9330ce1
--- /dev/null
@@ -0,0 +1,78 @@
+; RUN: llc < %s -march=avr | FileCheck %s
+
+; This tests how LLVM handles IR which puts very high
+; presure on the PTRREGS class for the register allocator.
+;
+; This causes a problem because we only have one small register
+; class for loading and storing from pointers - 'PTRREGS'.
+; One of these registers is also used for the frame pointer, meaning
+; that we only ever have two registers available for these operations.
+;
+; There is an existing bug filed for this issue - PR14879.
+;
+; The specific failure:
+; LLVM ERROR: ran out of registers during register allocation
+;
+; It has been assembled from the following c code:
+;
+; struct ss
+; {
+;   int a;
+;   int b;
+;   int c;
+; };
+;
+; void loop(struct ss *x, struct ss **y, int z)
+; {
+;   int i;
+;   for (i=0; i<z; ++i)
+;   {
+;     x->c += y[i]->b;
+;   }
+; }
+
+%struct.ss = type { i16, i16, i16 }
+
+; CHECK-LABEL: loop
+define void @loop(%struct.ss* %x, %struct.ss** %y, i16 %z) #0 {
+entry:
+  %x.addr = alloca %struct.ss*, align 2
+  %y.addr = alloca %struct.ss**, align 2
+  %z.addr = alloca i16, align 2
+  %i = alloca i16, align 2
+  store %struct.ss* %x, %struct.ss** %x.addr, align 2
+  store %struct.ss** %y, %struct.ss*** %y.addr, align 2
+  store i16 %z, i16* %z.addr, align 2
+  store i16 0, i16* %i, align 2
+  br label %for.cond
+
+for.cond:                                         ; preds = %for.inc, %entry
+  %tmp = load i16, i16* %i, align 2
+  %tmp1 = load i16, i16* %z.addr, align 2
+  %cmp = icmp slt i16 %tmp, %tmp1
+  br i1 %cmp, label %for.body, label %for.end
+
+for.body:                                         ; preds = %for.cond
+  %tmp2 = load %struct.ss**, %struct.ss*** %y.addr, align 2
+  %tmp3 = load i16, i16* %i, align 2
+  %arrayidx = getelementptr inbounds %struct.ss*, %struct.ss** %tmp2, i16 %tmp3
+  %tmp4 = load %struct.ss*, %struct.ss** %arrayidx, align 2
+  %b = getelementptr inbounds %struct.ss, %struct.ss* %tmp4, i32 0, i32 1
+  %tmp5 = load i16, i16* %b, align 2
+  %tmp6 = load %struct.ss*, %struct.ss** %x.addr, align 2
+  %c = getelementptr inbounds %struct.ss, %struct.ss* %tmp6, i32 0, i32 2
+  %tmp7 = load i16, i16* %c, align 2
+  %add = add nsw i16 %tmp7, %tmp5
+  store i16 %add, i16* %c, align 2
+  br label %for.inc
+
+for.inc:                                          ; preds = %for.body
+  %tmp8 = load i16, i16* %i, align 2
+  %inc = add nsw i16 %tmp8, 1
+  store i16 %inc, i16* %i, align 2
+  br label %for.cond
+
+for.end:                                          ; preds = %for.cond
+  ret void
+}
+