loop.c (basic_induction_var): A non-integer variable which is being set by a paradoxi...
[platform/upstream/gcc.git] / gcc / loop.c
index 4d18f5e..2b2a837 100644 (file)
@@ -37,6 +37,7 @@ Boston, MA 02111-1307, USA.  */
 #include "config.h"
 #include "system.h"
 #include "rtl.h"
+#include "tm_p.h"
 #include "obstack.h"
 #include "function.h"
 #include "expr.h"
@@ -51,6 +52,11 @@ Boston, MA 02111-1307, USA.  */
 #include "except.h"
 #include "toplev.h"
 
+/* Information about the loop being processed used to compute
+   the number of loop iterations for loop unrolling and doloop
+   optimization.  */
+static struct loop_info this_loop_info;
+
 /* Vector mapping INSN_UIDs to luids.
    The luids are like uids but increase monotonically always.
    We use them to see whether a jump comes from outside a given loop.  */
@@ -121,25 +127,6 @@ rtx *loop_number_exit_labels;
 
 int *loop_number_exit_count;
 
-/* Nonzero if there is a subroutine call in the current loop.  */
-
-static int loop_has_call;
-
-/* Nonzero if there is a volatile memory reference in the current
-   loop.  */
-
-static int loop_has_volatile;
-
-/* Nonzero if there is a tablejump in the current loop.  */
-
-static int loop_has_tablejump;
-
-/* Added loop_continue which is the NOTE_INSN_LOOP_CONT of the
-   current loop.  A continue statement will generate a branch to
-   NEXT_INSN (loop_continue).  */
-
-static rtx loop_continue;
-
 /* Indexed by register number, contains the number of times the reg
    is set during the loop being scanned.
    During code motion, a negative value indicates a reg that has been
@@ -203,9 +190,10 @@ static int loop_mems_idx;
 
 static int loop_mems_allocated;
 
-/* Nonzero if we don't know what MEMs were changed in the current loop.
-   This happens if the loop contains a call (in which case `loop_has_call'
-   will also be set) or if we store into more than NUM_STORES MEMs.  */
+/* Nonzero if we don't know what MEMs were changed in the current
+   loop.  This happens if the loop contains a call (in which case
+   `loop_info->has_call' will also be set) or if we store into more
+   than NUM_STORES MEMs.  */
 
 static int unknown_address_altered;
 
@@ -215,9 +203,6 @@ static int num_movables;
 /* Count of memory write instructions discovered in the loop.  */
 static int num_mem_sets;
 
-/* Number of loops contained within the current one, including itself.  */
-static int loops_enclosed;
-
 /* Bound on pseudo register number before loop optimization.
    A pseudo has valid regscan info if its number is < max_reg_before_loop.  */
 int max_reg_before_loop;
@@ -284,12 +269,15 @@ static struct movable *the_movables;
 
 FILE *loop_dump_stream;
 
+/* For communicating return values from note_set_pseudo_multiple_uses.  */
+static int note_set_pseudo_multiple_uses_retval;
+
 /* Forward declarations.  */
 
 static void verify_dominator PROTO((int));
 static void find_and_verify_loops PROTO((rtx));
 static void mark_loop_jump PROTO((rtx, int));
-static void prescan_loop PROTO((rtx, rtx));
+static void prescan_loop PROTO((rtx, rtx, struct loop_info *));
 static int reg_in_basic_block_p PROTO((rtx, rtx));
 static int consec_sets_invariant_p PROTO((rtx, int, rtx));
 static int labels_in_range_p PROTO((rtx, int));
@@ -298,6 +286,7 @@ static void count_one_set PROTO((rtx, rtx, varray_type, rtx *));
 static void count_loop_regs_set PROTO((rtx, rtx, varray_type, varray_type,
                                       int *, int)); 
 static void note_addr_stored PROTO((rtx, rtx));
+static void note_set_pseudo_multiple_uses PROTO((rtx, rtx));
 static int loop_reg_used_before_p PROTO((rtx, rtx, rtx, rtx, rtx));
 static void scan_loop PROTO((rtx, rtx, rtx, int, int));
 #if 0
@@ -313,14 +302,15 @@ static int rtx_equal_for_loop_p PROTO((rtx, rtx, struct movable *));
 static void add_label_notes PROTO((rtx, rtx));
 static void move_movables PROTO((struct movable *, int, int, rtx, rtx, int));
 static int count_nonfixed_reads PROTO((rtx));
-static void strength_reduce PROTO((rtx, rtx, rtx, int, rtx, rtx, rtx, int, int));
+static void strength_reduce PROTO((rtx, rtx, rtx, int, rtx, rtx, 
+                                  struct loop_info *, rtx, int, int));
 static void find_single_use_in_loop PROTO((rtx, rtx, varray_type));
 static int valid_initial_value_p PROTO((rtx, rtx, int, rtx));
-static void find_mem_givs PROTO((rtx, rtx, int, rtx, rtx));
+static void find_mem_givs PROTO((rtx, rtx, int, int, rtx, rtx));
 static void record_biv PROTO((struct induction *, rtx, rtx, rtx, rtx, rtx *, int, int));
 static void check_final_value PROTO((struct induction *, rtx, rtx, 
                                     unsigned HOST_WIDE_INT));
-static void record_giv PROTO((struct induction *, rtx, rtx, rtx, rtx, rtx, int, enum g_types, int, rtx *, rtx, rtx));
+static void record_giv PROTO((struct induction *, rtx, rtx, rtx, rtx, rtx, int, enum g_types, int, int, rtx *, rtx, rtx));
 static void update_giv_derive PROTO((rtx));
 static int basic_induction_var PROTO((rtx, enum machine_mode, rtx, rtx, rtx *, rtx *, rtx **));
 static rtx simplify_giv_expr PROTO((rtx, int *));
@@ -665,6 +655,7 @@ scan_loop (loop_start, end, loop_cont, unroll_p, bct_p)
   /* Nonzero if we are scanning instructions in a sub-loop.  */
   int loop_depth = 0;
   int nregs;
+  struct loop_info *loop_info = &this_loop_info;
 
   /* Determine whether this loop starts with a jump down to a test at
      the end.  This will occur for a small number of loops with a test
@@ -694,8 +685,8 @@ scan_loop (loop_start, end, loop_cont, unroll_p, bct_p)
   scan_start = p;
 
   /* Set up variables describing this loop.  */
-  prescan_loop (loop_start, end);
-  threshold = (loop_has_call ? 1 : 2) * (1 + n_non_fixed_regs);
+  prescan_loop (loop_start, end, loop_info);
+  threshold = (loop_info->has_call ? 1 : 2) * (1 + n_non_fixed_regs);
 
   /* If loop has a jump before the first label,
      the true entry is the target of that jump.
@@ -778,9 +769,9 @@ scan_loop (loop_start, end, loop_cont, unroll_p, bct_p)
     {
       fprintf (loop_dump_stream, "\nLoop from %d to %d: %d real insns.\n",
               INSN_UID (loop_start), INSN_UID (end), insn_count);
-      if (loop_continue)
+      if (loop_info->cont)
        fprintf (loop_dump_stream, "Continue at insn %d.\n",
-                INSN_UID (loop_continue));
+                INSN_UID (loop_info->cont));
     }
 
   /* Scan through the loop finding insns that are safe to move.
@@ -907,7 +898,7 @@ scan_loop (loop_start, end, loop_cont, unroll_p, bct_p)
                 Don't do this if P has a REG_RETVAL note or if we have
                 SMALL_REGISTER_CLASSES and SET_SRC is a hard register.  */
 
-             if (loop_has_call
+             if (loop_info->has_call
                  && VARRAY_RTX (reg_single_usage, regno) != 0
                  && VARRAY_RTX (reg_single_usage, regno) != const0_rtx
                  && REGNO_FIRST_UID (regno) == INSN_UID (p)
@@ -1171,7 +1162,8 @@ scan_loop (loop_start, end, loop_cont, unroll_p, bct_p)
     {
       the_movables = movables;
       strength_reduce (scan_start, end, loop_top,
-                      insn_count, loop_start, end, loop_cont, unroll_p, bct_p);
+                      insn_count, loop_start, end,
+                      loop_info, loop_cont, unroll_p, bct_p);
     }
 
   VARRAY_FREE (reg_single_usage);
@@ -1692,7 +1684,7 @@ rtx_equal_for_loop_p (x, y, movables)
 }
 \f
 /* If X contains any LABEL_REF's, add REG_LABEL notes for them to all
-  insns in INSNS which use thet reference.  */
+  insns in INSNS which use the reference.  */
 
 static void
 add_label_notes (x, insns)
@@ -1838,7 +1830,7 @@ move_movables (movables, threshold, insn_count, loop_start, end, nregs)
            {
              int count;
              register struct movable *m1;
-             rtx first;
+             rtx first = NULL_RTX;
 
              /* Now move the insns that set the reg.  */
 
@@ -2369,12 +2361,15 @@ constant_high_bytes (p, loop_start)
   /* Try to change (SET (REG ...) (ZERO_EXTEND (..:B ...)))
      to (SET (STRICT_LOW_PART (SUBREG:B (REG...))) ...).  */
 
-  new = gen_rtx_SET (VOIDmode,
-                    gen_rtx_STRICT_LOW_PART (VOIDmode,
-                                             gen_rtx_SUBREG (GET_MODE (XEXP (SET_SRC (PATTERN (p)), 0)),
-                                  SET_DEST (PATTERN (p)),
-                                  0)),
-                XEXP (SET_SRC (PATTERN (p)), 0));
+  new
+    = gen_rtx_SET
+      (VOIDmode,
+       gen_rtx_STRICT_LOW_PART
+       (VOIDmode,
+       gen_rtx_SUBREG (GET_MODE (XEXP (SET_SRC (PATTERN (p)), 0)),
+                       SET_DEST (PATTERN (p)), 0)),
+       XEXP (SET_SRC (PATTERN (p)), 0));
+
   insn_code_number = recog (new, p);
 
   if (insn_code_number)
@@ -2382,8 +2377,8 @@ constant_high_bytes (p, loop_start)
       register int i;
 
       /* Clear destination register before the loop.  */
-      emit_insn_before (gen_rtx_SET (VOIDmode, SET_DEST (PATTERN (p)),
-                                    const0_rtx),
+      emit_insn_before (gen_rtx_SET (VOIDmode,
+                                    SET_DEST (PATTERN (p)), const0_rtx),
                        loop_start);
 
       /* Inside the loop, just load the low part.  */
@@ -2392,37 +2387,40 @@ constant_high_bytes (p, loop_start)
 }
 #endif
 \f
-/* Scan a loop setting the variables `unknown_address_altered',
-   `num_mem_sets', `loop_continue', `loops_enclosed', `loop_has_call',
-   `loop_has_volatile', and `loop_has_tablejump'.
-   Also, fill in the array `loop_mems' and the list `loop_store_mems'.  */
+/* Scan a loop setting the elements `cont', `vtop', `loops_enclosed',
+   `has_call', `has_volatile', and `has_tablejump' within LOOP_INFO.
+   Set the global variables `unknown_address_altered' and
+   `num_mem_sets'.  Also, fill in the array `loop_mems' and the list
+   `loop_store_mems'.  */
 
 static void
-prescan_loop (start, end)
+prescan_loop (start, end, loop_info)
      rtx start, end;
+     struct loop_info *loop_info;
 {
   register int level = 1;
   rtx insn;
-  int loop_has_multiple_exit_targets = 0;
   /* The label after END.  Jumping here is just like falling off the
      end of the loop.  We use next_nonnote_insn instead of next_label
      as a hedge against the (pathological) case where some actual insn
      might end up between the two.  */
   rtx exit_target = next_nonnote_insn (end);
-  if (exit_target == NULL_RTX || GET_CODE (exit_target) != CODE_LABEL)
-    loop_has_multiple_exit_targets = 1;
+
+  loop_info->num = uid_loop_num [INSN_UID (start)];
+  loop_info->has_indirect_jump = indirect_jump_in_function;
+  loop_info->has_call = 0;
+  loop_info->has_volatile = 0;
+  loop_info->has_tablejump = 0;
+  loop_info->loops_enclosed = 1;
+  loop_info->has_multiple_exit_targets = 0;
+  loop_info->cont = 0;
+  loop_info->vtop = 0;
 
   unknown_address_altered = 0;
-  loop_has_call = 0;
-  loop_has_volatile = 0;
-  loop_has_tablejump = 0;
   loop_store_mems = NULL_RTX;
   first_loop_store_insn = NULL_RTX;
   loop_mems_idx = 0;
-
   num_mem_sets = 0;
-  loops_enclosed = 1;
-  loop_continue = 0;
 
   for (insn = NEXT_INSN (start); insn != NEXT_INSN (end);
        insn = NEXT_INSN (insn))
@@ -2433,7 +2431,7 @@ prescan_loop (start, end)
            {
              ++level;
              /* Count number of loops contained in this one.  */
-             loops_enclosed++;
+             loop_info->loops_enclosed++;
            }
          else if (NOTE_LINE_NUMBER (insn) == NOTE_INSN_LOOP_END)
            {
@@ -2447,14 +2445,23 @@ prescan_loop (start, end)
          else if (NOTE_LINE_NUMBER (insn) == NOTE_INSN_LOOP_CONT)
            {
              if (level == 1)
-               loop_continue = insn;
+               loop_info->cont = insn;
+           }
+         else if (NOTE_LINE_NUMBER (insn) == NOTE_INSN_LOOP_VTOP)
+           {
+             /* If there is a NOTE_INSN_LOOP_VTOP, then this is a for
+                or while style loop, with a loop exit test at the
+                start.  Thus, we can assume that the loop condition
+                was true when the loop was entered.  */
+             if (level == 1)
+               loop_info->vtop = insn;
            }
        }
       else if (GET_CODE (insn) == CALL_INSN)
        {
          if (! CONST_CALL_P (insn))
            unknown_address_altered = 1;
-         loop_has_call = 1;
+         loop_info->has_call = 1;
        }
       else if (GET_CODE (insn) == INSN || GET_CODE (insn) == JUMP_INSN)
        {
@@ -2462,18 +2469,18 @@ prescan_loop (start, end)
          rtx label2 = NULL_RTX;
 
          if (volatile_refs_p (PATTERN (insn)))
-           loop_has_volatile = 1;
+           loop_info->has_volatile = 1;
 
          if (GET_CODE (insn) == JUMP_INSN
              && (GET_CODE (PATTERN (insn)) == ADDR_DIFF_VEC
                  || GET_CODE (PATTERN (insn)) == ADDR_VEC))
-           loop_has_tablejump = 1;
+           loop_info->has_tablejump = 1;
          
          note_stores (PATTERN (insn), note_addr_stored);
          if (! first_loop_store_insn && loop_store_mems)
            first_loop_store_insn = insn;
 
-         if (! loop_has_multiple_exit_targets
+         if (! loop_info->has_multiple_exit_targets
              && GET_CODE (insn) == JUMP_INSN
              && GET_CODE (PATTERN (insn)) == SET
              && SET_DEST (PATTERN (insn)) == pc_rtx)
@@ -2494,14 +2501,14 @@ prescan_loop (start, end)
                    if (GET_CODE (label1) != LABEL_REF)
                      {
                        /* Something tricky.  */
-                       loop_has_multiple_exit_targets = 1;
+                       loop_info->has_multiple_exit_targets = 1;
                        break;
                      }
                    else if (XEXP (label1, 0) != exit_target
                             && LABEL_OUTSIDE_LOOP_P (label1))
                      {
                        /* A jump outside the current loop.  */
-                       loop_has_multiple_exit_targets = 1;
+                       loop_info->has_multiple_exit_targets = 1;
                        break;
                      }
                  }
@@ -2512,7 +2519,7 @@ prescan_loop (start, end)
            }
        }
       else if (GET_CODE (insn) == RETURN)
-       loop_has_multiple_exit_targets = 1;
+       loop_info->has_multiple_exit_targets = 1;
     }
 
   /* Now, rescan the loop, setting up the LOOP_MEMS array.  */
@@ -2520,7 +2527,7 @@ prescan_loop (start, end)
       !unknown_address_altered 
       /* An exception thrown by a called function might land us
         anywhere.  */
-      && !loop_has_call
+      && !loop_info->has_call
       /* We don't want loads for MEMs moved to a location before the
         one at which their stack memory becomes allocated.  (Note
         that this is not a problem for malloc, etc., since those
@@ -2528,7 +2535,7 @@ prescan_loop (start, end)
       && !current_function_calls_alloca
       /* There are ways to leave the loop other than falling off the
         end.  */
-      && !loop_has_multiple_exit_targets)
+      && !loop_info->has_multiple_exit_targets)
     for (insn = NEXT_INSN (start); insn != NEXT_INSN (end);
         insn = NEXT_INSN (insn))
       for_each_rtx (&insn, insert_loop_mem, 0);
@@ -2662,41 +2669,41 @@ find_and_verify_loops (f)
               && GET_CODE (PATTERN (insn)) != RETURN
               && current_loop >= 0)
        {
-         int this_loop;
+         int this_loop_num;
          rtx label = JUMP_LABEL (insn);
 
          if (! condjump_p (insn) && ! condjump_in_parallel_p (insn))
            label = NULL_RTX;
 
-         this_loop = current_loop;
+         this_loop_num = current_loop;
          do
            {
              /* First see if we care about this loop.  */
-             if (loop_number_loop_cont[this_loop]
-                 && loop_number_cont_dominator[this_loop] != const0_rtx)
+             if (loop_number_loop_cont[this_loop_num]
+                 && loop_number_cont_dominator[this_loop_num] != const0_rtx)
                {
                  /* If the jump destination is not known, invalidate
                     loop_number_const_dominator.  */
                  if (! label)
-                   loop_number_cont_dominator[this_loop] = const0_rtx;
+                   loop_number_cont_dominator[this_loop_num] = const0_rtx;
                  else
                    /* Check if the destination is between loop start and
                       cont.  */
                    if ((INSN_LUID (label)
-                        < INSN_LUID (loop_number_loop_cont[this_loop]))
+                        < INSN_LUID (loop_number_loop_cont[this_loop_num]))
                        && (INSN_LUID (label)
-                           > INSN_LUID (loop_number_loop_starts[this_loop]))
+                           > INSN_LUID (loop_number_loop_starts[this_loop_num]))
                        /* And if there is no later destination already
                           recorded.  */
-                       && (! loop_number_cont_dominator[this_loop]
+                       && (! loop_number_cont_dominator[this_loop_num]
                            || (INSN_LUID (label)
                                > INSN_LUID (loop_number_cont_dominator
-                                            [this_loop]))))
-                     loop_number_cont_dominator[this_loop] = label;
+                                            [this_loop_num]))))
+                     loop_number_cont_dominator[this_loop_num] = label;
                }
-             this_loop = loop_outer_loop[this_loop];
+             this_loop_num = loop_outer_loop[this_loop_num];
            }
-         while (this_loop >= 0);
+         while (this_loop_num >= 0);
        }
 
       /* Note that this will mark the NOTE_INSN_LOOP_END note as being in the
@@ -2777,6 +2784,7 @@ find_and_verify_loops (f)
          {
            rtx p;
            rtx our_next = next_real_insn (insn);
+           rtx last_insn_to_move = NEXT_INSN (insn);
            int dest_loop;
            int outer_loop = -1;
 
@@ -2828,21 +2836,39 @@ find_and_verify_loops (f)
                && INSN_UID (JUMP_LABEL (p)) != 0
                && condjump_p (p)
                && ! simplejump_p (p)
-               && next_real_insn (JUMP_LABEL (p)) == our_next)
+               && next_real_insn (JUMP_LABEL (p)) == our_next
+               /* If it's not safe to move the sequence, then we
+                  mustn't try.  */
+               && insns_safe_to_move_p (p, NEXT_INSN (insn), 
+                                        &last_insn_to_move))
              {
                rtx target
                  = JUMP_LABEL (insn) ? JUMP_LABEL (insn) : get_last_insn ();
                int target_loop_num = uid_loop_num[INSN_UID (target)];
-               rtx loc;
+               rtx loc, loc2;
 
                for (loc = target; loc; loc = PREV_INSN (loc))
                  if (GET_CODE (loc) == BARRIER
+                     /* Don't move things inside a tablejump.  */
+                     && ((loc2 = next_nonnote_insn (loc)) == 0
+                         || GET_CODE (loc2) != CODE_LABEL
+                         || (loc2 = next_nonnote_insn (loc2)) == 0
+                         || GET_CODE (loc2) != JUMP_INSN
+                         || (GET_CODE (PATTERN (loc2)) != ADDR_VEC
+                             && GET_CODE (PATTERN (loc2)) != ADDR_DIFF_VEC))
                      && uid_loop_num[INSN_UID (loc)] == target_loop_num)
                    break;
 
                if (loc == 0)
                  for (loc = target; loc; loc = NEXT_INSN (loc))
                    if (GET_CODE (loc) == BARRIER
+                       /* Don't move things inside a tablejump.  */
+                       && ((loc2 = next_nonnote_insn (loc)) == 0
+                           || GET_CODE (loc2) != CODE_LABEL
+                           || (loc2 = next_nonnote_insn (loc2)) == 0
+                           || GET_CODE (loc2) != JUMP_INSN
+                           || (GET_CODE (PATTERN (loc2)) != ADDR_VEC
+                               && GET_CODE (PATTERN (loc2)) != ADDR_DIFF_VEC))
                        && uid_loop_num[INSN_UID (loc)] == target_loop_num)
                      break;
 
@@ -2883,11 +2909,13 @@ find_and_verify_loops (f)
 
                       /* Include the BARRIER after INSN and copy the
                          block after LOC.  */
-                      new_label = squeeze_notes (new_label, NEXT_INSN (insn));
-                      reorder_insns (new_label, NEXT_INSN (insn), loc);
+                      new_label = squeeze_notes (new_label, 
+                                                 last_insn_to_move);
+                      reorder_insns (new_label, last_insn_to_move, loc);
 
                       /* All those insns are now in TARGET_LOOP_NUM.  */
-                      for (q = new_label; q != NEXT_INSN (NEXT_INSN (insn));
+                      for (q = new_label; 
+                           q != NEXT_INSN (last_insn_to_move);
                            q = NEXT_INSN (q))
                         uid_loop_num[INSN_UID (q)] = target_loop_num;
 
@@ -3148,6 +3176,36 @@ note_addr_stored (x, y)
 
   loop_store_mems = gen_rtx_EXPR_LIST (VOIDmode, x, loop_store_mems);
 }
+
+/* X is a value modified by an INSN that references a biv inside a loop
+   exit test (ie, X is somehow related to the value of the biv).  If X
+   is a pseudo that is used more than once, then the biv is (effectively)
+   used more than once.  */
+
+static void
+note_set_pseudo_multiple_uses (x, y)
+     rtx x;
+     rtx y ATTRIBUTE_UNUSED;
+{
+  if (x == 0)
+    return;
+
+  while (GET_CODE (x) == STRICT_LOW_PART
+        || GET_CODE (x) == SIGN_EXTRACT
+        || GET_CODE (x) == ZERO_EXTRACT
+        || GET_CODE (x) == SUBREG)
+    x = XEXP (x, 0);
+
+  if (GET_CODE (x) != REG || REGNO (x) < FIRST_PSEUDO_REGISTER)
+    return;
+
+  /* If we do not have usage information, or if we know the register
+     is used more than once, note that fact for check_dbra_loop.  */
+  if (REGNO (x) >= max_reg_before_loop
+      || ! VARRAY_RTX (reg_single_usage, REGNO (x))
+      || VARRAY_RTX (reg_single_usage, REGNO (x)) == const0_rtx)
+    note_set_pseudo_multiple_uses_retval = 1;
+}
 \f
 /* Return nonzero if the rtx X is invariant over the current loop.
 
@@ -3207,7 +3265,7 @@ invariant_p (x)
          && ! current_function_has_nonlocal_goto)
        return 1;
 
-      if (loop_has_call
+      if (this_loop_info.has_call
          && REGNO (x) < FIRST_PSEUDO_REGISTER && call_used_regs[REGNO (x)])
        return 0;
 
@@ -3662,13 +3720,14 @@ static rtx addr_placeholder;
 
 static void
 strength_reduce (scan_start, end, loop_top, insn_count,
-                loop_start, loop_end, loop_cont, unroll_p, bct_p)
+                loop_start, loop_end, loop_info, loop_cont, unroll_p, bct_p)
      rtx scan_start;
      rtx end;
      rtx loop_top;
      int insn_count;
      rtx loop_start;
      rtx loop_end;
+     struct loop_info *loop_info;
      rtx loop_cont;
      int unroll_p, bct_p ATTRIBUTE_UNUSED;
 {
@@ -3694,7 +3753,7 @@ strength_reduce (scan_start, end, loop_top, insn_count,
      since in that case saving an insn makes more difference
      and more registers are available.  */
   /* ??? could set this to last value of threshold in move_movables */
-  int threshold = (loop_has_call ? 1 : 2) * (3 + n_non_fixed_regs);
+  int threshold = (loop_info->has_call ? 1 : 2) * (3 + n_non_fixed_regs);
   /* Map of pseudo-register replacements.  */
   rtx *reg_map;
   int reg_map_size;
@@ -3703,8 +3762,7 @@ strength_reduce (scan_start, end, loop_top, insn_count,
   rtx end_insert_before;
   int loop_depth = 0;
   int n_extra_increment;
-  struct loop_info loop_iteration_info;
-  struct loop_info *loop_info = &loop_iteration_info;
+  int unrolled_insn_copies = 0;
 
   /* If scan_start points to the loop exit test, we have to be wary of
      subversive use of gotos inside expression statements.  */
@@ -3924,7 +3982,7 @@ strength_reduce (scan_start, end, loop_top, insn_count,
        unroll_loop (loop_end, insn_count, loop_start, end_insert_before,
                     loop_info, 0);
 
-      return;
+      goto egress;
     }
 
   /* Find initial value for each biv by searching backwards from loop_start,
@@ -4016,7 +4074,7 @@ strength_reduce (scan_start, end, loop_top, insn_count,
       else
        {
          struct iv_class *bl2 = 0;
-         rtx increment;
+         rtx increment = NULL_RTX;
 
          /* Biv initial value is not a simple move.  If it is the sum of
             another biv and a constant, check if both bivs are incremented
@@ -4051,14 +4109,14 @@ strength_reduce (scan_start, end, loop_top, insn_count,
              /* The register from BL2 must be set before the register from
                 BL is set, or we must be able to move the latter set after
                 the former set.  Currently there can't be any labels
-                in-between when biv_toal_increment returns nonzero both times
+                in-between when biv_total_increment returns nonzero both times
                 but we test it here in case some day some real cfg analysis
                 gets used to set always_computable.  */
-             && ((loop_insn_first_p (bl2->biv->insn, bl->biv->insn)
-                  && no_labels_between_p (bl2->biv->insn, bl->biv->insn))
-                 || (! reg_used_between_p (bl->biv->src_reg, bl->biv->insn,
-                                           bl2->biv->insn)
-                     && no_jumps_between_p (bl->biv->insn, bl2->biv->insn)))
+             && (loop_insn_first_p (bl2->biv->insn, bl->biv->insn)
+                 ? no_labels_between_p (bl2->biv->insn, bl->biv->insn)
+                 : (! reg_used_between_p (bl->biv->src_reg, bl->biv->insn,
+                                          bl2->biv->insn)
+                    && no_jumps_between_p (bl->biv->insn, bl2->biv->insn)))
              && validate_change (bl->biv->insn,
                                  &SET_SRC (single_set (bl->biv->insn)),
                                  copy_rtx (src), 0))
@@ -4157,7 +4215,7 @@ strength_reduce (scan_start, end, loop_top, insn_count,
 
   /* If the loop contains volatile memory references do not allow any
      replacements to take place, since this could loose the volatile markers.  */
-  if (n_extra_increment  && ! loop_has_volatile)
+  if (n_extra_increment  && ! loop_info->has_volatile)
     {
       int nregs = first_increment_giv + n_extra_increment;
 
@@ -4378,6 +4436,7 @@ strength_reduce (scan_start, end, loop_top, insn_count,
 
   not_every_iteration = 0;
   loop_depth = 0;
+  maybe_multiple = 0;
   p = scan_start;
   while (1)
     {
@@ -4446,8 +4505,8 @@ strength_reduce (scan_start, end, loop_top, insn_count,
                p = last_consec_insn;
 
              record_giv (v, p, src_reg, dest_reg, mult_val, add_val, benefit,
-                         DEST_REG, not_every_iteration, NULL_PTR, loop_start,
-                         loop_end);
+                         DEST_REG, not_every_iteration, maybe_multiple,
+                         NULL_PTR, loop_start, loop_end);
 
            }
        }
@@ -4457,8 +4516,8 @@ strength_reduce (scan_start, end, loop_top, insn_count,
       /* This resulted in worse code on a VAX 8600.  I wonder if it
         still does.  */
       if (GET_CODE (p) == INSN)
-       find_mem_givs (PATTERN (p), p, not_every_iteration, loop_start,
-                      loop_end);
+       find_mem_givs (PATTERN (p), p, not_every_iteration, maybe_multiple,
+                      loop_start, loop_end);
 #endif
 
       /* Update the status of whether giv can derive other givs.  This can
@@ -4467,6 +4526,49 @@ strength_reduce (scan_start, end, loop_top, insn_count,
        || GET_CODE (p) == CODE_LABEL)
        update_giv_derive (p);
 
+      /* Past CODE_LABEL, we get to insns that may be executed multiple
+        times.  The only way we can be sure that they can't is if every
+        every jump insn between here and the end of the loop either
+        returns, exits the loop, is a forward jump, or is a jump
+        to the loop start.  */
+
+      if (GET_CODE (p) == CODE_LABEL)
+       {
+         rtx insn = p;
+
+         maybe_multiple = 0;
+
+         while (1)
+           {
+             insn = NEXT_INSN (insn);
+             if (insn == scan_start)
+               break;
+             if (insn == end)
+               {
+                 if (loop_top != 0)
+                   insn = loop_top;
+                 else
+                   break;
+                 if (insn == scan_start)
+                   break;
+               }
+
+             if (GET_CODE (insn) == JUMP_INSN
+                 && GET_CODE (PATTERN (insn)) != RETURN
+                 && (! condjump_p (insn)
+                     || (JUMP_LABEL (insn) != 0
+                         && JUMP_LABEL (insn) != scan_start
+                         && (INSN_UID (JUMP_LABEL (insn)) >= max_uid_for_loop
+                             || INSN_UID (insn) >= max_uid_for_loop
+                             || (INSN_LUID (JUMP_LABEL (insn))
+                                 < INSN_LUID (insn))))))
+               {
+                 maybe_multiple = 1;
+                 break;
+               }
+           }
+       }
+
       /* Past a jump, we get to insns for which we can't count
         on whether they will be executed during each iteration.  */
       /* This code appears twice in strength_reduce.  There is also similar
@@ -4571,7 +4673,7 @@ strength_reduce (scan_start, end, loop_top, insn_count,
       int benefit;
       int all_reduced;
       rtx final_value = 0;
-      unsigned nregs;
+      unsigned int nregs;
 
       /* Test whether it will be possible to eliminate this biv
         provided all givs are reduced.  This is possible if either
@@ -5133,11 +5235,40 @@ strength_reduce (scan_start, end, loop_top, insn_count,
        INSN_CODE (p) = -1;
       }
 
+  if (loop_info->n_iterations > 0)
+    {
+      /* When we completely unroll a loop we will likely not need the increment
+        of the loop BIV and we will not need the conditional branch at the
+        end of the loop.  */
+      unrolled_insn_copies = insn_count - 2;
+
+#ifdef HAVE_cc0
+      /* When we completely unroll a loop on a HAVE_cc0 machine we will not
+        need the comparison before the conditional branch at the end of the
+        loop.  */
+      unrolled_insn_copies -= 1;
+#endif
+
+      /* We'll need one copy for each loop iteration.  */
+      unrolled_insn_copies *= loop_info->n_iterations;
+
+      /* A little slop to account for the ability to remove initialization
+        code, better CSE, and other secondary benefits of completely
+        unrolling some loops.  */
+      unrolled_insn_copies -= 1;
+
+      /* Clamp the value.  */
+      if (unrolled_insn_copies < 0)
+       unrolled_insn_copies = 0;
+    }
+  
   /* Unroll loops from within strength reduction so that we can use the
      induction variable information that strength_reduce has already
-     collected.  */
-  
-  if (unroll_p)
+     collected.  Always unroll loops that would be as small or smaller
+     unrolled than when rolled.  */
+  if (unroll_p
+      || (loop_info->n_iterations > 0
+         && unrolled_insn_copies <= insn_count))
     unroll_loop (loop_end, insn_count, loop_start, end_insert_before,
                 loop_info, 1);
 
@@ -5150,6 +5281,8 @@ strength_reduce (scan_start, end, loop_top, insn_count,
 
   if (loop_dump_stream)
     fprintf (loop_dump_stream, "\n");
+
+egress:
   VARRAY_FREE (reg_iv_type);
   VARRAY_FREE (reg_iv_info);
 }
@@ -5196,13 +5329,15 @@ valid_initial_value_p (x, insn, call_seen, loop_start)
 /* Scan X for memory refs and check each memory address
    as a possible giv.  INSN is the insn whose pattern X comes from.
    NOT_EVERY_ITERATION is 1 if the insn might not be executed during
-   every loop iteration.  */
+   every loop iteration.  MAYBE_MULTIPLE is 1 if the insn might be executed
+   more thanonce in each loop iteration.  */
 
 static void
-find_mem_givs (x, insn, not_every_iteration, loop_start, loop_end)
+find_mem_givs (x, insn, not_every_iteration, maybe_multiple, loop_start,
+              loop_end)
      rtx x;
      rtx insn;
-     int not_every_iteration;
+     int not_every_iteration, maybe_multiple;
      rtx loop_start, loop_end;
 {
   register int i, j;
@@ -5250,7 +5385,7 @@ find_mem_givs (x, insn, not_every_iteration, loop_start, loop_end)
 
            record_giv (v, insn, src_reg, addr_placeholder, mult_val,
                        add_val, benefit, DEST_ADDR, not_every_iteration,
-                       &XEXP (x, 0), loop_start, loop_end);
+                       maybe_multiple, &XEXP (x, 0), loop_start, loop_end);
 
            v->mem_mode = GET_MODE (x);
          }
@@ -5266,12 +5401,12 @@ find_mem_givs (x, insn, not_every_iteration, loop_start, loop_end)
   fmt = GET_RTX_FORMAT (code);
   for (i = GET_RTX_LENGTH (code) - 1; i >= 0; i--)
     if (fmt[i] == 'e')
-      find_mem_givs (XEXP (x, i), insn, not_every_iteration, loop_start,
-                    loop_end);
+      find_mem_givs (XEXP (x, i), insn, not_every_iteration, maybe_multiple,
+                    loop_start, loop_end);
     else if (fmt[i] == 'E')
       for (j = 0; j < XVECLEN (x, i); j++)
        find_mem_givs (XVECEXP (x, i, j), insn, not_every_iteration,
-                      loop_start, loop_end);
+                      maybe_multiple, loop_start, loop_end);
 }
 \f
 /* Fill in the data about one biv update.
@@ -5393,7 +5528,8 @@ record_biv (v, insn, dest_reg, inc_val, mult_val, location,
 
 static void
 record_giv (v, insn, src_reg, dest_reg, mult_val, add_val, benefit,
-           type, not_every_iteration, location, loop_start, loop_end)
+           type, not_every_iteration, maybe_multiple, location, loop_start,
+           loop_end)
      struct induction *v;
      rtx insn;
      rtx src_reg;
@@ -5401,7 +5537,7 @@ record_giv (v, insn, src_reg, dest_reg, mult_val, add_val, benefit,
      rtx mult_val, add_val;
      int benefit;
      enum g_types type;
-     int not_every_iteration;
+     int not_every_iteration, maybe_multiple;
      rtx *location;
      rtx loop_start, loop_end;
 {
@@ -5419,7 +5555,7 @@ record_giv (v, insn, src_reg, dest_reg, mult_val, add_val, benefit,
   v->location = location;
   v->cant_derive = 0;
   v->combined_with = 0;
-  v->maybe_multiple = 0;
+  v->maybe_multiple = maybe_multiple;
   v->maybe_dead = 0;
   v->derive_adjustment = 0;
   v->same = 0;
@@ -5854,9 +5990,10 @@ update_giv_derive (p)
                                             &dummy);
 
                  if (tem && giv->derive_adjustment)
-                   tem = simplify_giv_expr (gen_rtx_PLUS (giv->mode, tem,
-                                                          giv->derive_adjustment),
-                                            &dummy);
+                   tem = simplify_giv_expr
+                     (gen_rtx_PLUS (giv->mode, tem, giv->derive_adjustment),
+                      &dummy);
+
                  if (tem)
                    giv->derive_adjustment = tem;
                  else
@@ -5921,6 +6058,7 @@ basic_induction_var (x, mode, dest_reg, p, inc_val, mult_val, location)
   rtx insn, set = 0;
 
   code = GET_CODE (x);
+  *location = NULL;
   switch (code)
     {
     case PLUS:
@@ -5980,6 +6118,8 @@ basic_induction_var (x, mode, dest_reg, p, inc_val, mult_val, location)
               || (GET_CODE (SET_DEST (set)) == SUBREG
                   && (GET_MODE_SIZE (GET_MODE (SET_DEST (set)))
                       <= UNITS_PER_WORD)
+                  && (GET_MODE_CLASS (GET_MODE (SET_DEST (set)))
+                      == MODE_INT)
                   && SUBREG_REG (SET_DEST (set)) == x))
              && basic_induction_var (SET_SRC (set),
                                      (GET_MODE (SET_SRC (set)) == VOIDmode
@@ -6004,7 +6144,7 @@ basic_induction_var (x, mode, dest_reg, p, inc_val, mult_val, location)
       /* convert_modes aborts if we try to convert to or from CCmode, so just
          exclude that case.  It is very unlikely that a condition code value
         would be a useful iterator anyways.  */
-      if (loops_enclosed == 1
+      if (this_loop_info.loops_enclosed == 1
          && GET_MODE_CLASS (mode) != MODE_CC
          && GET_MODE_CLASS (GET_MODE (dest_reg)) != MODE_CC)
        {
@@ -6178,8 +6318,10 @@ general_induction_var (x, src_reg, add_val, mult_val, is_addr, pbenefit)
 
    *BENEFIT will be incremented by the benefit of any sub-giv encountered.  */
 
-static rtx sge_plus PROTO ((enum machine_mode, rtx, rtx));
-static rtx sge_plus_constant PROTO ((rtx, rtx));
+static rtx sge_plus PARAMS ((enum machine_mode, rtx, rtx));
+static rtx sge_plus_constant PARAMS ((rtx, rtx));
+static int cmp_combine_givs_stats PARAMS ((const PTR, const PTR));
+static int cmp_recombine_givs_stats PARAMS ((const PTR, const PTR));
 
 static rtx
 simplify_giv_expr (x, benefit)
@@ -6246,10 +6388,13 @@ simplify_giv_expr (x, benefit)
 
          case PLUS:
            /* (a + invar_1) + invar_2.  Associate.  */
-           return simplify_giv_expr (
-               gen_rtx_PLUS (mode, XEXP (arg0, 0),
-                             gen_rtx_PLUS (mode, XEXP (arg0, 1), arg1)),
-               benefit);
+           return
+             simplify_giv_expr (gen_rtx_PLUS (mode,
+                                              XEXP (arg0, 0),
+                                              gen_rtx_PLUS (mode,
+                                                            XEXP (arg0, 1),
+                                                            arg1)),
+                                benefit);
 
          default:
            abort ();
@@ -6269,11 +6414,12 @@ simplify_giv_expr (x, benefit)
        tem = arg0, arg0 = arg1, arg1 = tem;
 
       if (GET_CODE (arg1) == PLUS)
-         return simplify_giv_expr (gen_rtx_PLUS (mode,
-                                                 gen_rtx_PLUS (mode, arg0,
-                                                               XEXP (arg1, 0)),
-                                                 XEXP (arg1, 1)),
-                                   benefit);
+         return
+           simplify_giv_expr (gen_rtx_PLUS (mode,
+                                            gen_rtx_PLUS (mode, arg0,
+                                                          XEXP (arg1, 0)),
+                                            XEXP (arg1, 1)),
+                              benefit);
 
       /* Now must have MULT + MULT.  Distribute if same biv, else not giv.  */
       if (GET_CODE (arg0) != MULT || GET_CODE (arg1) != MULT)
@@ -6293,7 +6439,8 @@ simplify_giv_expr (x, benefit)
       /* Handle "a - b" as "a + b * (-1)".  */
       return simplify_giv_expr (gen_rtx_PLUS (mode,
                                              XEXP (x, 0),
-                                             gen_rtx_MULT (mode, XEXP (x, 1),
+                                             gen_rtx_MULT (mode,
+                                                           XEXP (x, 1),
                                                            constm1_rtx)),
                                benefit);
 
@@ -6352,7 +6499,8 @@ simplify_giv_expr (x, benefit)
 
        case MULT:
          /* (a * invar_1) * invar_2.  Associate.  */
-         return simplify_giv_expr (gen_rtx_MULT (mode, XEXP (arg0, 0),
+         return simplify_giv_expr (gen_rtx_MULT (mode,
+                                                 XEXP (arg0, 0),
                                                  gen_rtx_MULT (mode,
                                                                XEXP (arg0, 1),
                                                                arg1)),
@@ -6378,11 +6526,12 @@ simplify_giv_expr (x, benefit)
       if (GET_CODE (XEXP (x, 1)) != CONST_INT)
        return 0;
 
-      return simplify_giv_expr (gen_rtx_MULT (mode,
-                                             XEXP (x, 0),
-                                             GEN_INT ((HOST_WIDE_INT) 1
-                                                      << INTVAL (XEXP (x, 1)))),
-                               benefit);
+      return
+       simplify_giv_expr (gen_rtx_MULT (mode,
+                                        XEXP (x, 0),
+                                        GEN_INT ((HOST_WIDE_INT) 1
+                                                 << INTVAL (XEXP (x, 1)))),
+                          benefit);
 
     case NEG:
       /* "-a" is "a * (-1)" */
@@ -6420,9 +6569,10 @@ simplify_giv_expr (x, benefit)
            if (v->cant_derive)
              return 0;
 
-           tem = gen_rtx_PLUS (mode, gen_rtx_MULT (mode, v->src_reg,
-                                                   v->mult_val),
-                          v->add_val);
+           tem = gen_rtx_PLUS (mode, gen_rtx_MULT (mode,
+                                                   v->src_reg, v->mult_val),
+                               v->add_val);
+
            if (v->derive_adjustment)
              tem = gen_rtx_MINUS (mode, tem, v->derive_adjustment);
            return simplify_giv_expr (tem, benefit);
@@ -6813,6 +6963,30 @@ express_from (g1, g2)
 
   add = express_from_1 (g1->add_val, g2->add_val, mult);
   if (add == NULL_RTX)
+    {
+      /* Failed.  If we've got a multiplication factor between G1 and G2,
+        scale G1's addend and try again.  */
+      if (INTVAL (mult) > 1)
+       {
+         rtx g1_add_val = g1->add_val;
+         if (GET_CODE (g1_add_val) == MULT
+             && GET_CODE (XEXP (g1_add_val, 1)) == CONST_INT)
+           {
+             HOST_WIDE_INT m;
+             m = INTVAL (mult) * INTVAL (XEXP (g1_add_val, 1));
+             g1_add_val = gen_rtx_MULT (GET_MODE (g1_add_val),
+                                        XEXP (g1_add_val, 0), GEN_INT (m));
+           }
+         else
+           {
+             g1_add_val = gen_rtx_MULT (GET_MODE (g1_add_val), g1_add_val,
+                                        mult);
+           }
+
+         add = express_from_1 (g1_add_val, g2->add_val, const1_rtx);
+       }
+    }
+  if (add == NULL_RTX)
     return NULL_RTX;
 
   /* Form simplified final result.  */
@@ -6893,9 +7067,14 @@ struct combine_givs_stats
 };
 
 static int
-cmp_combine_givs_stats (x, y)
-     struct combine_givs_stats *x, *y;
+cmp_combine_givs_stats (xp, yp)
+     const PTR xp;
+     const PTR yp;
 {
+  const struct combine_givs_stats * const x =
+    (const struct combine_givs_stats *) xp;
+  const struct combine_givs_stats * const y =
+    (const struct combine_givs_stats *) yp;
   int d;
   d = y->total_benefit - x->total_benefit;
   /* Stabilize the sort.  */
@@ -7080,9 +7259,14 @@ struct recombine_givs_stats
    when scanning the array starting at the end, thus the arguments are
    used in reverse.  */
 static int
-cmp_recombine_givs_stats (x, y)
-     struct recombine_givs_stats *x, *y;
+cmp_recombine_givs_stats (xp, yp)
+     const PTR xp;
+     const PTR yp;
 {
+  const struct recombine_givs_stats * const x =
+    (const struct recombine_givs_stats *) xp;
+  const struct recombine_givs_stats * const y =
+    (const struct recombine_givs_stats *) yp;
   int d;
   d = y->start_luid - x->start_luid;
   /* Stabilize the sort.  */
@@ -7745,7 +7929,8 @@ check_dbra_loop (loop_end, insn_count, loop_start, loop_info)
            }
        }
     }
-  else if (INTVAL (bl->biv->add_val) > 0)
+  else if (GET_CODE (bl->biv->add_val) == CONST_INT
+          && INTVAL (bl->biv->add_val) > 0)
     {
       /* Try to change inc to dec, so can apply above optimization.  */
       /* Can do this if:
@@ -7783,10 +7968,22 @@ check_dbra_loop (loop_end, insn_count, loop_start, loop_info)
                    && REGNO (SET_DEST (set)) == bl->regno)
                  /* An insn that sets the biv is okay.  */
                  ;
-               else if (p == prev_nonnote_insn (prev_nonnote_insn (loop_end))
-                        || p == prev_nonnote_insn (loop_end))
-                 /* Don't bother about the end test.  */
-                 ;
+               else if ((p == prev_nonnote_insn (prev_nonnote_insn (loop_end))
+                         || p == prev_nonnote_insn (loop_end))
+                        && reg_mentioned_p (bivreg, PATTERN (p)))
+                 {
+                   /* If either of these insns uses the biv and sets a pseudo
+                      that has more than one usage, then the biv has uses
+                      other than counting since it's used to derive a value
+                      that is used more than one time.  */
+                   note_set_pseudo_multiple_uses_retval = 0;
+                   note_stores (PATTERN (p), note_set_pseudo_multiple_uses);
+                   if (note_set_pseudo_multiple_uses_retval)
+                     {
+                       no_use_except_counting = 0;
+                       break;
+                     }
+                 }
                else if (reg_mentioned_p (bivreg, PATTERN (p)))
                  {
                    no_use_except_counting = 0;
@@ -7842,8 +8039,8 @@ check_dbra_loop (loop_end, insn_count, loop_start, loop_info)
         about all these things.  */
 
       if ((num_nonfixed_reads <= 1
-          && !loop_has_call
-          && !loop_has_volatile
+          && ! loop_info->has_call
+          && ! loop_info->has_volatile
           && reversible_mem_store
           && (bl->giv_count + bl->biv_count + num_mem_sets
              + num_movables + compare_and_branch == insn_count)
@@ -7871,7 +8068,7 @@ check_dbra_loop (loop_end, insn_count, loop_start, loop_info)
                  || (GET_CODE (comparison) == LE
                      && no_use_except_counting)))
            {
-             HOST_WIDE_INT add_val, add_adjust, comparison_val;
+             HOST_WIDE_INT add_val, add_adjust, comparison_val = 0;
              rtx initial_value, comparison_value;
              int nonneg = 0;
              enum rtx_code cmp_code;
@@ -7929,12 +8126,13 @@ check_dbra_loop (loop_end, insn_count, loop_start, loop_info)
 
              /* First check if we can do a vanilla loop reversal.  */
              if (initial_value == const0_rtx
-                 /* If we have a decrement_and_branch_on_count, prefer
-                    the NE test, since this will allow that instruction to
-                    be generated.  Note that we must use a vanilla loop
-                    reversal if the biv is used to calculate a giv or has
-                    a non-counting use.  */
-#if ! defined (HAVE_decrement_and_branch_until_zero) && defined (HAVE_decrement_and_branch_on_count)
+                 /* If we have a decrement_and_branch_on_count,
+                    prefer the NE test, since this will allow that
+                    instruction to be generated.  Note that we must
+                    use a vanilla loop reversal if the biv is used to
+                    calculate a giv or has a non-counting use.  */
+#if ! defined (HAVE_decrement_and_branch_until_zero) \
+&& defined (HAVE_decrement_and_branch_on_count)
                  && (! (add_val == 1 && loop_info->vtop
                         && (bl->biv_count == 0
                             || no_use_except_counting)))
@@ -8016,10 +8214,12 @@ check_dbra_loop (loop_end, insn_count, loop_start, loop_info)
                  enum machine_mode mode = GET_MODE (reg);
                  enum insn_code icode
                    = add_optab->handlers[(int) mode].insn_code;
-                 if (! (*insn_operand_predicate[icode][0]) (reg, mode)
-                     || ! ((*insn_operand_predicate[icode][1])
+
+                 if (! (*insn_data[icode].operand[0].predicate) (reg, mode)
+                     || ! ((*insn_data[icode].operand[1].predicate)
                            (comparison_value, mode))
-                     || ! (*insn_operand_predicate[icode][2]) (offset, mode))
+                     || ! ((*insn_data[icode].operand[2].predicate)
+                           (offset, mode)))
                    return 0;
                  start_value
                    = gen_rtx_PLUS (mode, comparison_value, offset);
@@ -8035,10 +8235,10 @@ check_dbra_loop (loop_end, insn_count, loop_start, loop_info)
                  enum machine_mode mode = GET_MODE (reg);
                  enum insn_code icode
                    = sub_optab->handlers[(int) mode].insn_code;
-                 if (! (*insn_operand_predicate[icode][0]) (reg, mode)
-                     || ! ((*insn_operand_predicate[icode][1])
+                 if (! (*insn_data[icode].operand[0].predicate) (reg, mode)
+                     || ! ((*insn_data[icode].operand[1].predicate)
                            (comparison_value, mode))
-                     || ! ((*insn_operand_predicate[icode][2])
+                     || ! ((*insn_data[icode].operand[2].predicate)
                            (initial_value, mode)))
                    return 0;
                  start_value
@@ -8143,7 +8343,7 @@ check_dbra_loop (loop_end, insn_count, loop_start, loop_info)
                       REG_EQUAL notes should still be correct.  */
                    if (! set
                        || GET_CODE (SET_DEST (set)) != REG
-                       || REGNO (SET_DEST (set)) >= reg_iv_type->num_elements
+                       || (size_t) REGNO (SET_DEST (set)) >= reg_iv_type->num_elements
                        || REG_IV_TYPE (REGNO (SET_DEST (set))) != GENERAL_INDUCT
                        || REG_IV_INFO (REGNO (SET_DEST (set)))->src_reg != bl->biv->src_reg)
                      for (pnote = &REG_NOTES (p); *pnote;)
@@ -9062,7 +9262,7 @@ insert_bct (loop_start, loop_end, loop_info)
   int loop_num = uid_loop_num [INSN_UID (loop_start)];
 
   /* It's impossible to instrument a competely unrolled loop.  */
-  if (loop_info->unroll_number == -1)
+  if (loop_info->unroll_number == loop_info->n_iterations)
     return;
 
   /* Make sure that the count register is not in use.  */
@@ -9099,7 +9299,7 @@ insert_bct (loop_start, loop_end, loop_info)
 
   /* Make sure that the loop does not contain a function call
      (the count register might be altered by the called function).  */
-  if (loop_has_call)
+  if (loop_info->has_call)
     {
       if (loop_dump_stream)
        fprintf (loop_dump_stream,
@@ -9110,7 +9310,7 @@ insert_bct (loop_start, loop_end, loop_info)
 
   /* Make sure that the loop does not jump via a table.
      (the count register might be used to perform the branch on table).  */
-  if (loop_has_tablejump)
+  if (loop_info->has_tablejump)
     {
       if (loop_dump_stream)
        fprintf (loop_dump_stream,
@@ -9479,7 +9679,7 @@ load_mems (scan_start, end, loop_top, start)
   int i;
   rtx p;
   rtx label = NULL_RTX;
-  rtx end_label;
+  rtx end_label = NULL_RTX;
 
   if (loop_mems_idx > 0) 
     {