loop.c (basic_induction_var): A non-integer variable which is being set by a paradoxi...
[platform/upstream/gcc.git] / gcc / loop.c
index 244d939..2b2a837 100644 (file)
@@ -37,7 +37,9 @@ Boston, MA 02111-1307, USA.  */
 #include "config.h"
 #include "system.h"
 #include "rtl.h"
+#include "tm_p.h"
 #include "obstack.h"
+#include "function.h"
 #include "expr.h"
 #include "insn-config.h"
 #include "insn-flags.h"
@@ -50,6 +52,11 @@ Boston, MA 02111-1307, USA.  */
 #include "except.h"
 #include "toplev.h"
 
+/* Information about the loop being processed used to compute
+   the number of loop iterations for loop unrolling and doloop
+   optimization.  */
+static struct loop_info this_loop_info;
+
 /* Vector mapping INSN_UIDs to luids.
    The luids are like uids but increase monotonically always.
    We use them to see whether a jump comes from outside a given loop.  */
@@ -120,25 +127,6 @@ rtx *loop_number_exit_labels;
 
 int *loop_number_exit_count;
 
-/* Nonzero if there is a subroutine call in the current loop.  */
-
-static int loop_has_call;
-
-/* Nonzero if there is a volatile memory reference in the current
-   loop.  */
-
-static int loop_has_volatile;
-
-/* Nonzero if there is a tablejump in the current loop.  */
-
-static int loop_has_tablejump;
-
-/* Added loop_continue which is the NOTE_INSN_LOOP_CONT of the
-   current loop.  A continue statement will generate a branch to
-   NEXT_INSN (loop_continue).  */
-
-static rtx loop_continue;
-
 /* Indexed by register number, contains the number of times the reg
    is set during the loop being scanned.
    During code motion, a negative value indicates a reg that has been
@@ -202,9 +190,10 @@ static int loop_mems_idx;
 
 static int loop_mems_allocated;
 
-/* Nonzero if we don't know what MEMs were changed in the current loop.
-   This happens if the loop contains a call (in which case `loop_has_call'
-   will also be set) or if we store into more than NUM_STORES MEMs.  */
+/* Nonzero if we don't know what MEMs were changed in the current
+   loop.  This happens if the loop contains a call (in which case
+   `loop_info->has_call' will also be set) or if we store into more
+   than NUM_STORES MEMs.  */
 
 static int unknown_address_altered;
 
@@ -214,9 +203,6 @@ static int num_movables;
 /* Count of memory write instructions discovered in the loop.  */
 static int num_mem_sets;
 
-/* Number of loops contained within the current one, including itself.  */
-static int loops_enclosed;
-
 /* Bound on pseudo register number before loop optimization.
    A pseudo has valid regscan info if its number is < max_reg_before_loop.  */
 int max_reg_before_loop;
@@ -283,12 +269,15 @@ static struct movable *the_movables;
 
 FILE *loop_dump_stream;
 
+/* For communicating return values from note_set_pseudo_multiple_uses.  */
+static int note_set_pseudo_multiple_uses_retval;
+
 /* Forward declarations.  */
 
 static void verify_dominator PROTO((int));
 static void find_and_verify_loops PROTO((rtx));
 static void mark_loop_jump PROTO((rtx, int));
-static void prescan_loop PROTO((rtx, rtx));
+static void prescan_loop PROTO((rtx, rtx, struct loop_info *));
 static int reg_in_basic_block_p PROTO((rtx, rtx));
 static int consec_sets_invariant_p PROTO((rtx, int, rtx));
 static int labels_in_range_p PROTO((rtx, int));
@@ -297,6 +286,7 @@ static void count_one_set PROTO((rtx, rtx, varray_type, rtx *));
 static void count_loop_regs_set PROTO((rtx, rtx, varray_type, varray_type,
                                       int *, int)); 
 static void note_addr_stored PROTO((rtx, rtx));
+static void note_set_pseudo_multiple_uses PROTO((rtx, rtx));
 static int loop_reg_used_before_p PROTO((rtx, rtx, rtx, rtx, rtx));
 static void scan_loop PROTO((rtx, rtx, rtx, int, int));
 #if 0
@@ -312,14 +302,15 @@ static int rtx_equal_for_loop_p PROTO((rtx, rtx, struct movable *));
 static void add_label_notes PROTO((rtx, rtx));
 static void move_movables PROTO((struct movable *, int, int, rtx, rtx, int));
 static int count_nonfixed_reads PROTO((rtx));
-static void strength_reduce PROTO((rtx, rtx, rtx, int, rtx, rtx, rtx, int, int));
+static void strength_reduce PROTO((rtx, rtx, rtx, int, rtx, rtx, 
+                                  struct loop_info *, rtx, int, int));
 static void find_single_use_in_loop PROTO((rtx, rtx, varray_type));
 static int valid_initial_value_p PROTO((rtx, rtx, int, rtx));
-static void find_mem_givs PROTO((rtx, rtx, int, rtx, rtx));
+static void find_mem_givs PROTO((rtx, rtx, int, int, rtx, rtx));
 static void record_biv PROTO((struct induction *, rtx, rtx, rtx, rtx, rtx *, int, int));
 static void check_final_value PROTO((struct induction *, rtx, rtx, 
                                     unsigned HOST_WIDE_INT));
-static void record_giv PROTO((struct induction *, rtx, rtx, rtx, rtx, rtx, int, enum g_types, int, rtx *, rtx, rtx));
+static void record_giv PROTO((struct induction *, rtx, rtx, rtx, rtx, rtx, int, enum g_types, int, int, rtx *, rtx, rtx));
 static void update_giv_derive PROTO((rtx));
 static int basic_induction_var PROTO((rtx, enum machine_mode, rtx, rtx, rtx *, rtx *, rtx **));
 static rtx simplify_giv_expr PROTO((rtx, int *));
@@ -664,6 +655,7 @@ scan_loop (loop_start, end, loop_cont, unroll_p, bct_p)
   /* Nonzero if we are scanning instructions in a sub-loop.  */
   int loop_depth = 0;
   int nregs;
+  struct loop_info *loop_info = &this_loop_info;
 
   /* Determine whether this loop starts with a jump down to a test at
      the end.  This will occur for a small number of loops with a test
@@ -693,8 +685,8 @@ scan_loop (loop_start, end, loop_cont, unroll_p, bct_p)
   scan_start = p;
 
   /* Set up variables describing this loop.  */
-  prescan_loop (loop_start, end);
-  threshold = (loop_has_call ? 1 : 2) * (1 + n_non_fixed_regs);
+  prescan_loop (loop_start, end, loop_info);
+  threshold = (loop_info->has_call ? 1 : 2) * (1 + n_non_fixed_regs);
 
   /* If loop has a jump before the first label,
      the true entry is the target of that jump.
@@ -777,9 +769,9 @@ scan_loop (loop_start, end, loop_cont, unroll_p, bct_p)
     {
       fprintf (loop_dump_stream, "\nLoop from %d to %d: %d real insns.\n",
               INSN_UID (loop_start), INSN_UID (end), insn_count);
-      if (loop_continue)
+      if (loop_info->cont)
        fprintf (loop_dump_stream, "Continue at insn %d.\n",
-                INSN_UID (loop_continue));
+                INSN_UID (loop_info->cont));
     }
 
   /* Scan through the loop finding insns that are safe to move.
@@ -906,7 +898,7 @@ scan_loop (loop_start, end, loop_cont, unroll_p, bct_p)
                 Don't do this if P has a REG_RETVAL note or if we have
                 SMALL_REGISTER_CLASSES and SET_SRC is a hard register.  */
 
-             if (loop_has_call
+             if (loop_info->has_call
                  && VARRAY_RTX (reg_single_usage, regno) != 0
                  && VARRAY_RTX (reg_single_usage, regno) != const0_rtx
                  && REGNO_FIRST_UID (regno) == INSN_UID (p)
@@ -1170,7 +1162,8 @@ scan_loop (loop_start, end, loop_cont, unroll_p, bct_p)
     {
       the_movables = movables;
       strength_reduce (scan_start, end, loop_top,
-                      insn_count, loop_start, end, loop_cont, unroll_p, bct_p);
+                      insn_count, loop_start, end,
+                      loop_info, loop_cont, unroll_p, bct_p);
     }
 
   VARRAY_FREE (reg_single_usage);
@@ -1188,7 +1181,7 @@ record_excess_regs (in_this, not_in_this, output)
      rtx *output;
 {
   enum rtx_code code;
-  char *fmt;
+  const char *fmt;
   int i;
 
   code = GET_CODE (in_this);
@@ -1587,7 +1580,7 @@ rtx_equal_for_loop_p (x, y, movables)
   register int j;
   register struct movable *m;
   register enum rtx_code code;
-  register char *fmt;
+  register const char *fmt;
 
   if (x == y)
     return 1;
@@ -1691,7 +1684,7 @@ rtx_equal_for_loop_p (x, y, movables)
 }
 \f
 /* If X contains any LABEL_REF's, add REG_LABEL notes for them to all
-  insns in INSNS which use thet reference.  */
+  insns in INSNS which use the reference.  */
 
 static void
 add_label_notes (x, insns)
@@ -1700,7 +1693,7 @@ add_label_notes (x, insns)
 {
   enum rtx_code code = GET_CODE (x);
   int i, j;
-  char *fmt;
+  const char *fmt;
   rtx insn;
 
   if (code == LABEL_REF && !LABEL_REF_NONLOCAL_P (x))
@@ -1837,7 +1830,7 @@ move_movables (movables, threshold, insn_count, loop_start, end, nregs)
            {
              int count;
              register struct movable *m1;
-             rtx first;
+             rtx first = NULL_RTX;
 
              /* Now move the insns that set the reg.  */
 
@@ -2170,7 +2163,14 @@ move_movables (movables, threshold, insn_count, loop_start, end, nregs)
                      /* Schedule the reg loaded by M1
                         for replacement so that shares the reg of M.
                         If the modes differ (only possible in restricted
-                        circumstances, make a SUBREG.  */
+                        circumstances, make a SUBREG.
+
+                        Note this assumes that the target dependent files
+                        treat REG and SUBREG equally, including within
+                        GO_IF_LEGITIMATE_ADDRESS and in all the
+                        predicates since we never verify that replacing the
+                        original register with a SUBREG results in a
+                        recognizable insn.  */
                      if (GET_MODE (m->set_dest) == GET_MODE (m1->set_dest))
                        reg_map[m1->regno] = m->set_dest;
                      else
@@ -2238,7 +2238,7 @@ replace_call_address (x, reg, addr)
 {
   register enum rtx_code code;
   register int i;
-  register char *fmt;
+  register const char *fmt;
 
   if (x == 0)
     return;
@@ -2301,7 +2301,7 @@ count_nonfixed_reads (x)
 {
   register enum rtx_code code;
   register int i;
-  register char *fmt;
+  register const char *fmt;
   int value;
 
   if (x == 0)
@@ -2361,12 +2361,15 @@ constant_high_bytes (p, loop_start)
   /* Try to change (SET (REG ...) (ZERO_EXTEND (..:B ...)))
      to (SET (STRICT_LOW_PART (SUBREG:B (REG...))) ...).  */
 
-  new = gen_rtx_SET (VOIDmode,
-                    gen_rtx_STRICT_LOW_PART (VOIDmode,
-                                             gen_rtx_SUBREG (GET_MODE (XEXP (SET_SRC (PATTERN (p)), 0)),
-                                  SET_DEST (PATTERN (p)),
-                                  0)),
-                XEXP (SET_SRC (PATTERN (p)), 0));
+  new
+    = gen_rtx_SET
+      (VOIDmode,
+       gen_rtx_STRICT_LOW_PART
+       (VOIDmode,
+       gen_rtx_SUBREG (GET_MODE (XEXP (SET_SRC (PATTERN (p)), 0)),
+                       SET_DEST (PATTERN (p)), 0)),
+       XEXP (SET_SRC (PATTERN (p)), 0));
+
   insn_code_number = recog (new, p);
 
   if (insn_code_number)
@@ -2374,8 +2377,8 @@ constant_high_bytes (p, loop_start)
       register int i;
 
       /* Clear destination register before the loop.  */
-      emit_insn_before (gen_rtx_SET (VOIDmode, SET_DEST (PATTERN (p)),
-                                    const0_rtx),
+      emit_insn_before (gen_rtx_SET (VOIDmode,
+                                    SET_DEST (PATTERN (p)), const0_rtx),
                        loop_start);
 
       /* Inside the loop, just load the low part.  */
@@ -2384,37 +2387,40 @@ constant_high_bytes (p, loop_start)
 }
 #endif
 \f
-/* Scan a loop setting the variables `unknown_address_altered',
-   `num_mem_sets', `loop_continue', `loops_enclosed', `loop_has_call',
-   `loop_has_volatile', and `loop_has_tablejump'.
-   Also, fill in the array `loop_mems' and the list `loop_store_mems'.  */
+/* Scan a loop setting the elements `cont', `vtop', `loops_enclosed',
+   `has_call', `has_volatile', and `has_tablejump' within LOOP_INFO.
+   Set the global variables `unknown_address_altered' and
+   `num_mem_sets'.  Also, fill in the array `loop_mems' and the list
+   `loop_store_mems'.  */
 
 static void
-prescan_loop (start, end)
+prescan_loop (start, end, loop_info)
      rtx start, end;
+     struct loop_info *loop_info;
 {
   register int level = 1;
   rtx insn;
-  int loop_has_multiple_exit_targets = 0;
   /* The label after END.  Jumping here is just like falling off the
      end of the loop.  We use next_nonnote_insn instead of next_label
      as a hedge against the (pathological) case where some actual insn
      might end up between the two.  */
   rtx exit_target = next_nonnote_insn (end);
-  if (exit_target == NULL_RTX || GET_CODE (exit_target) != CODE_LABEL)
-    loop_has_multiple_exit_targets = 1;
+
+  loop_info->num = uid_loop_num [INSN_UID (start)];
+  loop_info->has_indirect_jump = indirect_jump_in_function;
+  loop_info->has_call = 0;
+  loop_info->has_volatile = 0;
+  loop_info->has_tablejump = 0;
+  loop_info->loops_enclosed = 1;
+  loop_info->has_multiple_exit_targets = 0;
+  loop_info->cont = 0;
+  loop_info->vtop = 0;
 
   unknown_address_altered = 0;
-  loop_has_call = 0;
-  loop_has_volatile = 0;
-  loop_has_tablejump = 0;
   loop_store_mems = NULL_RTX;
   first_loop_store_insn = NULL_RTX;
   loop_mems_idx = 0;
-
   num_mem_sets = 0;
-  loops_enclosed = 1;
-  loop_continue = 0;
 
   for (insn = NEXT_INSN (start); insn != NEXT_INSN (end);
        insn = NEXT_INSN (insn))
@@ -2425,7 +2431,7 @@ prescan_loop (start, end)
            {
              ++level;
              /* Count number of loops contained in this one.  */
-             loops_enclosed++;
+             loop_info->loops_enclosed++;
            }
          else if (NOTE_LINE_NUMBER (insn) == NOTE_INSN_LOOP_END)
            {
@@ -2439,14 +2445,23 @@ prescan_loop (start, end)
          else if (NOTE_LINE_NUMBER (insn) == NOTE_INSN_LOOP_CONT)
            {
              if (level == 1)
-               loop_continue = insn;
+               loop_info->cont = insn;
+           }
+         else if (NOTE_LINE_NUMBER (insn) == NOTE_INSN_LOOP_VTOP)
+           {
+             /* If there is a NOTE_INSN_LOOP_VTOP, then this is a for
+                or while style loop, with a loop exit test at the
+                start.  Thus, we can assume that the loop condition
+                was true when the loop was entered.  */
+             if (level == 1)
+               loop_info->vtop = insn;
            }
        }
       else if (GET_CODE (insn) == CALL_INSN)
        {
          if (! CONST_CALL_P (insn))
            unknown_address_altered = 1;
-         loop_has_call = 1;
+         loop_info->has_call = 1;
        }
       else if (GET_CODE (insn) == INSN || GET_CODE (insn) == JUMP_INSN)
        {
@@ -2454,18 +2469,18 @@ prescan_loop (start, end)
          rtx label2 = NULL_RTX;
 
          if (volatile_refs_p (PATTERN (insn)))
-           loop_has_volatile = 1;
+           loop_info->has_volatile = 1;
 
          if (GET_CODE (insn) == JUMP_INSN
              && (GET_CODE (PATTERN (insn)) == ADDR_DIFF_VEC
                  || GET_CODE (PATTERN (insn)) == ADDR_VEC))
-           loop_has_tablejump = 1;
+           loop_info->has_tablejump = 1;
          
          note_stores (PATTERN (insn), note_addr_stored);
          if (! first_loop_store_insn && loop_store_mems)
            first_loop_store_insn = insn;
 
-         if (! loop_has_multiple_exit_targets
+         if (! loop_info->has_multiple_exit_targets
              && GET_CODE (insn) == JUMP_INSN
              && GET_CODE (PATTERN (insn)) == SET
              && SET_DEST (PATTERN (insn)) == pc_rtx)
@@ -2486,14 +2501,14 @@ prescan_loop (start, end)
                    if (GET_CODE (label1) != LABEL_REF)
                      {
                        /* Something tricky.  */
-                       loop_has_multiple_exit_targets = 1;
+                       loop_info->has_multiple_exit_targets = 1;
                        break;
                      }
                    else if (XEXP (label1, 0) != exit_target
                             && LABEL_OUTSIDE_LOOP_P (label1))
                      {
                        /* A jump outside the current loop.  */
-                       loop_has_multiple_exit_targets = 1;
+                       loop_info->has_multiple_exit_targets = 1;
                        break;
                      }
                  }
@@ -2504,7 +2519,7 @@ prescan_loop (start, end)
            }
        }
       else if (GET_CODE (insn) == RETURN)
-       loop_has_multiple_exit_targets = 1;
+       loop_info->has_multiple_exit_targets = 1;
     }
 
   /* Now, rescan the loop, setting up the LOOP_MEMS array.  */
@@ -2512,7 +2527,7 @@ prescan_loop (start, end)
       !unknown_address_altered 
       /* An exception thrown by a called function might land us
         anywhere.  */
-      && !loop_has_call
+      && !loop_info->has_call
       /* We don't want loads for MEMs moved to a location before the
         one at which their stack memory becomes allocated.  (Note
         that this is not a problem for malloc, etc., since those
@@ -2520,7 +2535,7 @@ prescan_loop (start, end)
       && !current_function_calls_alloca
       /* There are ways to leave the loop other than falling off the
         end.  */
-      && !loop_has_multiple_exit_targets)
+      && !loop_info->has_multiple_exit_targets)
     for (insn = NEXT_INSN (start); insn != NEXT_INSN (end);
         insn = NEXT_INSN (insn))
       for_each_rtx (&insn, insert_loop_mem, 0);
@@ -2557,14 +2572,21 @@ verify_dominator (loop_number)
          && GET_CODE (PATTERN (insn)) != RETURN)
        {
          rtx label = JUMP_LABEL (insn);
-         int label_luid = INSN_LUID (label);
-
-         if (! condjump_p (insn)
-             && ! condjump_in_parallel_p (insn))
+         int label_luid;
+
+         /* If it is not a jump we can easily understand or for
+            which we do not have jump target information in the JUMP_LABEL
+            field (consider ADDR_VEC and ADDR_DIFF_VEC insns), then clear
+            LOOP_NUMBER_CONT_DOMINATOR.  */
+         if ((! condjump_p (insn)
+              && ! condjump_in_parallel_p (insn))
+             || label == NULL_RTX)
            {
              loop_number_cont_dominator[loop_number] = NULL_RTX;
              return;
            }
+
+         label_luid = INSN_LUID (label);
          if (label_luid < INSN_LUID (loop_number_loop_cont[loop_number])
              && (label_luid
                  > INSN_LUID (loop_number_cont_dominator[loop_number])))
@@ -2647,41 +2669,41 @@ find_and_verify_loops (f)
               && GET_CODE (PATTERN (insn)) != RETURN
               && current_loop >= 0)
        {
-         int this_loop;
+         int this_loop_num;
          rtx label = JUMP_LABEL (insn);
 
          if (! condjump_p (insn) && ! condjump_in_parallel_p (insn))
            label = NULL_RTX;
 
-         this_loop = current_loop;
+         this_loop_num = current_loop;
          do
            {
              /* First see if we care about this loop.  */
-             if (loop_number_loop_cont[this_loop]
-                 && loop_number_cont_dominator[this_loop] != const0_rtx)
+             if (loop_number_loop_cont[this_loop_num]
+                 && loop_number_cont_dominator[this_loop_num] != const0_rtx)
                {
                  /* If the jump destination is not known, invalidate
                     loop_number_const_dominator.  */
                  if (! label)
-                   loop_number_cont_dominator[this_loop] = const0_rtx;
+                   loop_number_cont_dominator[this_loop_num] = const0_rtx;
                  else
                    /* Check if the destination is between loop start and
                       cont.  */
                    if ((INSN_LUID (label)
-                        < INSN_LUID (loop_number_loop_cont[this_loop]))
+                        < INSN_LUID (loop_number_loop_cont[this_loop_num]))
                        && (INSN_LUID (label)
-                           > INSN_LUID (loop_number_loop_starts[this_loop]))
+                           > INSN_LUID (loop_number_loop_starts[this_loop_num]))
                        /* And if there is no later destination already
                           recorded.  */
-                       && (! loop_number_cont_dominator[this_loop]
+                       && (! loop_number_cont_dominator[this_loop_num]
                            || (INSN_LUID (label)
                                > INSN_LUID (loop_number_cont_dominator
-                                            [this_loop]))))
-                     loop_number_cont_dominator[this_loop] = label;
+                                            [this_loop_num]))))
+                     loop_number_cont_dominator[this_loop_num] = label;
                }
-             this_loop = loop_outer_loop[this_loop];
+             this_loop_num = loop_outer_loop[this_loop_num];
            }
-         while (this_loop >= 0);
+         while (this_loop_num >= 0);
        }
 
       /* Note that this will mark the NOTE_INSN_LOOP_END note as being in the
@@ -2762,6 +2784,7 @@ find_and_verify_loops (f)
          {
            rtx p;
            rtx our_next = next_real_insn (insn);
+           rtx last_insn_to_move = NEXT_INSN (insn);
            int dest_loop;
            int outer_loop = -1;
 
@@ -2813,21 +2836,39 @@ find_and_verify_loops (f)
                && INSN_UID (JUMP_LABEL (p)) != 0
                && condjump_p (p)
                && ! simplejump_p (p)
-               && next_real_insn (JUMP_LABEL (p)) == our_next)
+               && next_real_insn (JUMP_LABEL (p)) == our_next
+               /* If it's not safe to move the sequence, then we
+                  mustn't try.  */
+               && insns_safe_to_move_p (p, NEXT_INSN (insn), 
+                                        &last_insn_to_move))
              {
                rtx target
                  = JUMP_LABEL (insn) ? JUMP_LABEL (insn) : get_last_insn ();
                int target_loop_num = uid_loop_num[INSN_UID (target)];
-               rtx loc;
+               rtx loc, loc2;
 
                for (loc = target; loc; loc = PREV_INSN (loc))
                  if (GET_CODE (loc) == BARRIER
+                     /* Don't move things inside a tablejump.  */
+                     && ((loc2 = next_nonnote_insn (loc)) == 0
+                         || GET_CODE (loc2) != CODE_LABEL
+                         || (loc2 = next_nonnote_insn (loc2)) == 0
+                         || GET_CODE (loc2) != JUMP_INSN
+                         || (GET_CODE (PATTERN (loc2)) != ADDR_VEC
+                             && GET_CODE (PATTERN (loc2)) != ADDR_DIFF_VEC))
                      && uid_loop_num[INSN_UID (loc)] == target_loop_num)
                    break;
 
                if (loc == 0)
                  for (loc = target; loc; loc = NEXT_INSN (loc))
                    if (GET_CODE (loc) == BARRIER
+                       /* Don't move things inside a tablejump.  */
+                       && ((loc2 = next_nonnote_insn (loc)) == 0
+                           || GET_CODE (loc2) != CODE_LABEL
+                           || (loc2 = next_nonnote_insn (loc2)) == 0
+                           || GET_CODE (loc2) != JUMP_INSN
+                           || (GET_CODE (PATTERN (loc2)) != ADDR_VEC
+                               && GET_CODE (PATTERN (loc2)) != ADDR_DIFF_VEC))
                        && uid_loop_num[INSN_UID (loc)] == target_loop_num)
                      break;
 
@@ -2868,11 +2909,13 @@ find_and_verify_loops (f)
 
                       /* Include the BARRIER after INSN and copy the
                          block after LOC.  */
-                      new_label = squeeze_notes (new_label, NEXT_INSN (insn));
-                      reorder_insns (new_label, NEXT_INSN (insn), loc);
+                      new_label = squeeze_notes (new_label, 
+                                                 last_insn_to_move);
+                      reorder_insns (new_label, last_insn_to_move, loc);
 
                       /* All those insns are now in TARGET_LOOP_NUM.  */
-                      for (q = new_label; q != NEXT_INSN (NEXT_INSN (insn));
+                      for (q = new_label; 
+                           q != NEXT_INSN (last_insn_to_move);
                            q = NEXT_INSN (q))
                         uid_loop_num[INSN_UID (q)] = target_loop_num;
 
@@ -3133,6 +3176,36 @@ note_addr_stored (x, y)
 
   loop_store_mems = gen_rtx_EXPR_LIST (VOIDmode, x, loop_store_mems);
 }
+
+/* X is a value modified by an INSN that references a biv inside a loop
+   exit test (ie, X is somehow related to the value of the biv).  If X
+   is a pseudo that is used more than once, then the biv is (effectively)
+   used more than once.  */
+
+static void
+note_set_pseudo_multiple_uses (x, y)
+     rtx x;
+     rtx y ATTRIBUTE_UNUSED;
+{
+  if (x == 0)
+    return;
+
+  while (GET_CODE (x) == STRICT_LOW_PART
+        || GET_CODE (x) == SIGN_EXTRACT
+        || GET_CODE (x) == ZERO_EXTRACT
+        || GET_CODE (x) == SUBREG)
+    x = XEXP (x, 0);
+
+  if (GET_CODE (x) != REG || REGNO (x) < FIRST_PSEUDO_REGISTER)
+    return;
+
+  /* If we do not have usage information, or if we know the register
+     is used more than once, note that fact for check_dbra_loop.  */
+  if (REGNO (x) >= max_reg_before_loop
+      || ! VARRAY_RTX (reg_single_usage, REGNO (x))
+      || VARRAY_RTX (reg_single_usage, REGNO (x)) == const0_rtx)
+    note_set_pseudo_multiple_uses_retval = 1;
+}
 \f
 /* Return nonzero if the rtx X is invariant over the current loop.
 
@@ -3148,7 +3221,7 @@ invariant_p (x)
 {
   register int i;
   register enum rtx_code code;
-  register char *fmt;
+  register const char *fmt;
   int conditional = 0;
   rtx mem_list_entry;
 
@@ -3192,7 +3265,7 @@ invariant_p (x)
          && ! current_function_has_nonlocal_goto)
        return 1;
 
-      if (loop_has_call
+      if (this_loop_info.has_call
          && REGNO (x) < FIRST_PSEUDO_REGISTER && call_used_regs[REGNO (x)])
        return 0;
 
@@ -3393,7 +3466,7 @@ find_single_use_in_loop (insn, x, usage)
      varray_type usage;
 {
   enum rtx_code code = GET_CODE (x);
-  char *fmt = GET_RTX_FORMAT (code);
+  const char *fmt = GET_RTX_FORMAT (code);
   int i, j;
 
   if (code == REG)
@@ -3647,13 +3720,14 @@ static rtx addr_placeholder;
 
 static void
 strength_reduce (scan_start, end, loop_top, insn_count,
-                loop_start, loop_end, loop_cont, unroll_p, bct_p)
+                loop_start, loop_end, loop_info, loop_cont, unroll_p, bct_p)
      rtx scan_start;
      rtx end;
      rtx loop_top;
      int insn_count;
      rtx loop_start;
      rtx loop_end;
+     struct loop_info *loop_info;
      rtx loop_cont;
      int unroll_p, bct_p ATTRIBUTE_UNUSED;
 {
@@ -3669,6 +3743,9 @@ strength_reduce (scan_start, end, loop_top, insn_count,
   /* This is 1 if current insn may be executed more than once for every
      loop iteration.  */
   int maybe_multiple = 0;
+  /* This is 1 if we have past a branch back to the top of the loop
+     (aka a loop latch).  */
+  int past_loop_latch = 0;
   /* Temporary list pointers for traversing loop_iv_list.  */
   struct iv_class *bl, **backbl;
   /* Ratio of extra register life span we can justify
@@ -3676,7 +3753,7 @@ strength_reduce (scan_start, end, loop_top, insn_count,
      since in that case saving an insn makes more difference
      and more registers are available.  */
   /* ??? could set this to last value of threshold in move_movables */
-  int threshold = (loop_has_call ? 1 : 2) * (3 + n_non_fixed_regs);
+  int threshold = (loop_info->has_call ? 1 : 2) * (3 + n_non_fixed_regs);
   /* Map of pseudo-register replacements.  */
   rtx *reg_map;
   int reg_map_size;
@@ -3685,8 +3762,7 @@ strength_reduce (scan_start, end, loop_top, insn_count,
   rtx end_insert_before;
   int loop_depth = 0;
   int n_extra_increment;
-  struct loop_info loop_iteration_info;
-  struct loop_info *loop_info = &loop_iteration_info;
+  int unrolled_insn_copies = 0;
 
   /* If scan_start points to the loop exit test, we have to be wary of
      subversive use of gotos inside expression statements.  */
@@ -3836,16 +3912,30 @@ strength_reduce (scan_start, end, loop_top, insn_count,
            loop_depth--;
        }
 
+      /* Note if we pass a loop latch.  If we do, then we can not clear
+        NOT_EVERY_ITERATION below when we pass the last CODE_LABEL in
+        a loop since a jump before the last CODE_LABEL may have started
+        a new loop iteration.
+
+        Note that LOOP_TOP is only set for rotated loops and we need
+        this check for all loops, so compare against the CODE_LABEL
+        which immediately follows LOOP_START.  */
+      if (GET_CODE (p) == JUMP_INSN && JUMP_LABEL (p) == NEXT_INSN (loop_start))
+       past_loop_latch = 1;
+
       /* Unlike in the code motion pass where MAYBE_NEVER indicates that
         an insn may never be executed, NOT_EVERY_ITERATION indicates whether
         or not an insn is known to be executed each iteration of the
         loop, whether or not any iterations are known to occur.
 
         Therefore, if we have just passed a label and have no more labels
-        between here and the test insn of the loop, we know these insns
-        will be executed each iteration.  */
+        between here and the test insn of the loop, and we have not passed
+        a jump to the top of the loop, then we know these insns will be
+        executed each iteration.  */
 
-      if (not_every_iteration && GET_CODE (p) == CODE_LABEL
+      if (not_every_iteration 
+         && ! past_loop_latch
+         && GET_CODE (p) == CODE_LABEL
          && no_labels_between_p (p, loop_end)
          && loop_insn_first_p (p, loop_cont))
        not_every_iteration = 0;
@@ -3892,7 +3982,7 @@ strength_reduce (scan_start, end, loop_top, insn_count,
        unroll_loop (loop_end, insn_count, loop_start, end_insert_before,
                     loop_info, 0);
 
-      return;
+      goto egress;
     }
 
   /* Find initial value for each biv by searching backwards from loop_start,
@@ -3984,7 +4074,7 @@ strength_reduce (scan_start, end, loop_top, insn_count,
       else
        {
          struct iv_class *bl2 = 0;
-         rtx increment;
+         rtx increment = NULL_RTX;
 
          /* Biv initial value is not a simple move.  If it is the sum of
             another biv and a constant, check if both bivs are incremented
@@ -4019,14 +4109,14 @@ strength_reduce (scan_start, end, loop_top, insn_count,
              /* The register from BL2 must be set before the register from
                 BL is set, or we must be able to move the latter set after
                 the former set.  Currently there can't be any labels
-                in-between when biv_toal_increment returns nonzero both times
+                in-between when biv_total_increment returns nonzero both times
                 but we test it here in case some day some real cfg analysis
                 gets used to set always_computable.  */
-             && ((loop_insn_first_p (bl2->biv->insn, bl->biv->insn)
-                  && no_labels_between_p (bl2->biv->insn, bl->biv->insn))
-                 || (! reg_used_between_p (bl->biv->src_reg, bl->biv->insn,
-                                           bl2->biv->insn)
-                     && no_jumps_between_p (bl->biv->insn, bl2->biv->insn)))
+             && (loop_insn_first_p (bl2->biv->insn, bl->biv->insn)
+                 ? no_labels_between_p (bl2->biv->insn, bl->biv->insn)
+                 : (! reg_used_between_p (bl->biv->src_reg, bl->biv->insn,
+                                          bl2->biv->insn)
+                    && no_jumps_between_p (bl->biv->insn, bl2->biv->insn)))
              && validate_change (bl->biv->insn,
                                  &SET_SRC (single_set (bl->biv->insn)),
                                  copy_rtx (src), 0))
@@ -4041,6 +4131,7 @@ strength_reduce (scan_start, end, loop_top, insn_count,
                fprintf (loop_dump_stream, "is giv of biv %d\n", bl2->regno);
              /* Let this giv be discovered by the generic code.  */
              REG_IV_TYPE (bl->regno) = UNKNOWN_INDUCT;
+             reg_biv_class[bl->regno] = NULL_PTR;
              /* We can get better optimization if we can move the giv setting
                 before the first giv use.  */
              if (dominator
@@ -4092,7 +4183,13 @@ strength_reduce (scan_start, end, loop_top, insn_count,
                }
              /* Remove this biv from the chain.  */
              if (bl->next)
-               *bl = *bl->next;
+               {
+                 /* We move the following giv from *bl->next into *bl.
+                    We have to update reg_biv_class for that moved biv
+                    to point to its new address.  */
+                 *bl = *bl->next;
+                 reg_biv_class[bl->regno] = bl;
+               }
              else
                {
                  *backbl = 0;
@@ -4118,7 +4215,7 @@ strength_reduce (scan_start, end, loop_top, insn_count,
 
   /* If the loop contains volatile memory references do not allow any
      replacements to take place, since this could loose the volatile markers.  */
-  if (n_extra_increment  && ! loop_has_volatile)
+  if (n_extra_increment  && ! loop_info->has_volatile)
     {
       int nregs = first_increment_giv + n_extra_increment;
 
@@ -4167,7 +4264,7 @@ strength_reduce (scan_start, end, loop_top, insn_count,
          for (vp = &bl->biv, next = *vp; v = next, next = v->next_iv;)
            {
              HOST_WIDE_INT offset;
-             rtx set, add_val, old_reg, dest_reg, last_use_insn;
+             rtx set, add_val, old_reg, dest_reg, last_use_insn, note;
              int old_regno, new_regno;
 
              if (! v->always_executed
@@ -4176,6 +4273,8 @@ strength_reduce (scan_start, end, loop_top, insn_count,
                  || ! next->always_executed
                  || next->maybe_multiple
                  || ! CONSTANT_P (next->add_val)
+                 || v->mult_val != const1_rtx
+                 || next->mult_val != const1_rtx
                  || ! (biv_dead_after_loop
                        || no_jumps_between_p (v->insn, next->insn)))
                {
@@ -4271,7 +4370,13 @@ strength_reduce (scan_start, end, loop_top, insn_count,
     
              REG_IV_TYPE (new_regno) = GENERAL_INDUCT;
              REG_IV_INFO (new_regno) = v;
-    
+
+             /* If next_insn has a REG_EQUAL note that mentiones OLD_REG,
+                it must be replaced.  */
+             note = find_reg_note (next->insn, REG_EQUAL, NULL_RTX);
+             if (note && reg_mentioned_p (old_reg, XEXP (note, 0)))
+               XEXP (note, 0) = copy_rtx (SET_SRC (single_set (next->insn)));
+
              /* Remove the increment from the list of biv increments,
                 and record it as a giv.  */
              *vp = next;
@@ -4331,6 +4436,7 @@ strength_reduce (scan_start, end, loop_top, insn_count,
 
   not_every_iteration = 0;
   loop_depth = 0;
+  maybe_multiple = 0;
   p = scan_start;
   while (1)
     {
@@ -4399,8 +4505,8 @@ strength_reduce (scan_start, end, loop_top, insn_count,
                p = last_consec_insn;
 
              record_giv (v, p, src_reg, dest_reg, mult_val, add_val, benefit,
-                         DEST_REG, not_every_iteration, NULL_PTR, loop_start,
-                         loop_end);
+                         DEST_REG, not_every_iteration, maybe_multiple,
+                         NULL_PTR, loop_start, loop_end);
 
            }
        }
@@ -4410,8 +4516,8 @@ strength_reduce (scan_start, end, loop_top, insn_count,
       /* This resulted in worse code on a VAX 8600.  I wonder if it
         still does.  */
       if (GET_CODE (p) == INSN)
-       find_mem_givs (PATTERN (p), p, not_every_iteration, loop_start,
-                      loop_end);
+       find_mem_givs (PATTERN (p), p, not_every_iteration, maybe_multiple,
+                      loop_start, loop_end);
 #endif
 
       /* Update the status of whether giv can derive other givs.  This can
@@ -4420,6 +4526,49 @@ strength_reduce (scan_start, end, loop_top, insn_count,
        || GET_CODE (p) == CODE_LABEL)
        update_giv_derive (p);
 
+      /* Past CODE_LABEL, we get to insns that may be executed multiple
+        times.  The only way we can be sure that they can't is if every
+        every jump insn between here and the end of the loop either
+        returns, exits the loop, is a forward jump, or is a jump
+        to the loop start.  */
+
+      if (GET_CODE (p) == CODE_LABEL)
+       {
+         rtx insn = p;
+
+         maybe_multiple = 0;
+
+         while (1)
+           {
+             insn = NEXT_INSN (insn);
+             if (insn == scan_start)
+               break;
+             if (insn == end)
+               {
+                 if (loop_top != 0)
+                   insn = loop_top;
+                 else
+                   break;
+                 if (insn == scan_start)
+                   break;
+               }
+
+             if (GET_CODE (insn) == JUMP_INSN
+                 && GET_CODE (PATTERN (insn)) != RETURN
+                 && (! condjump_p (insn)
+                     || (JUMP_LABEL (insn) != 0
+                         && JUMP_LABEL (insn) != scan_start
+                         && (INSN_UID (JUMP_LABEL (insn)) >= max_uid_for_loop
+                             || INSN_UID (insn) >= max_uid_for_loop
+                             || (INSN_LUID (JUMP_LABEL (insn))
+                                 < INSN_LUID (insn))))))
+               {
+                 maybe_multiple = 1;
+                 break;
+               }
+           }
+       }
+
       /* Past a jump, we get to insns for which we can't count
         on whether they will be executed during each iteration.  */
       /* This code appears twice in strength_reduce.  There is also similar
@@ -4524,7 +4673,7 @@ strength_reduce (scan_start, end, loop_top, insn_count,
       int benefit;
       int all_reduced;
       rtx final_value = 0;
-      unsigned nregs;
+      unsigned int nregs;
 
       /* Test whether it will be possible to eliminate this biv
         provided all givs are reduced.  This is possible if either
@@ -4749,21 +4898,29 @@ strength_reduce (scan_start, end, loop_top, insn_count,
                    = replace_rtx (PATTERN (v->insn), d->dest_reg, d->new_reg);
                  PATTERN (v->insn)
                    = replace_rtx (PATTERN (v->insn), v->dest_reg, v->new_reg);
-                 if (bl->biv_count != 1)
+                 /* For each place where the biv is incremented, add an
+                    insn to set the new, reduced reg for the giv.
+                    We used to do this only for biv_count != 1, but
+                    this fails when there is a giv after a single biv
+                    increment, e.g. when the last giv was expressed as
+                    pre-decrement.  */
+                 for (tv = bl->biv; tv; tv = tv->next_iv)
                    {
-                     /* For each place where the biv is incremented, add an
-                        insn to set the new, reduced reg for the giv.  */
-                     for (tv = bl->biv; tv; tv = tv->next_iv)
-                       {
-                         /* We always emit reduced giv increments before the
-                            biv increment when bl->biv_count != 1.  So by
-                            emitting the add insns for derived givs after the
-                            biv increment, they pick up the updated value of
-                            the reduced giv.  */
-                         emit_insn_after (copy_rtx (PATTERN (v->insn)),
-                                          tv->insn);
-
-                       }
+                     /* We always emit reduced giv increments before the
+                        biv increment when bl->biv_count != 1.  So by
+                        emitting the add insns for derived givs after the
+                        biv increment, they pick up the updated value of
+                        the reduced giv.
+                        If the reduced giv is processed with
+                        auto_inc_opt == 1, then it is incremented earlier
+                        than the biv, hence we'll still pick up the right
+                        value.
+                        If it's processed with auto_inc_opt == -1,
+                        that implies that the biv increment is before the
+                        first reduced giv's use.  The derived giv's lifetime
+                        is after the reduced giv's lifetime, hence in this
+                        case, the biv increment doesn't matter.  */
+                     emit_insn_after (copy_rtx (PATTERN (v->insn)), tv->insn);
                    }
                  continue;
                }
@@ -5078,11 +5235,40 @@ strength_reduce (scan_start, end, loop_top, insn_count,
        INSN_CODE (p) = -1;
       }
 
+  if (loop_info->n_iterations > 0)
+    {
+      /* When we completely unroll a loop we will likely not need the increment
+        of the loop BIV and we will not need the conditional branch at the
+        end of the loop.  */
+      unrolled_insn_copies = insn_count - 2;
+
+#ifdef HAVE_cc0
+      /* When we completely unroll a loop on a HAVE_cc0 machine we will not
+        need the comparison before the conditional branch at the end of the
+        loop.  */
+      unrolled_insn_copies -= 1;
+#endif
+
+      /* We'll need one copy for each loop iteration.  */
+      unrolled_insn_copies *= loop_info->n_iterations;
+
+      /* A little slop to account for the ability to remove initialization
+        code, better CSE, and other secondary benefits of completely
+        unrolling some loops.  */
+      unrolled_insn_copies -= 1;
+
+      /* Clamp the value.  */
+      if (unrolled_insn_copies < 0)
+       unrolled_insn_copies = 0;
+    }
+  
   /* Unroll loops from within strength reduction so that we can use the
      induction variable information that strength_reduce has already
-     collected.  */
-  
-  if (unroll_p)
+     collected.  Always unroll loops that would be as small or smaller
+     unrolled than when rolled.  */
+  if (unroll_p
+      || (loop_info->n_iterations > 0
+         && unrolled_insn_copies <= insn_count))
     unroll_loop (loop_end, insn_count, loop_start, end_insert_before,
                 loop_info, 1);
 
@@ -5095,6 +5281,8 @@ strength_reduce (scan_start, end, loop_top, insn_count,
 
   if (loop_dump_stream)
     fprintf (loop_dump_stream, "\n");
+
+egress:
   VARRAY_FREE (reg_iv_type);
   VARRAY_FREE (reg_iv_info);
 }
@@ -5141,18 +5329,20 @@ valid_initial_value_p (x, insn, call_seen, loop_start)
 /* Scan X for memory refs and check each memory address
    as a possible giv.  INSN is the insn whose pattern X comes from.
    NOT_EVERY_ITERATION is 1 if the insn might not be executed during
-   every loop iteration.  */
+   every loop iteration.  MAYBE_MULTIPLE is 1 if the insn might be executed
+   more thanonce in each loop iteration.  */
 
 static void
-find_mem_givs (x, insn, not_every_iteration, loop_start, loop_end)
+find_mem_givs (x, insn, not_every_iteration, maybe_multiple, loop_start,
+              loop_end)
      rtx x;
      rtx insn;
-     int not_every_iteration;
+     int not_every_iteration, maybe_multiple;
      rtx loop_start, loop_end;
 {
   register int i, j;
   register enum rtx_code code;
-  register char *fmt;
+  register const char *fmt;
 
   if (x == 0)
     return;
@@ -5195,7 +5385,7 @@ find_mem_givs (x, insn, not_every_iteration, loop_start, loop_end)
 
            record_giv (v, insn, src_reg, addr_placeholder, mult_val,
                        add_val, benefit, DEST_ADDR, not_every_iteration,
-                       &XEXP (x, 0), loop_start, loop_end);
+                       maybe_multiple, &XEXP (x, 0), loop_start, loop_end);
 
            v->mem_mode = GET_MODE (x);
          }
@@ -5211,12 +5401,12 @@ find_mem_givs (x, insn, not_every_iteration, loop_start, loop_end)
   fmt = GET_RTX_FORMAT (code);
   for (i = GET_RTX_LENGTH (code) - 1; i >= 0; i--)
     if (fmt[i] == 'e')
-      find_mem_givs (XEXP (x, i), insn, not_every_iteration, loop_start,
-                    loop_end);
+      find_mem_givs (XEXP (x, i), insn, not_every_iteration, maybe_multiple,
+                    loop_start, loop_end);
     else if (fmt[i] == 'E')
       for (j = 0; j < XVECLEN (x, i); j++)
        find_mem_givs (XVECEXP (x, i, j), insn, not_every_iteration,
-                      loop_start, loop_end);
+                      maybe_multiple, loop_start, loop_end);
 }
 \f
 /* Fill in the data about one biv update.
@@ -5338,7 +5528,8 @@ record_biv (v, insn, dest_reg, inc_val, mult_val, location,
 
 static void
 record_giv (v, insn, src_reg, dest_reg, mult_val, add_val, benefit,
-           type, not_every_iteration, location, loop_start, loop_end)
+           type, not_every_iteration, maybe_multiple, location, loop_start,
+           loop_end)
      struct induction *v;
      rtx insn;
      rtx src_reg;
@@ -5346,7 +5537,7 @@ record_giv (v, insn, src_reg, dest_reg, mult_val, add_val, benefit,
      rtx mult_val, add_val;
      int benefit;
      enum g_types type;
-     int not_every_iteration;
+     int not_every_iteration, maybe_multiple;
      rtx *location;
      rtx loop_start, loop_end;
 {
@@ -5364,7 +5555,7 @@ record_giv (v, insn, src_reg, dest_reg, mult_val, add_val, benefit,
   v->location = location;
   v->cant_derive = 0;
   v->combined_with = 0;
-  v->maybe_multiple = 0;
+  v->maybe_multiple = maybe_multiple;
   v->maybe_dead = 0;
   v->derive_adjustment = 0;
   v->same = 0;
@@ -5799,9 +5990,10 @@ update_giv_derive (p)
                                             &dummy);
 
                  if (tem && giv->derive_adjustment)
-                   tem = simplify_giv_expr (gen_rtx_PLUS (giv->mode, tem,
-                                                          giv->derive_adjustment),
-                                            &dummy);
+                   tem = simplify_giv_expr
+                     (gen_rtx_PLUS (giv->mode, tem, giv->derive_adjustment),
+                      &dummy);
+
                  if (tem)
                    giv->derive_adjustment = tem;
                  else
@@ -5866,6 +6058,7 @@ basic_induction_var (x, mode, dest_reg, p, inc_val, mult_val, location)
   rtx insn, set = 0;
 
   code = GET_CODE (x);
+  *location = NULL;
   switch (code)
     {
     case PLUS:
@@ -5925,6 +6118,8 @@ basic_induction_var (x, mode, dest_reg, p, inc_val, mult_val, location)
               || (GET_CODE (SET_DEST (set)) == SUBREG
                   && (GET_MODE_SIZE (GET_MODE (SET_DEST (set)))
                       <= UNITS_PER_WORD)
+                  && (GET_MODE_CLASS (GET_MODE (SET_DEST (set)))
+                      == MODE_INT)
                   && SUBREG_REG (SET_DEST (set)) == x))
              && basic_induction_var (SET_SRC (set),
                                      (GET_MODE (SET_SRC (set)) == VOIDmode
@@ -5949,7 +6144,7 @@ basic_induction_var (x, mode, dest_reg, p, inc_val, mult_val, location)
       /* convert_modes aborts if we try to convert to or from CCmode, so just
          exclude that case.  It is very unlikely that a condition code value
         would be a useful iterator anyways.  */
-      if (loops_enclosed == 1
+      if (this_loop_info.loops_enclosed == 1
          && GET_MODE_CLASS (mode) != MODE_CC
          && GET_MODE_CLASS (GET_MODE (dest_reg)) != MODE_CC)
        {
@@ -6123,8 +6318,10 @@ general_induction_var (x, src_reg, add_val, mult_val, is_addr, pbenefit)
 
    *BENEFIT will be incremented by the benefit of any sub-giv encountered.  */
 
-static rtx sge_plus PROTO ((enum machine_mode, rtx, rtx));
-static rtx sge_plus_constant PROTO ((rtx, rtx));
+static rtx sge_plus PARAMS ((enum machine_mode, rtx, rtx));
+static rtx sge_plus_constant PARAMS ((rtx, rtx));
+static int cmp_combine_givs_stats PARAMS ((const PTR, const PTR));
+static int cmp_recombine_givs_stats PARAMS ((const PTR, const PTR));
 
 static rtx
 simplify_giv_expr (x, benefit)
@@ -6191,10 +6388,13 @@ simplify_giv_expr (x, benefit)
 
          case PLUS:
            /* (a + invar_1) + invar_2.  Associate.  */
-           return simplify_giv_expr (
-               gen_rtx_PLUS (mode, XEXP (arg0, 0),
-                             gen_rtx_PLUS (mode, XEXP (arg0, 1), arg1)),
-               benefit);
+           return
+             simplify_giv_expr (gen_rtx_PLUS (mode,
+                                              XEXP (arg0, 0),
+                                              gen_rtx_PLUS (mode,
+                                                            XEXP (arg0, 1),
+                                                            arg1)),
+                                benefit);
 
          default:
            abort ();
@@ -6214,11 +6414,12 @@ simplify_giv_expr (x, benefit)
        tem = arg0, arg0 = arg1, arg1 = tem;
 
       if (GET_CODE (arg1) == PLUS)
-         return simplify_giv_expr (gen_rtx_PLUS (mode,
-                                                 gen_rtx_PLUS (mode, arg0,
-                                                               XEXP (arg1, 0)),
-                                                 XEXP (arg1, 1)),
-                                   benefit);
+         return
+           simplify_giv_expr (gen_rtx_PLUS (mode,
+                                            gen_rtx_PLUS (mode, arg0,
+                                                          XEXP (arg1, 0)),
+                                            XEXP (arg1, 1)),
+                              benefit);
 
       /* Now must have MULT + MULT.  Distribute if same biv, else not giv.  */
       if (GET_CODE (arg0) != MULT || GET_CODE (arg1) != MULT)
@@ -6238,7 +6439,8 @@ simplify_giv_expr (x, benefit)
       /* Handle "a - b" as "a + b * (-1)".  */
       return simplify_giv_expr (gen_rtx_PLUS (mode,
                                              XEXP (x, 0),
-                                             gen_rtx_MULT (mode, XEXP (x, 1),
+                                             gen_rtx_MULT (mode,
+                                                           XEXP (x, 1),
                                                            constm1_rtx)),
                                benefit);
 
@@ -6297,7 +6499,8 @@ simplify_giv_expr (x, benefit)
 
        case MULT:
          /* (a * invar_1) * invar_2.  Associate.  */
-         return simplify_giv_expr (gen_rtx_MULT (mode, XEXP (arg0, 0),
+         return simplify_giv_expr (gen_rtx_MULT (mode,
+                                                 XEXP (arg0, 0),
                                                  gen_rtx_MULT (mode,
                                                                XEXP (arg0, 1),
                                                                arg1)),
@@ -6323,11 +6526,12 @@ simplify_giv_expr (x, benefit)
       if (GET_CODE (XEXP (x, 1)) != CONST_INT)
        return 0;
 
-      return simplify_giv_expr (gen_rtx_MULT (mode,
-                                             XEXP (x, 0),
-                                             GEN_INT ((HOST_WIDE_INT) 1
-                                                      << INTVAL (XEXP (x, 1)))),
-                               benefit);
+      return
+       simplify_giv_expr (gen_rtx_MULT (mode,
+                                        XEXP (x, 0),
+                                        GEN_INT ((HOST_WIDE_INT) 1
+                                                 << INTVAL (XEXP (x, 1)))),
+                          benefit);
 
     case NEG:
       /* "-a" is "a * (-1)" */
@@ -6365,9 +6569,10 @@ simplify_giv_expr (x, benefit)
            if (v->cant_derive)
              return 0;
 
-           tem = gen_rtx_PLUS (mode, gen_rtx_MULT (mode, v->src_reg,
-                                                   v->mult_val),
-                          v->add_val);
+           tem = gen_rtx_PLUS (mode, gen_rtx_MULT (mode,
+                                                   v->src_reg, v->mult_val),
+                               v->add_val);
+
            if (v->derive_adjustment)
              tem = gen_rtx_MINUS (mode, tem, v->derive_adjustment);
            return simplify_giv_expr (tem, benefit);
@@ -6758,6 +6963,30 @@ express_from (g1, g2)
 
   add = express_from_1 (g1->add_val, g2->add_val, mult);
   if (add == NULL_RTX)
+    {
+      /* Failed.  If we've got a multiplication factor between G1 and G2,
+        scale G1's addend and try again.  */
+      if (INTVAL (mult) > 1)
+       {
+         rtx g1_add_val = g1->add_val;
+         if (GET_CODE (g1_add_val) == MULT
+             && GET_CODE (XEXP (g1_add_val, 1)) == CONST_INT)
+           {
+             HOST_WIDE_INT m;
+             m = INTVAL (mult) * INTVAL (XEXP (g1_add_val, 1));
+             g1_add_val = gen_rtx_MULT (GET_MODE (g1_add_val),
+                                        XEXP (g1_add_val, 0), GEN_INT (m));
+           }
+         else
+           {
+             g1_add_val = gen_rtx_MULT (GET_MODE (g1_add_val), g1_add_val,
+                                        mult);
+           }
+
+         add = express_from_1 (g1_add_val, g2->add_val, const1_rtx);
+       }
+    }
+  if (add == NULL_RTX)
     return NULL_RTX;
 
   /* Form simplified final result.  */
@@ -6838,9 +7067,14 @@ struct combine_givs_stats
 };
 
 static int
-cmp_combine_givs_stats (x, y)
-     struct combine_givs_stats *x, *y;
+cmp_combine_givs_stats (xp, yp)
+     const PTR xp;
+     const PTR yp;
 {
+  const struct combine_givs_stats * const x =
+    (const struct combine_givs_stats *) xp;
+  const struct combine_givs_stats * const y =
+    (const struct combine_givs_stats *) yp;
   int d;
   d = y->total_benefit - x->total_benefit;
   /* Stabilize the sort.  */
@@ -7025,9 +7259,14 @@ struct recombine_givs_stats
    when scanning the array starting at the end, thus the arguments are
    used in reverse.  */
 static int
-cmp_recombine_givs_stats (x, y)
-     struct recombine_givs_stats *x, *y;
+cmp_recombine_givs_stats (xp, yp)
+     const PTR xp;
+     const PTR yp;
 {
+  const struct recombine_givs_stats * const x =
+    (const struct recombine_givs_stats *) xp;
+  const struct recombine_givs_stats * const y =
+    (const struct recombine_givs_stats *) yp;
   int d;
   d = y->start_luid - x->start_luid;
   /* Stabilize the sort.  */
@@ -7047,7 +7286,7 @@ find_life_end (x, stats, insn, biv)
      struct recombine_givs_stats *stats;
 {
   enum rtx_code code;
-  char *fmt;
+  const char *fmt;
   int i, j;
   int retval;
 
@@ -7163,16 +7402,18 @@ recombine_givs (bl, loop_start, loop_end, unroll_p)
       for (p = v->insn; INSN_UID (p) >= max_uid_for_loop; )
        p = PREV_INSN (p);
       stats[i].start_luid = INSN_LUID (p);
-      v->ix = i;
       i++;
     }
 
   qsort (stats, giv_count, sizeof(*stats), cmp_recombine_givs_stats);
 
-  /* Do the actual most-recently-used recombination.  */
+  /* Set up the ix field for each giv in stats to name
+     the corresponding index into stats, and
+     do the actual most-recently-used recombination.  */
   for (last_giv = 0, i = giv_count - 1; i >= 0; i--)
     {
       v = giv_array[stats[i].giv_number];
+      v->ix = i;
       if (v->same)
        {
          struct induction *old_same = v->same;
@@ -7218,8 +7459,9 @@ recombine_givs (bl, loop_start, loop_end, unroll_p)
   ends_need_computing = 0;
   /* For each DEST_REG giv, compute lifetime starts, and try to compute
      lifetime ends from regscan info.  */
-  for (i = 0, v = bl->giv; v; v = v->next_iv)
+  for (i = giv_count - 1; i >= 0; i--)
     {
+      v = giv_array[stats[i].giv_number];
       if (v->ignore)
        continue;
       if (v->giv_type == DEST_ADDR)
@@ -7288,7 +7530,6 @@ recombine_givs (bl, loop_start, loop_end, unroll_p)
                }
            }
        }
-      i++;
     }
 
   /* If the regscan information was unconclusive for one or more DEST_REG
@@ -7312,21 +7553,22 @@ recombine_givs (bl, loop_start, loop_end, unroll_p)
 
   /* Set start_luid back to the last insn that sets the giv.  This allows
      more combinations.  */
-  for (i = 0, v = bl->giv; v; v = v->next_iv)
+  for (i = giv_count - 1; i >= 0; i--)
     {
+      v = giv_array[stats[i].giv_number];
       if (v->ignore)
        continue;
       if (INSN_UID (v->insn) < max_uid_for_loop)
        stats[i].start_luid = INSN_LUID (v->insn);
-      i++;
     }
 
   /* Now adjust lifetime ends by taking combined givs into account.  */
-  for (i = 0, v = bl->giv; v; v = v->next_iv)
+  for (i = giv_count - 1; i >= 0; i--)
     {
       unsigned luid;
       int j;
 
+      v = giv_array[stats[i].giv_number];
       if (v->ignore)
        continue;
       if (v->same && ! v->same->ignore)
@@ -7338,7 +7580,6 @@ recombine_givs (bl, loop_start, loop_end, unroll_p)
              > (unsigned) stats[j].end_luid - stats[j].start_luid)
            stats[j].end_luid = luid;
        }
-      i++;
     }
 
   qsort (stats, giv_count, sizeof(*stats), cmp_recombine_givs_stats);
@@ -7688,7 +7929,8 @@ check_dbra_loop (loop_end, insn_count, loop_start, loop_info)
            }
        }
     }
-  else if (INTVAL (bl->biv->add_val) > 0)
+  else if (GET_CODE (bl->biv->add_val) == CONST_INT
+          && INTVAL (bl->biv->add_val) > 0)
     {
       /* Try to change inc to dec, so can apply above optimization.  */
       /* Can do this if:
@@ -7726,10 +7968,22 @@ check_dbra_loop (loop_end, insn_count, loop_start, loop_info)
                    && REGNO (SET_DEST (set)) == bl->regno)
                  /* An insn that sets the biv is okay.  */
                  ;
-               else if (p == prev_nonnote_insn (prev_nonnote_insn (loop_end))
-                        || p == prev_nonnote_insn (loop_end))
-                 /* Don't bother about the end test.  */
-                 ;
+               else if ((p == prev_nonnote_insn (prev_nonnote_insn (loop_end))
+                         || p == prev_nonnote_insn (loop_end))
+                        && reg_mentioned_p (bivreg, PATTERN (p)))
+                 {
+                   /* If either of these insns uses the biv and sets a pseudo
+                      that has more than one usage, then the biv has uses
+                      other than counting since it's used to derive a value
+                      that is used more than one time.  */
+                   note_set_pseudo_multiple_uses_retval = 0;
+                   note_stores (PATTERN (p), note_set_pseudo_multiple_uses);
+                   if (note_set_pseudo_multiple_uses_retval)
+                     {
+                       no_use_except_counting = 0;
+                       break;
+                     }
+                 }
                else if (reg_mentioned_p (bivreg, PATTERN (p)))
                  {
                    no_use_except_counting = 0;
@@ -7758,7 +8012,7 @@ check_dbra_loop (loop_end, insn_count, loop_start, loop_info)
 
              reversible_mem_store
                = (! unknown_address_altered
-                  && ! invariant_p (XEXP (loop_store_mems, 0)));
+                  && ! invariant_p (XEXP (XEXP (loop_store_mems, 0), 0)));
 
              /* If the store depends on a register that is set after the
                 store, it depends on the initial value, and is thus not
@@ -7785,8 +8039,8 @@ check_dbra_loop (loop_end, insn_count, loop_start, loop_info)
         about all these things.  */
 
       if ((num_nonfixed_reads <= 1
-          && !loop_has_call
-          && !loop_has_volatile
+          && ! loop_info->has_call
+          && ! loop_info->has_volatile
           && reversible_mem_store
           && (bl->giv_count + bl->biv_count + num_mem_sets
              + num_movables + compare_and_branch == insn_count)
@@ -7814,7 +8068,7 @@ check_dbra_loop (loop_end, insn_count, loop_start, loop_info)
                  || (GET_CODE (comparison) == LE
                      && no_use_except_counting)))
            {
-             HOST_WIDE_INT add_val, add_adjust, comparison_val;
+             HOST_WIDE_INT add_val, add_adjust, comparison_val = 0;
              rtx initial_value, comparison_value;
              int nonneg = 0;
              enum rtx_code cmp_code;
@@ -7872,12 +8126,13 @@ check_dbra_loop (loop_end, insn_count, loop_start, loop_info)
 
              /* First check if we can do a vanilla loop reversal.  */
              if (initial_value == const0_rtx
-                 /* If we have a decrement_and_branch_on_count, prefer
-                    the NE test, since this will allow that instruction to
-                    be generated.  Note that we must use a vanilla loop
-                    reversal if the biv is used to calculate a giv or has
-                    a non-counting use.  */
-#if ! defined (HAVE_decrement_and_branch_until_zero) && defined (HAVE_decrement_and_branch_on_count)
+                 /* If we have a decrement_and_branch_on_count,
+                    prefer the NE test, since this will allow that
+                    instruction to be generated.  Note that we must
+                    use a vanilla loop reversal if the biv is used to
+                    calculate a giv or has a non-counting use.  */
+#if ! defined (HAVE_decrement_and_branch_until_zero) \
+&& defined (HAVE_decrement_and_branch_on_count)
                  && (! (add_val == 1 && loop_info->vtop
                         && (bl->biv_count == 0
                             || no_use_except_counting)))
@@ -7959,10 +8214,12 @@ check_dbra_loop (loop_end, insn_count, loop_start, loop_info)
                  enum machine_mode mode = GET_MODE (reg);
                  enum insn_code icode
                    = add_optab->handlers[(int) mode].insn_code;
-                 if (! (*insn_operand_predicate[icode][0]) (reg, mode)
-                     || ! ((*insn_operand_predicate[icode][1])
+
+                 if (! (*insn_data[icode].operand[0].predicate) (reg, mode)
+                     || ! ((*insn_data[icode].operand[1].predicate)
                            (comparison_value, mode))
-                     || ! (*insn_operand_predicate[icode][2]) (offset, mode))
+                     || ! ((*insn_data[icode].operand[2].predicate)
+                           (offset, mode)))
                    return 0;
                  start_value
                    = gen_rtx_PLUS (mode, comparison_value, offset);
@@ -7978,10 +8235,10 @@ check_dbra_loop (loop_end, insn_count, loop_start, loop_info)
                  enum machine_mode mode = GET_MODE (reg);
                  enum insn_code icode
                    = sub_optab->handlers[(int) mode].insn_code;
-                 if (! (*insn_operand_predicate[icode][0]) (reg, mode)
-                     || ! ((*insn_operand_predicate[icode][1])
+                 if (! (*insn_data[icode].operand[0].predicate) (reg, mode)
+                     || ! ((*insn_data[icode].operand[1].predicate)
                            (comparison_value, mode))
-                     || ! ((*insn_operand_predicate[icode][2])
+                     || ! ((*insn_data[icode].operand[2].predicate)
                            (initial_value, mode)))
                    return 0;
                  start_value
@@ -8066,6 +8323,40 @@ check_dbra_loop (loop_end, insn_count, loop_start, loop_info)
                  bl->nonneg = 1;
                }
 
+             /* No insn may reference both the reversed and another biv or it
+                will fail (see comment near the top of the loop reversal
+                code).
+                Earlier on, we have verified that the biv has no use except
+                counting, or it is the only biv in this function.
+                However, the code that computes no_use_except_counting does
+                not verify reg notes.  It's possible to have an insn that
+                references another biv, and has a REG_EQUAL note with an
+                expression based on the reversed biv.  To avoid this case,
+                remove all REG_EQUAL notes based on the reversed biv
+                here.  */
+             for (p = loop_start; p != loop_end; p = NEXT_INSN (p))
+               if (GET_RTX_CLASS (GET_CODE (p)) == 'i')
+                 {
+                   rtx *pnote;
+                   rtx set = single_set (p);
+                   /* If this is a set of a GIV based on the reversed biv, any
+                      REG_EQUAL notes should still be correct.  */
+                   if (! set
+                       || GET_CODE (SET_DEST (set)) != REG
+                       || (size_t) REGNO (SET_DEST (set)) >= reg_iv_type->num_elements
+                       || REG_IV_TYPE (REGNO (SET_DEST (set))) != GENERAL_INDUCT
+                       || REG_IV_INFO (REGNO (SET_DEST (set)))->src_reg != bl->biv->src_reg)
+                     for (pnote = &REG_NOTES (p); *pnote;)
+                       {
+                         if (REG_NOTE_KIND (*pnote) == REG_EQUAL
+                             && reg_mentioned_p (regno_reg_rtx[bl->regno],
+                                                 XEXP (*pnote, 0)))
+                           *pnote = XEXP (*pnote, 1);
+                         else
+                           pnote = &XEXP (*pnote, 1);
+                       }
+                 }
+
              /* Mark that this biv has been reversed.  Each giv which depends
                 on this biv, and which is also live past the end of the loop
                 will have to be fixed up.  */
@@ -8180,11 +8471,16 @@ loop_insn_first_p (insn, reference)
       if (p == reference || ! q)
         return 1;
 
+      /* Either of P or Q might be a NOTE.  Notes have the same LUID as the
+         previous insn, hence the <= comparison below does not work if
+        P is a note.  */
       if (INSN_UID (p) < max_uid_for_loop
-         && INSN_UID (q) < max_uid_for_loop)
-       return INSN_LUID (p) < INSN_LUID (q);
+         && INSN_UID (q) < max_uid_for_loop
+         && GET_CODE (p) != NOTE)
+       return INSN_LUID (p) <= INSN_LUID (q);
 
-      if (INSN_UID (p) >= max_uid_for_loop)
+      if (INSN_UID (p) >= max_uid_for_loop
+         || GET_CODE (p) == NOTE)
        p = NEXT_INSN (p);
       if (INSN_UID (q) >= max_uid_for_loop)
        q = NEXT_INSN (q);
@@ -8255,7 +8551,7 @@ maybe_eliminate_biv_1 (x, insn, bl, eliminate_p, where)
   rtx new;
 #endif
   int arg_operand;
-  char *fmt;
+  const char *fmt;
   int i, j;
 
   switch (code)
@@ -8648,7 +8944,7 @@ update_reg_last_use (x, insn)
   else
     {
       register int i, j;
-      register char *fmt = GET_RTX_FORMAT (GET_CODE (x));
+      register const char *fmt = GET_RTX_FORMAT (GET_CODE (x));
       for (i = GET_RTX_LENGTH (GET_CODE (x)) - 1; i >= 0; i--)
        {
          if (fmt[i] == 'e')
@@ -8966,7 +9262,7 @@ insert_bct (loop_start, loop_end, loop_info)
   int loop_num = uid_loop_num [INSN_UID (loop_start)];
 
   /* It's impossible to instrument a competely unrolled loop.  */
-  if (loop_info->unroll_number == -1)
+  if (loop_info->unroll_number == loop_info->n_iterations)
     return;
 
   /* Make sure that the count register is not in use.  */
@@ -9003,7 +9299,7 @@ insert_bct (loop_start, loop_end, loop_info)
 
   /* Make sure that the loop does not contain a function call
      (the count register might be altered by the called function).  */
-  if (loop_has_call)
+  if (loop_info->has_call)
     {
       if (loop_dump_stream)
        fprintf (loop_dump_stream,
@@ -9014,7 +9310,7 @@ insert_bct (loop_start, loop_end, loop_info)
 
   /* Make sure that the loop does not jump via a table.
      (the count register might be used to perform the branch on table).  */
-  if (loop_has_tablejump)
+  if (loop_info->has_tablejump)
     {
       if (loop_dump_stream)
        fprintf (loop_dump_stream,
@@ -9139,19 +9435,10 @@ insert_bct (loop_start, loop_end, loop_info)
                                   NULL_RTX, 0, OPTAB_LIB_WIDEN);
 
        if (increment_value_abs != 1)
-         {
-           /* ??? This will generate an expensive divide instruction for
-              most targets.  The original authors apparently expected this
-              to be a shift, since they test for power-of-2 divisors above,
-              but just naively generating a divide instruction will not give 
-              a shift.  It happens to work for the PowerPC target because
-              the rs6000.md file has a divide pattern that emits shifts.
-              It will probably not work for any other target.  */
-           iterations_num_reg = expand_binop (loop_var_mode, sdiv_optab,
-                                              temp_reg,
-                                              GEN_INT (increment_value_abs),
-                                              NULL_RTX, 0, OPTAB_LIB_WIDEN);
-         }
+         iterations_num_reg = expand_binop (loop_var_mode, asr_optab,
+                                            temp_reg,
+                                            GEN_INT (exact_log2 (increment_value_abs)),
+                                            NULL_RTX, 0, OPTAB_LIB_WIDEN);
        else
          iterations_num_reg = temp_reg;
       }
@@ -9392,7 +9679,7 @@ load_mems (scan_start, end, loop_top, start)
   int i;
   rtx p;
   rtx label = NULL_RTX;
-  rtx end_label;
+  rtx end_label = NULL_RTX;
 
   if (loop_mems_idx > 0) 
     {