loop.c (basic_induction_var): A non-integer variable which is being set by a paradoxi...
[platform/upstream/gcc.git] / gcc / loop.c
index 4fb5198..2b2a837 100644 (file)
@@ -1,5 +1,5 @@
 /* Perform various loop optimizations, including strength reduction.
-   Copyright (C) 1987, 88, 89, 91-97, 1998 Free Software Foundation, Inc.
+   Copyright (C) 1987, 88, 89, 91-98, 1999 Free Software Foundation, Inc.
 
 This file is part of GNU CC.
 
@@ -37,7 +37,9 @@ Boston, MA 02111-1307, USA.  */
 #include "config.h"
 #include "system.h"
 #include "rtl.h"
+#include "tm_p.h"
 #include "obstack.h"
+#include "function.h"
 #include "expr.h"
 #include "insn-config.h"
 #include "insn-flags.h"
@@ -50,6 +52,11 @@ Boston, MA 02111-1307, USA.  */
 #include "except.h"
 #include "toplev.h"
 
+/* Information about the loop being processed used to compute
+   the number of loop iterations for loop unrolling and doloop
+   optimization.  */
+static struct loop_info this_loop_info;
+
 /* Vector mapping INSN_UIDs to luids.
    The luids are like uids but increase monotonically always.
    We use them to see whether a jump comes from outside a given loop.  */
@@ -78,6 +85,16 @@ static int max_loop_num;
 
 static rtx *loop_number_loop_starts, *loop_number_loop_ends;
 
+/* Likewise for the continue insn */
+static rtx *loop_number_loop_cont;
+
+/* The first code_label that is reached in every loop iteration.
+   0 when not computed yet, initially const0_rtx if a jump couldn't be
+   followed.
+   Also set to 0 when there is no such label before the NOTE_INSN_LOOP_CONT
+   of this loop, or in verify_dominator, if a jump couldn't be followed.  */
+static rtx *loop_number_cont_dominator;
+
 /* For each loop, gives the containing loop number, -1 if none.  */
 
 int *loop_outer_loop;
@@ -88,14 +105,6 @@ int *loop_outer_loop;
 int *loop_used_count_register;
 #endif  /* HAVE_decrement_and_branch_on_count */
 
-/* For each loop, keep track of its unrolling factor.
-   Potential values:
-      0: unrolled
-      1: not unrolled.
-     -1: completely unrolled
-     >0: holds the unroll exact factor.  */
-int *loop_unroll_factor;
-
 /* Indexed by loop number, contains a nonzero value if the "loop" isn't
    really a loop (an insn outside the loop branches into it).  */
 
@@ -118,33 +127,6 @@ rtx *loop_number_exit_labels;
 
 int *loop_number_exit_count;
 
-/* Holds the number of loop iterations.  It is zero if the number could not be
-   calculated.  Must be unsigned since the number of iterations can
-   be as high as 2^wordsize-1.  For loops with a wider iterator, this number
-   will be zero if the number of loop iterations is too large for an
-   unsigned integer to hold.  */
-
-unsigned HOST_WIDE_INT loop_n_iterations;
-
-/* Nonzero if there is a subroutine call in the current loop.  */
-
-static int loop_has_call;
-
-/* Nonzero if there is a volatile memory reference in the current
-   loop.  */
-
-static int loop_has_volatile;
-
-/* Nonzero if there is a tablejump in the current loop.  */
-
-static int loop_has_tablejump;
-
-/* Added loop_continue which is the NOTE_INSN_LOOP_CONT of the
-   current loop.  A continue statement will generate a branch to
-   NEXT_INSN (loop_continue).  */
-
-static rtx loop_continue;
-
 /* Indexed by register number, contains the number of times the reg
    is set during the loop being scanned.
    During code motion, a negative value indicates a reg that has been
@@ -157,32 +139,35 @@ static rtx loop_continue;
    Therefore, at all times, == 0 indicates an invariant register;
    < 0 a conditionally invariant one.  */
 
-static varray_type n_times_set;
+static varray_type set_in_loop;
 
-/* Original value of n_times_set; same except that this value
+/* Original value of set_in_loop; same except that this value
    is not set negative for a reg whose sets have been made candidates
    and not set to 0 for a reg that is moved.  */
 
-static varray_type n_times_used;
+static varray_type n_times_set;
 
 /* Index by register number, 1 indicates that the register
    cannot be moved or strength reduced.  */
 
 static varray_type may_not_optimize;
 
+/* Contains the insn in which a register was used if it was used
+   exactly once; contains const0_rtx if it was used more than once.  */
+
+static varray_type reg_single_usage;
+
 /* Nonzero means reg N has already been moved out of one loop.
    This reduces the desire to move it out of another.  */
 
 static char *moved_once;
 
-/* Array of MEMs that are stored in this loop. If there are too many to fit
-   here, we just turn on unknown_address_altered.  */
+/* List of MEMs that are stored in this loop.  */
 
-#define NUM_STORES 30
-static rtx loop_store_mems[NUM_STORES];
+static rtx loop_store_mems;
 
-/* Index of first available slot in above array.  */
-static int loop_store_mems_idx;
+/* The insn where the first of these was found.  */
+static rtx first_loop_store_insn;
 
 typedef struct loop_mem_info {
   rtx mem;      /* The MEM itself.  */
@@ -205,9 +190,10 @@ static int loop_mems_idx;
 
 static int loop_mems_allocated;
 
-/* Nonzero if we don't know what MEMs were changed in the current loop.
-   This happens if the loop contains a call (in which case `loop_has_call'
-   will also be set) or if we store into more than NUM_STORES MEMs.  */
+/* Nonzero if we don't know what MEMs were changed in the current
+   loop.  This happens if the loop contains a call (in which case
+   `loop_info->has_call' will also be set) or if we store into more
+   than NUM_STORES MEMs.  */
 
 static int unknown_address_altered;
 
@@ -217,9 +203,6 @@ static int num_movables;
 /* Count of memory write instructions discovered in the loop.  */
 static int num_mem_sets;
 
-/* Number of loops contained within the current one, including itself.  */
-static int loops_enclosed;
-
 /* Bound on pseudo register number before loop optimization.
    A pseudo has valid regscan info if its number is < max_reg_before_loop.  */
 int max_reg_before_loop;
@@ -286,22 +269,26 @@ static struct movable *the_movables;
 
 FILE *loop_dump_stream;
 
+/* For communicating return values from note_set_pseudo_multiple_uses.  */
+static int note_set_pseudo_multiple_uses_retval;
+
 /* Forward declarations.  */
 
+static void verify_dominator PROTO((int));
 static void find_and_verify_loops PROTO((rtx));
 static void mark_loop_jump PROTO((rtx, int));
-static void prescan_loop PROTO((rtx, rtx));
+static void prescan_loop PROTO((rtx, rtx, struct loop_info *));
 static int reg_in_basic_block_p PROTO((rtx, rtx));
 static int consec_sets_invariant_p PROTO((rtx, int, rtx));
-static rtx libcall_other_reg PROTO((rtx, rtx));
 static int labels_in_range_p PROTO((rtx, int));
 static void count_one_set PROTO((rtx, rtx, varray_type, rtx *));
 
 static void count_loop_regs_set PROTO((rtx, rtx, varray_type, varray_type,
                                       int *, int)); 
 static void note_addr_stored PROTO((rtx, rtx));
+static void note_set_pseudo_multiple_uses PROTO((rtx, rtx));
 static int loop_reg_used_before_p PROTO((rtx, rtx, rtx, rtx, rtx));
-static void scan_loop PROTO((rtx, rtx, int, int));
+static void scan_loop PROTO((rtx, rtx, rtx, int, int));
 #if 0
 static void replace_call_address PROTO((rtx, rtx, rtx));
 #endif
@@ -315,23 +302,27 @@ static int rtx_equal_for_loop_p PROTO((rtx, rtx, struct movable *));
 static void add_label_notes PROTO((rtx, rtx));
 static void move_movables PROTO((struct movable *, int, int, rtx, rtx, int));
 static int count_nonfixed_reads PROTO((rtx));
-static void strength_reduce PROTO((rtx, rtx, rtx, int, rtx, rtx, int, int));
+static void strength_reduce PROTO((rtx, rtx, rtx, int, rtx, rtx, 
+                                  struct loop_info *, rtx, int, int));
 static void find_single_use_in_loop PROTO((rtx, rtx, varray_type));
 static int valid_initial_value_p PROTO((rtx, rtx, int, rtx));
-static void find_mem_givs PROTO((rtx, rtx, int, rtx, rtx));
-static void record_biv PROTO((struct induction *, rtx, rtx, rtx, rtx, int, int));
-static void check_final_value PROTO((struct induction *, rtx, rtx));
-static void record_giv PROTO((struct induction *, rtx, rtx, rtx, rtx, rtx, int, enum g_types, int, rtx *, rtx, rtx));
+static void find_mem_givs PROTO((rtx, rtx, int, int, rtx, rtx));
+static void record_biv PROTO((struct induction *, rtx, rtx, rtx, rtx, rtx *, int, int));
+static void check_final_value PROTO((struct induction *, rtx, rtx, 
+                                    unsigned HOST_WIDE_INT));
+static void record_giv PROTO((struct induction *, rtx, rtx, rtx, rtx, rtx, int, enum g_types, int, int, rtx *, rtx, rtx));
 static void update_giv_derive PROTO((rtx));
-static int basic_induction_var PROTO((rtx, enum machine_mode, rtx, rtx, rtx *, rtx *));
+static int basic_induction_var PROTO((rtx, enum machine_mode, rtx, rtx, rtx *, rtx *, rtx **));
 static rtx simplify_giv_expr PROTO((rtx, int *));
 static int general_induction_var PROTO((rtx, rtx *, rtx *, rtx *, int, int *));
-static int consec_sets_giv PROTO((int, rtx, rtx, rtx, rtx *, rtx *));
-static int check_dbra_loop PROTO((rtx, int, rtx));
+static int consec_sets_giv PROTO((int, rtx, rtx, rtx, rtx *, rtx *, rtx *));
+static int check_dbra_loop PROTO((rtx, int, rtx, struct loop_info *));
 static rtx express_from_1 PROTO((rtx, rtx, rtx));
-static rtx express_from PROTO((struct induction *, struct induction *));
 static rtx combine_givs_p PROTO((struct induction *, struct induction *));
 static void combine_givs PROTO((struct iv_class *));
+struct recombine_givs_stats;
+static int find_life_end PROTO((rtx, struct recombine_givs_stats *, rtx, rtx));
+static void recombine_givs PROTO((struct iv_class *, rtx, rtx, int));
 static int product_cheap_p PROTO((rtx, rtx));
 static int maybe_eliminate_biv PROTO((struct iv_class *, rtx, rtx, int, int, int));
 static int maybe_eliminate_biv_1 PROTO((rtx, rtx, struct iv_class *, int, rtx));
@@ -340,8 +331,7 @@ static void record_initial PROTO((rtx, rtx));
 static void update_reg_last_use PROTO((rtx, rtx));
 static rtx next_insn_in_loop PROTO((rtx, rtx, rtx, rtx));
 static void load_mems_and_recount_loop_regs_set PROTO((rtx, rtx, rtx,
-                                                      rtx, varray_type, 
-                                                      int *));
+                                                      rtx, int *));
 static void load_mems PROTO((rtx, rtx, rtx, rtx));
 static int insert_loop_mem PROTO((rtx *, void *));
 static int replace_loop_mem PROTO((rtx *, void *));
@@ -365,7 +355,7 @@ typedef struct rtx_pair {
 
 #ifdef HAVE_decrement_and_branch_on_count
 /* Test whether BCT applicable and safe.  */
-static void insert_bct PROTO((rtx, rtx));
+static void insert_bct PROTO((rtx, rtx, struct loop_info *));
 
 /* Auxiliary function that inserts the BCT pattern into the loop.  */
 static void instrument_loop_bct PROTO((rtx, rtx, rtx));
@@ -375,6 +365,10 @@ static void instrument_loop_bct PROTO((rtx, rtx, rtx));
 int indirect_jump_in_function = 0;
 static int indirect_jump_in_function_p PROTO((rtx));
 
+static int compute_luids PROTO((rtx, rtx, int));
+
+static int biv_elimination_giv_has_0_offset PROTO((struct induction *,
+                                                  struct induction *, rtx));
 \f
 /* Relative gain of eliminating various kinds of operations.  */
 static int add_cost;
@@ -418,6 +412,35 @@ init_loop ()
   gcc_obstack_init (&temp_obstack);
 }
 \f
+/* Compute the mapping from uids to luids.
+   LUIDs are numbers assigned to insns, like uids,
+   except that luids increase monotonically through the code.
+   Start at insn START and stop just before END.  Assign LUIDs
+   starting with PREV_LUID + 1.  Return the last assigned LUID + 1.  */
+static int
+compute_luids (start, end, prev_luid)
+     rtx start, end;
+     int prev_luid;
+{
+  int i;
+  rtx insn;
+
+  for (insn = start, i = prev_luid; insn != end; insn = NEXT_INSN (insn))
+    {
+      if (INSN_UID (insn) >= max_uid_for_loop)
+       continue;
+      /* Don't assign luids to line-number NOTEs, so that the distance in
+        luids between two insns is not affected by -g.  */
+      if (GET_CODE (insn) != NOTE
+         || NOTE_LINE_NUMBER (insn) <= 0)
+       uid_luid[INSN_UID (insn)] = ++i;
+      else
+       /* Give a line number note the same luid as preceding insn.  */
+       uid_luid[INSN_UID (insn)] = i;
+    }
+  return i + 1;
+}
+\f
 /* Entry point of this file.  Perform loop optimization
    on the current function.  F is the first insn of the function
    and DUMPFILE is a stream for output of a trace of actions taken
@@ -432,7 +455,6 @@ loop_optimize (f, dumpfile, unroll_p, bct_p)
 {
   register rtx insn;
   register int i;
-  rtx last_insn;
 
   loop_dump_stream = dumpfile;
 
@@ -473,17 +495,13 @@ loop_optimize (f, dumpfile, unroll_p, bct_p)
      not be zeroed.  */
   loop_number_loop_starts = (rtx *) alloca (max_loop_num * sizeof (rtx));
   loop_number_loop_ends = (rtx *) alloca (max_loop_num * sizeof (rtx));
+  loop_number_loop_cont = (rtx *) alloca (max_loop_num * sizeof (rtx));
+  loop_number_cont_dominator = (rtx *) alloca (max_loop_num * sizeof (rtx));
   loop_outer_loop = (int *) alloca (max_loop_num * sizeof (int));
   loop_invalid = (char *) alloca (max_loop_num * sizeof (char));
   loop_number_exit_labels = (rtx *) alloca (max_loop_num * sizeof (rtx));
   loop_number_exit_count = (int *) alloca (max_loop_num * sizeof (int));
 
-  /* This is initialized by the unrolling code, so we go ahead
-     and clear them just in case we are not performing loop
-     unrolling.  */
-  loop_unroll_factor = (int *) alloca (max_loop_num *sizeof (int));
-  bzero ((char *) loop_unroll_factor, max_loop_num * sizeof (int));
-
 #ifdef HAVE_decrement_and_branch_on_count
   /* Allocate for BCT optimization */
   loop_used_count_register = (int *) alloca (max_loop_num * sizeof (int));
@@ -506,30 +524,16 @@ loop_optimize (f, dumpfile, unroll_p, bct_p)
      but moving this call to init_alias_analysis is more efficient.  */
   init_alias_analysis ();
 
-  /* See if we went too far.  */
+  /* See if we went too far.  Note that get_max_uid already returns
+     one more that the maximum uid of all insn.  */
   if (get_max_uid () > max_uid_for_loop)
     abort ();
   /* Now reset it to the actual size we need.  See above.  */
-  max_uid_for_loop = get_max_uid () + 1;
-
-  /* Compute the mapping from uids to luids.
-     LUIDs are numbers assigned to insns, like uids,
-     except that luids increase monotonically through the code.
-     Don't assign luids to line-number NOTEs, so that the distance in luids
-     between two insns is not affected by -g.  */
-
-  for (insn = f, i = 0; insn; insn = NEXT_INSN (insn))
-    {
-      last_insn = insn;
-      if (GET_CODE (insn) != NOTE
-         || NOTE_LINE_NUMBER (insn) <= 0)
-       uid_luid[INSN_UID (insn)] = ++i;
-      else
-       /* Give a line number note the same luid as preceding insn.  */
-       uid_luid[INSN_UID (insn)] = i;
-    }
+  max_uid_for_loop = get_max_uid ();
 
-  max_luid = i + 1;
+  /* find_and_verify_loops has already called compute_luids, but it might
+     have rearranged code afterwards, so we need to recompute the luids now.  */
+  max_luid = compute_luids (f, NULL_RTX, 0);
 
   /* Don't leave gaps in uid_luid for insns that have been
      deleted.  It is possible that the first or last insn
@@ -559,7 +563,7 @@ loop_optimize (f, dumpfile, unroll_p, bct_p)
   for (i = max_loop_num-1; i >= 0; i--)
     if (! loop_invalid[i] && loop_number_loop_ends[i])
       scan_loop (loop_number_loop_starts[i], loop_number_loop_ends[i],
-                unroll_p, bct_p);
+                loop_number_loop_cont[i], unroll_p, bct_p);
 
   /* If debugging and unrolling loops, we must replicate the tree nodes
      corresponding to the blocks inside the loop, so that the original one
@@ -604,7 +608,8 @@ next_insn_in_loop (insn, start, end, loop_top)
 
 /* Optimize one loop whose start is LOOP_START and end is END.
    LOOP_START is the NOTE_INSN_LOOP_BEG and END is the matching
-   NOTE_INSN_LOOP_END.  */
+   NOTE_INSN_LOOP_END.
+   LOOP_CONT is the NOTE_INSN_LOOP_CONT.  */
 
 /* ??? Could also move memory writes out of loops if the destination address
    is invariant, the source is invariant, the memory write is not volatile,
@@ -613,8 +618,8 @@ next_insn_in_loop (insn, start, end, loop_top)
    write, then we can also mark the memory read as invariant.  */
 
 static void
-scan_loop (loop_start, end, unroll_p, bct_p)
-     rtx loop_start, end;
+scan_loop (loop_start, end, loop_cont, unroll_p, bct_p)
+     rtx loop_start, end, loop_cont;
      int unroll_p, bct_p;
 {
   register int i;
@@ -647,13 +652,10 @@ scan_loop (loop_start, end, unroll_p, bct_p)
      since in that case saving an insn makes more difference
      and more registers are available.  */
   int threshold;
-  /* If we have calls, contains the insn in which a register was used
-     if it was used exactly once; contains const0_rtx if it was used more
-     than once.  */
-  varray_type reg_single_usage = 0;
   /* Nonzero if we are scanning instructions in a sub-loop.  */
   int loop_depth = 0;
   int nregs;
+  struct loop_info *loop_info = &this_loop_info;
 
   /* Determine whether this loop starts with a jump down to a test at
      the end.  This will occur for a small number of loops with a test
@@ -683,8 +685,8 @@ scan_loop (loop_start, end, unroll_p, bct_p)
   scan_start = p;
 
   /* Set up variables describing this loop.  */
-  prescan_loop (loop_start, end);
-  threshold = (loop_has_call ? 1 : 2) * (1 + n_non_fixed_regs);
+  prescan_loop (loop_start, end, loop_info);
+  threshold = (loop_info->has_call ? 1 : 2) * (1 + n_non_fixed_regs);
 
   /* If loop has a jump before the first label,
      the true entry is the target of that jump.
@@ -730,8 +732,7 @@ scan_loop (loop_start, end, unroll_p, bct_p)
 
   /* Count number of times each reg is set during this loop.
      Set VARRAY_CHAR (may_not_optimize, I) if it is not safe to move out
-     the setting of register I.  If this loop has calls, set
-     VARRAY_RTX (reg_single_usage, I).  */
+     the setting of register I.  Set VARRAY_RTX (reg_single_usage, I).  */
   
   /* Allocate extra space for REGS that might be created by
      load_mems.  We allocate a little extra slop as well, in the hopes
@@ -739,12 +740,10 @@ scan_loop (loop_start, end, unroll_p, bct_p)
      we won't have to reallocate these arrays.  However, we do grow
      the arrays, if necessary, in load_mems_recount_loop_regs_set.  */
   nregs = max_reg_num () + loop_mems_idx + 16;
+  VARRAY_INT_INIT (set_in_loop, nregs, "set_in_loop");
   VARRAY_INT_INIT (n_times_set, nregs, "n_times_set");
-  VARRAY_INT_INIT (n_times_used, nregs, "n_times_used");
   VARRAY_CHAR_INIT (may_not_optimize, nregs, "may_not_optimize");
-
-  if (loop_has_call)
-    VARRAY_RTX_INIT (reg_single_usage, nregs, "reg_single_usage");
+  VARRAY_RTX_INIT (reg_single_usage, nregs, "reg_single_usage");
 
   count_loop_regs_set (loop_top ? loop_top : loop_start, end,
                       may_not_optimize, reg_single_usage, &insn_count, nregs);
@@ -752,7 +751,7 @@ scan_loop (loop_start, end, unroll_p, bct_p)
   for (i = 0; i < FIRST_PSEUDO_REGISTER; i++)
     {
       VARRAY_CHAR (may_not_optimize, i) = 1;
-      VARRAY_INT (n_times_set, i) = 1;
+      VARRAY_INT (set_in_loop, i) = 1;
     }
 
 #ifdef AVOID_CCMODE_COPIES
@@ -763,20 +762,20 @@ scan_loop (loop_start, end, unroll_p, bct_p)
       VARRAY_CHAR (may_not_optimize, i) = 1;
 #endif
 
-  bcopy ((char *) &n_times_set->data, 
-        (char *) &n_times_used->data, nregs * sizeof (int));
+  bcopy ((char *) &set_in_loop->data, 
+        (char *) &n_times_set->data, nregs * sizeof (int));
 
   if (loop_dump_stream)
     {
       fprintf (loop_dump_stream, "\nLoop from %d to %d: %d real insns.\n",
               INSN_UID (loop_start), INSN_UID (end), insn_count);
-      if (loop_continue)
+      if (loop_info->cont)
        fprintf (loop_dump_stream, "Continue at insn %d.\n",
-                INSN_UID (loop_continue));
+                INSN_UID (loop_info->cont));
     }
 
   /* Scan through the loop finding insns that are safe to move.
-     Set n_times_set negative for the reg being set, so that
+     Set set_in_loop negative for the reg being set, so that
      this reg will be considered invariant for subsequent insns.
      We consider whether subsequent insns use the reg
      in deciding whether it is worth actually moving.
@@ -841,17 +840,23 @@ scan_loop (loop_start, end, unroll_p, bct_p)
             We don't know its life-span, so we can't compute the benefit.  */
          if (REGNO (SET_DEST (set)) >= max_reg_before_loop)
            ;
-         else if (/* The set is not guaranteed to be executed one
-                     the loop starts, or the value before the set is
-                     needed before the set occurs... */
-                  (maybe_never
-                   || loop_reg_used_before_p (set, p, loop_start,
-                                              scan_start, end))
-                  /* And the register is used in basic blocks other
+         else if (/* The register is used in basic blocks other
                      than the one where it is set (meaning that
                      something after this point in the loop might
                      depend on its value before the set).  */
-                  && !reg_in_basic_block_p (p, SET_DEST (set)))
+                  ! reg_in_basic_block_p (p, SET_DEST (set))
+                  /* And the set is not guaranteed to be executed one
+                     the loop starts, or the value before the set is
+                     needed before the set occurs... 
+
+                     ??? Note we have quadratic behaviour here, mitigated
+                     by the fact that the previous test will often fail for
+                     large loops.  Rather than re-scanning the entire loop
+                     each time for register usage, we should build tables
+                     of the register usage and use them here instead.  */
+                  && (maybe_never
+                      || loop_reg_used_before_p (set, p, loop_start,
+                                                 scan_start, end)))
            /* It is unsafe to move the set.  
 
               This code used to consider it OK to move a set of a variable
@@ -861,12 +866,12 @@ scan_loop (loop_start, end, unroll_p, bct_p)
          else if ((tem = invariant_p (src))
                   && (dependencies == 0
                       || (tem2 = invariant_p (dependencies)) != 0)
-                  && (VARRAY_INT (n_times_set
+                  && (VARRAY_INT (set_in_loop
                                   REGNO (SET_DEST (set))) == 1
                       || (tem1
                           = consec_sets_invariant_p 
                           (SET_DEST (set),
-                           VARRAY_INT (n_times_set, REGNO (SET_DEST (set))),
+                           VARRAY_INT (set_in_loop, REGNO (SET_DEST (set))),
                            p)))
                   /* If the insn can cause a trap (such as divide by zero),
                      can't move it unless it's guaranteed to be executed
@@ -893,12 +898,13 @@ scan_loop (loop_start, end, unroll_p, bct_p)
                 Don't do this if P has a REG_RETVAL note or if we have
                 SMALL_REGISTER_CLASSES and SET_SRC is a hard register.  */
 
-             if (reg_single_usage && VARRAY_RTX (reg_single_usage, regno) != 0
+             if (loop_info->has_call
+                 && VARRAY_RTX (reg_single_usage, regno) != 0
                  && VARRAY_RTX (reg_single_usage, regno) != const0_rtx
                  && REGNO_FIRST_UID (regno) == INSN_UID (p)
                  && (REGNO_LAST_UID (regno)
                      == INSN_UID (VARRAY_RTX (reg_single_usage, regno)))
-                 && VARRAY_INT (n_times_set, regno) == 1
+                 && VARRAY_INT (set_in_loop, regno) == 1
                  && ! side_effects_p (SET_SRC (set))
                  && ! find_reg_note (p, REG_RETVAL, NULL_RTX)
                  && (! SMALL_REGISTER_CLASSES
@@ -926,7 +932,7 @@ scan_loop (loop_start, end, unroll_p, bct_p)
                  PUT_CODE (p, NOTE);
                  NOTE_LINE_NUMBER (p) = NOTE_INSN_DELETED;
                  NOTE_SOURCE_FILE (p) = 0;
-                 VARRAY_INT (n_times_set, regno) = 0;
+                 VARRAY_INT (set_in_loop, regno) = 0;
                  continue;
                }
 
@@ -937,7 +943,7 @@ scan_loop (loop_start, end, unroll_p, bct_p)
              m->dependencies = dependencies;
              m->set_dest = SET_DEST (set);
              m->force = 0;
-             m->consec = VARRAY_INT (n_times_set
+             m->consec = VARRAY_INT (set_in_loop
                                      REGNO (SET_DEST (set))) - 1;
              m->done = 0;
              m->forces = 0;
@@ -955,10 +961,10 @@ scan_loop (loop_start, end, unroll_p, bct_p)
              m->match = 0;
              m->lifetime = (uid_luid[REGNO_LAST_UID (regno)]
                             - uid_luid[REGNO_FIRST_UID (regno)]);
-             m->savings = VARRAY_INT (n_times_used, regno);
+             m->savings = VARRAY_INT (n_times_set, regno);
              if (find_reg_note (p, REG_RETVAL, NULL_RTX))
                m->savings += libcall_benefit (p);
-             VARRAY_INT (n_times_set, regno) = move_insn ? -2 : -1;
+             VARRAY_INT (set_in_loop, regno) = move_insn ? -2 : -1;
              /* Add M to the end of the chain MOVABLES.  */
              if (movables == 0)
                movables = m;
@@ -1017,7 +1023,7 @@ scan_loop (loop_start, end, unroll_p, bct_p)
                   && !reg_mentioned_p (SET_DEST (set), SET_SRC (set1)))
            {
              register int regno = REGNO (SET_DEST (set));
-             if (VARRAY_INT (n_times_set, regno) == 2)
+             if (VARRAY_INT (set_in_loop, regno) == 2)
                {
                  register struct movable *m;
                  m = (struct movable *) alloca (sizeof (struct movable));
@@ -1067,7 +1073,7 @@ scan_loop (loop_start, end, unroll_p, bct_p)
                  m->lifetime = (uid_luid[REGNO_LAST_UID (regno)]
                                 - uid_luid[REGNO_FIRST_UID (regno)]);
                  m->savings = 1;
-                 VARRAY_INT (n_times_set, regno) = -1;
+                 VARRAY_INT (set_in_loop, regno) = -1;
                  /* Add M to the end of the chain MOVABLES.  */
                  if (movables == 0)
                    movables = m;
@@ -1132,7 +1138,7 @@ scan_loop (loop_start, end, unroll_p, bct_p)
   combine_movables (movables, nregs);
        
   /* Now consider each movable insn to decide whether it is worth moving.
-     Store 0 in n_times_set for each reg that is moved.
+     Store 0 in set_in_loop for each reg that is moved.
 
      Generally this increases code size, so do not move moveables when
      optimizing for code size.  */
@@ -1142,29 +1148,28 @@ scan_loop (loop_start, end, unroll_p, bct_p)
                   insn_count, loop_start, end, nregs);
 
   /* Now candidates that still are negative are those not moved.
-     Change n_times_set to indicate that those are not actually invariant.  */
+     Change set_in_loop to indicate that those are not actually invariant.  */
   for (i = 0; i < nregs; i++)
-    if (VARRAY_INT (n_times_set, i) < 0)
-      VARRAY_INT (n_times_set, i) = VARRAY_INT (n_times_used, i);
+    if (VARRAY_INT (set_in_loop, i) < 0)
+      VARRAY_INT (set_in_loop, i) = VARRAY_INT (n_times_set, i);
 
-  /* Now that we've moved some things out of the loop, we able to
-     hoist even more memory references.  There's no need to pass
-     reg_single_usage this time, since we're done with it.  */
+  /* Now that we've moved some things out of the loop, we might be able to
+     hoist even more memory references.  */
   load_mems_and_recount_loop_regs_set (scan_start, end, loop_top,
-                                      loop_start, 0,
-                                      &insn_count);
+                                      loop_start, &insn_count);
 
   if (flag_strength_reduce)
     {
       the_movables = movables;
       strength_reduce (scan_start, end, loop_top,
-                      insn_count, loop_start, end, unroll_p, bct_p);
+                      insn_count, loop_start, end,
+                      loop_info, loop_cont, unroll_p, bct_p);
     }
 
+  VARRAY_FREE (reg_single_usage);
+  VARRAY_FREE (set_in_loop);
   VARRAY_FREE (n_times_set);
-  VARRAY_FREE (n_times_used);
   VARRAY_FREE (may_not_optimize);
-  VARRAY_FREE (reg_single_usage);
 }
 \f
 /* Add elements to *OUTPUT to record all the pseudo-regs
@@ -1176,7 +1181,7 @@ record_excess_regs (in_this, not_in_this, output)
      rtx *output;
 {
   enum rtx_code code;
-  char *fmt;
+  const char *fmt;
   int i;
 
   code = GET_CODE (in_this);
@@ -1226,7 +1231,7 @@ record_excess_regs (in_this, not_in_this, output)
    If there are none, return 0.
    If there are one or more, return an EXPR_LIST containing all of them.  */
 
-static rtx
+rtx
 libcall_other_reg (insn, equiv)
      rtx insn, equiv;
 {
@@ -1438,7 +1443,7 @@ combine_movables (movables, nregs)
   /* Perhaps testing m->consec_sets would be more appropriate here?  */
 
   for (m = movables; m; m = m->next)
-    if (m->match == 0 && VARRAY_INT (n_times_used, m->regno) == 1 && !m->partial)
+    if (m->match == 0 && VARRAY_INT (n_times_set, m->regno) == 1 && !m->partial)
       {
        register struct movable *m1;
        int regno = m->regno;
@@ -1449,7 +1454,7 @@ combine_movables (movables, nregs)
        /* We want later insns to match the first one.  Don't make the first
           one match any later ones.  So start this loop at m->next.  */
        for (m1 = m->next; m1; m1 = m1->next)
-         if (m != m1 && m1->match == 0 && VARRAY_INT (n_times_used, m1->regno) == 1
+         if (m != m1 && m1->match == 0 && VARRAY_INT (n_times_set, m1->regno) == 1
              /* A reg used outside the loop mustn't be eliminated.  */
              && !m1->global
              /* A reg used for zero-extending mustn't be eliminated.  */
@@ -1575,7 +1580,7 @@ rtx_equal_for_loop_p (x, y, movables)
   register int j;
   register struct movable *m;
   register enum rtx_code code;
-  register char *fmt;
+  register const char *fmt;
 
   if (x == y)
     return 1;
@@ -1586,7 +1591,7 @@ rtx_equal_for_loop_p (x, y, movables)
 
   /* If we have a register and a constant, they may sometimes be
      equal.  */
-  if (GET_CODE (x) == REG && VARRAY_INT (n_times_set, REGNO (x)) == -2
+  if (GET_CODE (x) == REG && VARRAY_INT (set_in_loop, REGNO (x)) == -2
       && CONSTANT_P (y))
     {
       for (m = movables; m; m = m->next)
@@ -1594,7 +1599,7 @@ rtx_equal_for_loop_p (x, y, movables)
            && rtx_equal_p (m->set_src, y))
          return 1;
     }
-  else if (GET_CODE (y) == REG && VARRAY_INT (n_times_set, REGNO (y)) == -2
+  else if (GET_CODE (y) == REG && VARRAY_INT (set_in_loop, REGNO (y)) == -2
           && CONSTANT_P (x))
     {
       for (m = movables; m; m = m->next)
@@ -1679,7 +1684,7 @@ rtx_equal_for_loop_p (x, y, movables)
 }
 \f
 /* If X contains any LABEL_REF's, add REG_LABEL notes for them to all
-  insns in INSNS which use thet reference.  */
+  insns in INSNS which use the reference.  */
 
 static void
 add_label_notes (x, insns)
@@ -1688,7 +1693,7 @@ add_label_notes (x, insns)
 {
   enum rtx_code code = GET_CODE (x);
   int i, j;
-  char *fmt;
+  const char *fmt;
   rtx insn;
 
   if (code == LABEL_REF && !LABEL_REF_NONLOCAL_P (x))
@@ -1821,11 +1826,11 @@ move_movables (movables, threshold, insn_count, loop_start, end, nregs)
              || (threshold * savings * m->lifetime) >=
                 (moved_once[regno] ? insn_count * 2 : insn_count)
              || (m->forces && m->forces->done
-                 && VARRAY_INT (n_times_used, m->forces->regno) == 1))
+                 && VARRAY_INT (n_times_set, m->forces->regno) == 1))
            {
              int count;
              register struct movable *m1;
-             rtx first;
+             rtx first = NULL_RTX;
 
              /* Now move the insns that set the reg.  */
 
@@ -2131,7 +2136,7 @@ move_movables (movables, threshold, insn_count, loop_start, end, nregs)
 
              /* The reg set here is now invariant.  */
              if (! m->partial)
-               VARRAY_INT (n_times_set, regno) = 0;
+               VARRAY_INT (set_in_loop, regno) = 0;
 
              m->done = 1;
 
@@ -2158,7 +2163,14 @@ move_movables (movables, threshold, insn_count, loop_start, end, nregs)
                      /* Schedule the reg loaded by M1
                         for replacement so that shares the reg of M.
                         If the modes differ (only possible in restricted
-                        circumstances, make a SUBREG.  */
+                        circumstances, make a SUBREG.
+
+                        Note this assumes that the target dependent files
+                        treat REG and SUBREG equally, including within
+                        GO_IF_LEGITIMATE_ADDRESS and in all the
+                        predicates since we never verify that replacing the
+                        original register with a SUBREG results in a
+                        recognizable insn.  */
                      if (GET_MODE (m->set_dest) == GET_MODE (m1->set_dest))
                        reg_map[m1->regno] = m->set_dest;
                      else
@@ -2188,7 +2200,7 @@ move_movables (movables, threshold, insn_count, loop_start, end, nregs)
                      /* The reg merged here is now invariant,
                         if the reg it matches is invariant.  */
                      if (! m->partial)
-                       VARRAY_INT (n_times_set, m1->regno) = 0;
+                       VARRAY_INT (set_in_loop, m1->regno) = 0;
                    }
            }
          else if (loop_dump_stream)
@@ -2226,7 +2238,7 @@ replace_call_address (x, reg, addr)
 {
   register enum rtx_code code;
   register int i;
-  register char *fmt;
+  register const char *fmt;
 
   if (x == 0)
     return;
@@ -2289,7 +2301,7 @@ count_nonfixed_reads (x)
 {
   register enum rtx_code code;
   register int i;
-  register char *fmt;
+  register const char *fmt;
   int value;
 
   if (x == 0)
@@ -2349,12 +2361,15 @@ constant_high_bytes (p, loop_start)
   /* Try to change (SET (REG ...) (ZERO_EXTEND (..:B ...)))
      to (SET (STRICT_LOW_PART (SUBREG:B (REG...))) ...).  */
 
-  new = gen_rtx_SET (VOIDmode,
-                    gen_rtx_STRICT_LOW_PART (VOIDmode,
-                                             gen_rtx_SUBREG (GET_MODE (XEXP (SET_SRC (PATTERN (p)), 0)),
-                                  SET_DEST (PATTERN (p)),
-                                  0)),
-                XEXP (SET_SRC (PATTERN (p)), 0));
+  new
+    = gen_rtx_SET
+      (VOIDmode,
+       gen_rtx_STRICT_LOW_PART
+       (VOIDmode,
+       gen_rtx_SUBREG (GET_MODE (XEXP (SET_SRC (PATTERN (p)), 0)),
+                       SET_DEST (PATTERN (p)), 0)),
+       XEXP (SET_SRC (PATTERN (p)), 0));
+
   insn_code_number = recog (new, p);
 
   if (insn_code_number)
@@ -2362,8 +2377,8 @@ constant_high_bytes (p, loop_start)
       register int i;
 
       /* Clear destination register before the loop.  */
-      emit_insn_before (gen_rtx_SET (VOIDmode, SET_DEST (PATTERN (p)),
-                                    const0_rtx),
+      emit_insn_before (gen_rtx_SET (VOIDmode,
+                                    SET_DEST (PATTERN (p)), const0_rtx),
                        loop_start);
 
       /* Inside the loop, just load the low part.  */
@@ -2372,36 +2387,40 @@ constant_high_bytes (p, loop_start)
 }
 #endif
 \f
-/* Scan a loop setting the variables `unknown_address_altered',
-   `num_mem_sets', `loop_continue', `loops_enclosed', `loop_has_call',
-   `loop_has_volatile', and `loop_has_tablejump'.
-   Also, fill in the arrays `loop_mems' and `loop_store_mems'.  */
+/* Scan a loop setting the elements `cont', `vtop', `loops_enclosed',
+   `has_call', `has_volatile', and `has_tablejump' within LOOP_INFO.
+   Set the global variables `unknown_address_altered' and
+   `num_mem_sets'.  Also, fill in the array `loop_mems' and the list
+   `loop_store_mems'.  */
 
 static void
-prescan_loop (start, end)
+prescan_loop (start, end, loop_info)
      rtx start, end;
+     struct loop_info *loop_info;
 {
   register int level = 1;
   rtx insn;
-  int loop_has_multiple_exit_targets = 0;
   /* The label after END.  Jumping here is just like falling off the
      end of the loop.  We use next_nonnote_insn instead of next_label
      as a hedge against the (pathological) case where some actual insn
      might end up between the two.  */
   rtx exit_target = next_nonnote_insn (end);
-  if (exit_target == NULL_RTX || GET_CODE (exit_target) != CODE_LABEL)
-    loop_has_multiple_exit_targets = 1;
+
+  loop_info->num = uid_loop_num [INSN_UID (start)];
+  loop_info->has_indirect_jump = indirect_jump_in_function;
+  loop_info->has_call = 0;
+  loop_info->has_volatile = 0;
+  loop_info->has_tablejump = 0;
+  loop_info->loops_enclosed = 1;
+  loop_info->has_multiple_exit_targets = 0;
+  loop_info->cont = 0;
+  loop_info->vtop = 0;
 
   unknown_address_altered = 0;
-  loop_has_call = 0;
-  loop_has_volatile = 0;
-  loop_has_tablejump = 0;
-  loop_store_mems_idx = 0;
+  loop_store_mems = NULL_RTX;
+  first_loop_store_insn = NULL_RTX;
   loop_mems_idx = 0;
-
   num_mem_sets = 0;
-  loops_enclosed = 1;
-  loop_continue = 0;
 
   for (insn = NEXT_INSN (start); insn != NEXT_INSN (end);
        insn = NEXT_INSN (insn))
@@ -2412,7 +2431,7 @@ prescan_loop (start, end)
            {
              ++level;
              /* Count number of loops contained in this one.  */
-             loops_enclosed++;
+             loop_info->loops_enclosed++;
            }
          else if (NOTE_LINE_NUMBER (insn) == NOTE_INSN_LOOP_END)
            {
@@ -2426,14 +2445,23 @@ prescan_loop (start, end)
          else if (NOTE_LINE_NUMBER (insn) == NOTE_INSN_LOOP_CONT)
            {
              if (level == 1)
-               loop_continue = insn;
+               loop_info->cont = insn;
+           }
+         else if (NOTE_LINE_NUMBER (insn) == NOTE_INSN_LOOP_VTOP)
+           {
+             /* If there is a NOTE_INSN_LOOP_VTOP, then this is a for
+                or while style loop, with a loop exit test at the
+                start.  Thus, we can assume that the loop condition
+                was true when the loop was entered.  */
+             if (level == 1)
+               loop_info->vtop = insn;
            }
        }
       else if (GET_CODE (insn) == CALL_INSN)
        {
          if (! CONST_CALL_P (insn))
            unknown_address_altered = 1;
-         loop_has_call = 1;
+         loop_info->has_call = 1;
        }
       else if (GET_CODE (insn) == INSN || GET_CODE (insn) == JUMP_INSN)
        {
@@ -2441,16 +2469,18 @@ prescan_loop (start, end)
          rtx label2 = NULL_RTX;
 
          if (volatile_refs_p (PATTERN (insn)))
-           loop_has_volatile = 1;
+           loop_info->has_volatile = 1;
 
          if (GET_CODE (insn) == JUMP_INSN
              && (GET_CODE (PATTERN (insn)) == ADDR_DIFF_VEC
                  || GET_CODE (PATTERN (insn)) == ADDR_VEC))
-           loop_has_tablejump = 1;
+           loop_info->has_tablejump = 1;
          
          note_stores (PATTERN (insn), note_addr_stored);
+         if (! first_loop_store_insn && loop_store_mems)
+           first_loop_store_insn = insn;
 
-         if (! loop_has_multiple_exit_targets
+         if (! loop_info->has_multiple_exit_targets
              && GET_CODE (insn) == JUMP_INSN
              && GET_CODE (PATTERN (insn)) == SET
              && SET_DEST (PATTERN (insn)) == pc_rtx)
@@ -2471,14 +2501,14 @@ prescan_loop (start, end)
                    if (GET_CODE (label1) != LABEL_REF)
                      {
                        /* Something tricky.  */
-                       loop_has_multiple_exit_targets = 1;
+                       loop_info->has_multiple_exit_targets = 1;
                        break;
                      }
                    else if (XEXP (label1, 0) != exit_target
                             && LABEL_OUTSIDE_LOOP_P (label1))
                      {
                        /* A jump outside the current loop.  */
-                       loop_has_multiple_exit_targets = 1;
+                       loop_info->has_multiple_exit_targets = 1;
                        break;
                      }
                  }
@@ -2489,7 +2519,7 @@ prescan_loop (start, end)
            }
        }
       else if (GET_CODE (insn) == RETURN)
-       loop_has_multiple_exit_targets = 1;
+       loop_info->has_multiple_exit_targets = 1;
     }
 
   /* Now, rescan the loop, setting up the LOOP_MEMS array.  */
@@ -2497,7 +2527,7 @@ prescan_loop (start, end)
       !unknown_address_altered 
       /* An exception thrown by a called function might land us
         anywhere.  */
-      && !loop_has_call
+      && !loop_info->has_call
       /* We don't want loads for MEMs moved to a location before the
         one at which their stack memory becomes allocated.  (Note
         that this is not a problem for malloc, etc., since those
@@ -2505,12 +2535,66 @@ prescan_loop (start, end)
       && !current_function_calls_alloca
       /* There are ways to leave the loop other than falling off the
         end.  */
-      && !loop_has_multiple_exit_targets)
+      && !loop_info->has_multiple_exit_targets)
     for (insn = NEXT_INSN (start); insn != NEXT_INSN (end);
         insn = NEXT_INSN (insn))
       for_each_rtx (&insn, insert_loop_mem, 0);
 }
 \f
+/* LOOP_NUMBER_CONT_DOMINATOR is now the last label between the loop start
+   and the continue note that is a the destination of a (cond)jump after
+   the continue note.  If there is any (cond)jump between the loop start
+   and what we have so far as LOOP_NUMBER_CONT_DOMINATOR that has a
+   target between LOOP_DOMINATOR and the continue note, move
+   LOOP_NUMBER_CONT_DOMINATOR forward to that label; if a jump's
+   destination cannot be determined, clear LOOP_NUMBER_CONT_DOMINATOR.  */
+
+static void
+verify_dominator (loop_number)
+     int loop_number;
+{
+  rtx insn;
+
+  if (! loop_number_cont_dominator[loop_number])
+    /* This can happen for an empty loop, e.g. in
+       gcc.c-torture/compile/920410-2.c  */
+    return;
+  if (loop_number_cont_dominator[loop_number] == const0_rtx)
+    {
+      loop_number_cont_dominator[loop_number] = 0;
+      return;
+    }
+  for (insn = loop_number_loop_starts[loop_number];
+       insn != loop_number_cont_dominator[loop_number];
+       insn = NEXT_INSN (insn))
+    {
+      if (GET_CODE (insn) == JUMP_INSN
+         && GET_CODE (PATTERN (insn)) != RETURN)
+       {
+         rtx label = JUMP_LABEL (insn);
+         int label_luid;
+
+         /* If it is not a jump we can easily understand or for
+            which we do not have jump target information in the JUMP_LABEL
+            field (consider ADDR_VEC and ADDR_DIFF_VEC insns), then clear
+            LOOP_NUMBER_CONT_DOMINATOR.  */
+         if ((! condjump_p (insn)
+              && ! condjump_in_parallel_p (insn))
+             || label == NULL_RTX)
+           {
+             loop_number_cont_dominator[loop_number] = NULL_RTX;
+             return;
+           }
+
+         label_luid = INSN_LUID (label);
+         if (label_luid < INSN_LUID (loop_number_loop_cont[loop_number])
+             && (label_luid
+                 > INSN_LUID (loop_number_cont_dominator[loop_number])))
+           loop_number_cont_dominator[loop_number] = label;
+       }
+    }
+}
+
 /* Scan the function looking for loops.  Record the start and end of each loop.
    Also mark as invalid loops any loops that contain a setjmp or are branched
    to from outside the loop.  */
@@ -2524,6 +2608,8 @@ find_and_verify_loops (f)
   int next_loop = -1;
   int loop;
 
+  compute_luids (f, NULL_RTX, 0);
+
   /* If there are jumps to undefined labels,
      treat them as jumps out of any/all loops.
      This also avoids writing past end of tables when there are no loops.  */
@@ -2540,6 +2626,8 @@ find_and_verify_loops (f)
          case NOTE_INSN_LOOP_BEG:
            loop_number_loop_starts[++next_loop] =  insn;
            loop_number_loop_ends[next_loop] = 0;
+           loop_number_loop_cont[next_loop] = 0;
+           loop_number_cont_dominator[next_loop] = 0;
            loop_outer_loop[next_loop] = current_loop;
            loop_invalid[next_loop] = 0;
            loop_number_exit_labels[next_loop] = 0;
@@ -2560,17 +2648,63 @@ find_and_verify_loops (f)
              }
            break;
 
+         case NOTE_INSN_LOOP_CONT:
+           loop_number_loop_cont[current_loop] = insn;
+           break;
          case NOTE_INSN_LOOP_END:
            if (current_loop == -1)
              abort ();
 
            loop_number_loop_ends[current_loop] = insn;
+           verify_dominator (current_loop);
            current_loop = loop_outer_loop[current_loop];
            break;
 
          default:
            break;
          }
+      /* If for any loop, this is a jump insn between the NOTE_INSN_LOOP_CONT
+        and NOTE_INSN_LOOP_END notes, update loop_number_loop_dominator.  */
+      else if (GET_CODE (insn) == JUMP_INSN
+              && GET_CODE (PATTERN (insn)) != RETURN
+              && current_loop >= 0)
+       {
+         int this_loop_num;
+         rtx label = JUMP_LABEL (insn);
+
+         if (! condjump_p (insn) && ! condjump_in_parallel_p (insn))
+           label = NULL_RTX;
+
+         this_loop_num = current_loop;
+         do
+           {
+             /* First see if we care about this loop.  */
+             if (loop_number_loop_cont[this_loop_num]
+                 && loop_number_cont_dominator[this_loop_num] != const0_rtx)
+               {
+                 /* If the jump destination is not known, invalidate
+                    loop_number_const_dominator.  */
+                 if (! label)
+                   loop_number_cont_dominator[this_loop_num] = const0_rtx;
+                 else
+                   /* Check if the destination is between loop start and
+                      cont.  */
+                   if ((INSN_LUID (label)
+                        < INSN_LUID (loop_number_loop_cont[this_loop_num]))
+                       && (INSN_LUID (label)
+                           > INSN_LUID (loop_number_loop_starts[this_loop_num]))
+                       /* And if there is no later destination already
+                          recorded.  */
+                       && (! loop_number_cont_dominator[this_loop_num]
+                           || (INSN_LUID (label)
+                               > INSN_LUID (loop_number_cont_dominator
+                                            [this_loop_num]))))
+                     loop_number_cont_dominator[this_loop_num] = label;
+               }
+             this_loop_num = loop_outer_loop[this_loop_num];
+           }
+         while (this_loop_num >= 0);
+       }
 
       /* Note that this will mark the NOTE_INSN_LOOP_END note as being in the
         enclosing loop, but this doesn't matter.  */
@@ -2650,6 +2784,7 @@ find_and_verify_loops (f)
          {
            rtx p;
            rtx our_next = next_real_insn (insn);
+           rtx last_insn_to_move = NEXT_INSN (insn);
            int dest_loop;
            int outer_loop = -1;
 
@@ -2701,21 +2836,39 @@ find_and_verify_loops (f)
                && INSN_UID (JUMP_LABEL (p)) != 0
                && condjump_p (p)
                && ! simplejump_p (p)
-               && next_real_insn (JUMP_LABEL (p)) == our_next)
+               && next_real_insn (JUMP_LABEL (p)) == our_next
+               /* If it's not safe to move the sequence, then we
+                  mustn't try.  */
+               && insns_safe_to_move_p (p, NEXT_INSN (insn), 
+                                        &last_insn_to_move))
              {
                rtx target
                  = JUMP_LABEL (insn) ? JUMP_LABEL (insn) : get_last_insn ();
                int target_loop_num = uid_loop_num[INSN_UID (target)];
-               rtx loc;
+               rtx loc, loc2;
 
                for (loc = target; loc; loc = PREV_INSN (loc))
                  if (GET_CODE (loc) == BARRIER
+                     /* Don't move things inside a tablejump.  */
+                     && ((loc2 = next_nonnote_insn (loc)) == 0
+                         || GET_CODE (loc2) != CODE_LABEL
+                         || (loc2 = next_nonnote_insn (loc2)) == 0
+                         || GET_CODE (loc2) != JUMP_INSN
+                         || (GET_CODE (PATTERN (loc2)) != ADDR_VEC
+                             && GET_CODE (PATTERN (loc2)) != ADDR_DIFF_VEC))
                      && uid_loop_num[INSN_UID (loc)] == target_loop_num)
                    break;
 
                if (loc == 0)
                  for (loc = target; loc; loc = NEXT_INSN (loc))
                    if (GET_CODE (loc) == BARRIER
+                       /* Don't move things inside a tablejump.  */
+                       && ((loc2 = next_nonnote_insn (loc)) == 0
+                           || GET_CODE (loc2) != CODE_LABEL
+                           || (loc2 = next_nonnote_insn (loc2)) == 0
+                           || GET_CODE (loc2) != JUMP_INSN
+                           || (GET_CODE (PATTERN (loc2)) != ADDR_VEC
+                               && GET_CODE (PATTERN (loc2)) != ADDR_DIFF_VEC))
                        && uid_loop_num[INSN_UID (loc)] == target_loop_num)
                      break;
 
@@ -2756,11 +2909,13 @@ find_and_verify_loops (f)
 
                       /* Include the BARRIER after INSN and copy the
                          block after LOC.  */
-                      new_label = squeeze_notes (new_label, NEXT_INSN (insn));
-                      reorder_insns (new_label, NEXT_INSN (insn), loc);
+                      new_label = squeeze_notes (new_label, 
+                                                 last_insn_to_move);
+                      reorder_insns (new_label, last_insn_to_move, loc);
 
                       /* All those insns are now in TARGET_LOOP_NUM.  */
-                      for (q = new_label; q != NEXT_INSN (NEXT_INSN (insn));
+                      for (q = new_label; 
+                           q != NEXT_INSN (last_insn_to_move);
                            q = NEXT_INSN (q))
                         uid_loop_num[INSN_UID (q)] = target_loop_num;
 
@@ -2866,6 +3021,11 @@ mark_loop_jump (x, loop_num)
       mark_loop_jump (XEXP (x, 1), loop_num);
       return;
 
+    case LO_SUM:
+      /* This may refer to a LABEL_REF or SYMBOL_REF.  */
+      mark_loop_jump (XEXP (x, 1), loop_num);
+      return;
+
     case SIGN_EXTEND:
     case ZERO_EXTEND:
       mark_loop_jump (XEXP (x, 0), loop_num);
@@ -2953,21 +3113,21 @@ mark_loop_jump (x, loop_num)
       return;
 
     default:
-      /* Treat anything else (such as a symbol_ref)
-        as a branch out of this loop, but not into any loop.  */
-
+      /* Strictly speaking this is not a jump into the loop, only a possible
+        jump out of the loop.  However, we have no way to link the destination
+        of this jump onto the list of exit labels.  To be safe we mark this
+        loop and any containing loops as invalid.  */
       if (loop_num != -1)
        {
-#ifdef HAVE_decrement_and_branch_on_count
-         LABEL_OUTSIDE_LOOP_P (x) = 1;
-         LABEL_NEXTREF (x) = loop_number_exit_labels[loop_num];
-#endif  /* HAVE_decrement_and_branch_on_count */
-
-         loop_number_exit_labels[loop_num] = x;
-
          for (outer_loop = loop_num; outer_loop != -1;
               outer_loop = loop_outer_loop[outer_loop])
-           loop_number_exit_count[outer_loop]++;
+           {
+             if (loop_dump_stream && ! loop_invalid[outer_loop])
+               fprintf (loop_dump_stream,
+                        "\nLoop at %d ignored due to unknown exit jump.\n",
+                        INSN_UID (loop_number_loop_starts[outer_loop]));
+             loop_invalid[outer_loop] = 1;
+           }
        }
       return;
     }
@@ -3000,8 +3160,6 @@ note_addr_stored (x, y)
      rtx x;
      rtx y ATTRIBUTE_UNUSED;
 {
-  register int i;
-
   if (x == 0 || GET_CODE (x) != MEM)
     return;
 
@@ -3016,23 +3174,37 @@ note_addr_stored (x, y)
   if (unknown_address_altered)
     return;
 
-  for (i = 0; i < loop_store_mems_idx; i++)
-    if (rtx_equal_p (XEXP (loop_store_mems[i], 0), XEXP (x, 0))
-       && MEM_IN_STRUCT_P (x) == MEM_IN_STRUCT_P (loop_store_mems[i]))
-      {
-       /* We are storing at the same address as previously noted.  Save the
-          wider reference.  */
-       if (GET_MODE_SIZE (GET_MODE (x))
-           > GET_MODE_SIZE (GET_MODE (loop_store_mems[i])))
-         loop_store_mems[i] = x;
-       break;
-      }
+  loop_store_mems = gen_rtx_EXPR_LIST (VOIDmode, x, loop_store_mems);
+}
 
-  if (i == NUM_STORES)
-    unknown_address_altered = 1;
+/* X is a value modified by an INSN that references a biv inside a loop
+   exit test (ie, X is somehow related to the value of the biv).  If X
+   is a pseudo that is used more than once, then the biv is (effectively)
+   used more than once.  */
+
+static void
+note_set_pseudo_multiple_uses (x, y)
+     rtx x;
+     rtx y ATTRIBUTE_UNUSED;
+{
+  if (x == 0)
+    return;
+
+  while (GET_CODE (x) == STRICT_LOW_PART
+        || GET_CODE (x) == SIGN_EXTRACT
+        || GET_CODE (x) == ZERO_EXTRACT
+        || GET_CODE (x) == SUBREG)
+    x = XEXP (x, 0);
+
+  if (GET_CODE (x) != REG || REGNO (x) < FIRST_PSEUDO_REGISTER)
+    return;
 
-  else if (i == loop_store_mems_idx)
-    loop_store_mems[loop_store_mems_idx++] = x;
+  /* If we do not have usage information, or if we know the register
+     is used more than once, note that fact for check_dbra_loop.  */
+  if (REGNO (x) >= max_reg_before_loop
+      || ! VARRAY_RTX (reg_single_usage, REGNO (x))
+      || VARRAY_RTX (reg_single_usage, REGNO (x)) == const0_rtx)
+    note_set_pseudo_multiple_uses_retval = 1;
 }
 \f
 /* Return nonzero if the rtx X is invariant over the current loop.
@@ -3049,8 +3221,9 @@ invariant_p (x)
 {
   register int i;
   register enum rtx_code code;
-  register char *fmt;
+  register const char *fmt;
   int conditional = 0;
+  rtx mem_list_entry;
 
   if (x == 0)
     return 1;
@@ -3092,14 +3265,14 @@ invariant_p (x)
          && ! current_function_has_nonlocal_goto)
        return 1;
 
-      if (loop_has_call
+      if (this_loop_info.has_call
          && REGNO (x) < FIRST_PSEUDO_REGISTER && call_used_regs[REGNO (x)])
        return 0;
 
-      if (VARRAY_INT (n_times_set, REGNO (x)) < 0)
+      if (VARRAY_INT (set_in_loop, REGNO (x)) < 0)
        return 2;
 
-      return VARRAY_INT (n_times_set, REGNO (x)) == 0;
+      return VARRAY_INT (set_in_loop, REGNO (x)) == 0;
 
     case MEM:
       /* Volatile memory references must be rejected.  Do this before
@@ -3113,15 +3286,20 @@ invariant_p (x)
       if (RTX_UNCHANGING_P (x))
        break;
 
-      /* If we filled the table (or had a subroutine call), any location
-        in memory could have been clobbered.  */
+      /* If we had a subroutine call, any location in memory could have been
+        clobbered.  */
       if (unknown_address_altered)
        return 0;
 
       /* See if there is any dependence between a store and this load.  */
-      for (i = loop_store_mems_idx - 1; i >= 0; i--)
-       if (true_dependence (loop_store_mems[i], VOIDmode, x, rtx_varies_p))
-         return 0;
+      mem_list_entry = loop_store_mems;
+      while (mem_list_entry)
+       {
+         if (true_dependence (XEXP (mem_list_entry, 0), VOIDmode,
+                              x, rtx_varies_p))
+           return 0;
+         mem_list_entry = XEXP (mem_list_entry, 1);
+       }
 
       /* It's not invalidated by a store in memory
         but we must still verify the address is invariant.  */
@@ -3187,7 +3365,7 @@ consec_sets_invariant_p (reg, n_sets, insn)
   rtx temp;
   /* Number of sets we have to insist on finding after INSN.  */
   int count = n_sets - 1;
-  int old = VARRAY_INT (n_times_set, regno);
+  int old = VARRAY_INT (set_in_loop, regno);
   int value = 0;
   int this;
 
@@ -3195,7 +3373,7 @@ consec_sets_invariant_p (reg, n_sets, insn)
   if (n_sets == 127)
     return 0;
 
-  VARRAY_INT (n_times_set, regno) = 0;
+  VARRAY_INT (set_in_loop, regno) = 0;
 
   while (count > 0)
     {
@@ -3234,12 +3412,12 @@ consec_sets_invariant_p (reg, n_sets, insn)
        count--;
       else if (code != NOTE)
        {
-         VARRAY_INT (n_times_set, regno) = old;
+         VARRAY_INT (set_in_loop, regno) = old;
          return 0;
        }
     }
 
-  VARRAY_INT (n_times_set, regno) = old;
+  VARRAY_INT (set_in_loop, regno) = old;
   /* If invariant_p ever returned 2, we return 2.  */
   return 1 + (value & 2);
 }
@@ -3288,7 +3466,7 @@ find_single_use_in_loop (insn, x, usage)
      varray_type usage;
 {
   enum rtx_code code = GET_CODE (x);
-  char *fmt = GET_RTX_FORMAT (code);
+  const char *fmt = GET_RTX_FORMAT (code);
   int i, j;
 
   if (code == REG)
@@ -3347,7 +3525,7 @@ count_one_set (insn, x, may_not_move, last_set)
             in current basic block, and it was set before,
             it must be set in two basic blocks, so it cannot
             be moved out of the loop.  */
-         if (VARRAY_INT (n_times_set, regno) > 0 
+         if (VARRAY_INT (set_in_loop, regno) > 0 
              && last_set[regno] == 0)
            VARRAY_CHAR (may_not_move, regno) = 1;
          /* If this is not first setting in current basic block,
@@ -3356,16 +3534,16 @@ count_one_set (insn, x, may_not_move, last_set)
          if (last_set[regno] != 0
              && reg_used_between_p (dest, last_set[regno], insn))
            VARRAY_CHAR (may_not_move, regno) = 1;
-         if (VARRAY_INT (n_times_set, regno) < 127)
-           ++VARRAY_INT (n_times_set, regno);
+         if (VARRAY_INT (set_in_loop, regno) < 127)
+           ++VARRAY_INT (set_in_loop, regno);
          last_set[regno] = insn;
        }
     }
 }
 
-/* Increment N_TIMES_SET at the index of each register
+/* Increment SET_IN_LOOP at the index of each register
    that is modified by an insn between FROM and TO.
-   If the value of an element of N_TIMES_SET becomes 127 or more,
+   If the value of an element of SET_IN_LOOP becomes 127 or more,
    stop incrementing it, to avoid overflow.
 
    Store in SINGLE_USAGE[I] the single insn in which register I is
@@ -3398,15 +3576,12 @@ count_loop_regs_set (from, to, may_not_move, single_usage, count_ptr, nregs)
        {
          ++count;
 
-         /* If requested, record registers that have exactly one use.  */
-         if (single_usage)
-           {
-             find_single_use_in_loop (insn, PATTERN (insn), single_usage);
+         /* Record registers that have exactly one use.  */
+         find_single_use_in_loop (insn, PATTERN (insn), single_usage);
 
-             /* Include uses in REG_EQUAL notes.  */
-             if (REG_NOTES (insn))
-               find_single_use_in_loop (insn, REG_NOTES (insn), single_usage);
-           }
+         /* Include uses in REG_EQUAL notes.  */
+         if (REG_NOTES (insn))
+           find_single_use_in_loop (insn, REG_NOTES (insn), single_usage);
 
          if (GET_CODE (PATTERN (insn)) == SET
              || GET_CODE (PATTERN (insn)) == CLOBBER)
@@ -3469,13 +3644,13 @@ loop_reg_used_before_p (set, insn, loop_start, scan_start, loop_end)
 /* Indexed by register number, indicates whether or not register is an
    induction variable, and if so what type.  */
 
-enum iv_mode *reg_iv_type;
+varray_type reg_iv_type;
 
 /* Indexed by register number, contains pointer to `struct induction'
    if register is an induction variable.  This holds general info for
    all induction variables.  */
 
-struct induction **reg_iv_info;
+varray_type reg_iv_info;
 
 /* Indexed by register number, contains pointer to `struct iv_class'
    if register is a basic induction variable.  This holds info describing
@@ -3489,6 +3664,11 @@ struct iv_class **reg_biv_class;
 
 struct iv_class *loop_iv_list;
 
+/* Givs made from biv increments are always splittable for loop unrolling.
+   Since there is no regscan info for them, we have to keep track of them
+   separately.  */
+int first_increment_giv, last_increment_giv;
+
 /* Communication with routines called via `note_stores'.  */
 
 static rtx note_insn;
@@ -3535,17 +3715,20 @@ static rtx addr_placeholder;
    SCAN_START is the first instruction in the loop, as the loop would
    actually be executed.  END is the NOTE_INSN_LOOP_END.  LOOP_TOP is
    the first instruction in the loop, as it is layed out in the
-   instruction stream.  LOOP_START is the NOTE_INSN_LOOP_BEG.  */
+   instruction stream.  LOOP_START is the NOTE_INSN_LOOP_BEG.
+   LOOP_CONT is the NOTE_INSN_LOOP_CONT.  */
 
 static void
 strength_reduce (scan_start, end, loop_top, insn_count,
-                loop_start, loop_end, unroll_p, bct_p)
+                loop_start, loop_end, loop_info, loop_cont, unroll_p, bct_p)
      rtx scan_start;
      rtx end;
      rtx loop_top;
      int insn_count;
      rtx loop_start;
      rtx loop_end;
+     struct loop_info *loop_info;
+     rtx loop_cont;
      int unroll_p, bct_p ATTRIBUTE_UNUSED;
 {
   rtx p;
@@ -3553,12 +3736,16 @@ strength_reduce (scan_start, end, loop_top, insn_count,
   rtx inc_val;
   rtx mult_val;
   rtx dest_reg;
+  rtx *location;
   /* This is 1 if current insn is not executed at least once for every loop
      iteration.  */
   int not_every_iteration = 0;
   /* This is 1 if current insn may be executed more than once for every
      loop iteration.  */
   int maybe_multiple = 0;
+  /* This is 1 if we have past a branch back to the top of the loop
+     (aka a loop latch).  */
+  int past_loop_latch = 0;
   /* Temporary list pointers for traversing loop_iv_list.  */
   struct iv_class *bl, **backbl;
   /* Ratio of extra register life span we can justify
@@ -3566,21 +3753,24 @@ strength_reduce (scan_start, end, loop_top, insn_count,
      since in that case saving an insn makes more difference
      and more registers are available.  */
   /* ??? could set this to last value of threshold in move_movables */
-  int threshold = (loop_has_call ? 1 : 2) * (3 + n_non_fixed_regs);
+  int threshold = (loop_info->has_call ? 1 : 2) * (3 + n_non_fixed_regs);
   /* Map of pseudo-register replacements.  */
   rtx *reg_map;
+  int reg_map_size;
   int call_seen;
   rtx test;
   rtx end_insert_before;
   int loop_depth = 0;
+  int n_extra_increment;
+  int unrolled_insn_copies = 0;
 
-  reg_iv_type = (enum iv_mode *) alloca (max_reg_before_loop
-                                        * sizeof (enum iv_mode));
-  bzero ((char *) reg_iv_type, max_reg_before_loop * sizeof (enum iv_mode));
-  reg_iv_info = (struct induction **)
-    alloca (max_reg_before_loop * sizeof (struct induction *));
-  bzero ((char *) reg_iv_info, (max_reg_before_loop
-                               * sizeof (struct induction *)));
+  /* If scan_start points to the loop exit test, we have to be wary of
+     subversive use of gotos inside expression statements.  */
+  if (prev_nonnote_insn (scan_start) != prev_nonnote_insn (loop_start))
+    maybe_multiple = back_branch_in_range_p (scan_start, loop_start, loop_end);
+
+  VARRAY_INT_INIT (reg_iv_type, max_reg_before_loop, "reg_iv_type");
+  VARRAY_GENERIC_PTR_INIT (reg_iv_info, max_reg_before_loop, "reg_iv_info");
   reg_biv_class = (struct iv_class **)
     alloca (max_reg_before_loop * sizeof (struct iv_class *));
   bzero ((char *) reg_biv_class, (max_reg_before_loop
@@ -3614,10 +3804,11 @@ strength_reduce (scan_start, end, loop_top, insn_count,
          dest_reg = SET_DEST (set);
          if (REGNO (dest_reg) < max_reg_before_loop
              && REGNO (dest_reg) >= FIRST_PSEUDO_REGISTER
-             && reg_iv_type[REGNO (dest_reg)] != NOT_BASIC_INDUCT)
+             && REG_IV_TYPE (REGNO (dest_reg)) != NOT_BASIC_INDUCT)
            {
              if (basic_induction_var (SET_SRC (set), GET_MODE (SET_SRC (set)),
-                                      dest_reg, p, &inc_val, &mult_val))
+                                      dest_reg, p, &inc_val, &mult_val,
+                                      &location))
                {
                  /* It is a possible basic induction variable.
                     Create and initialize an induction structure for it.  */
@@ -3625,20 +3816,20 @@ strength_reduce (scan_start, end, loop_top, insn_count,
                  struct induction *v
                    = (struct induction *) alloca (sizeof (struct induction));
 
-                 record_biv (v, p, dest_reg, inc_val, mult_val,
+                 record_biv (v, p, dest_reg, inc_val, mult_val, location,
                              not_every_iteration, maybe_multiple);
-                 reg_iv_type[REGNO (dest_reg)] = BASIC_INDUCT;
+                 REG_IV_TYPE (REGNO (dest_reg)) = BASIC_INDUCT;
                }
              else if (REGNO (dest_reg) < max_reg_before_loop)
-               reg_iv_type[REGNO (dest_reg)] = NOT_BASIC_INDUCT;
+               REG_IV_TYPE (REGNO (dest_reg)) = NOT_BASIC_INDUCT;
            }
        }
 
       /* Past CODE_LABEL, we get to insns that may be executed multiple
         times.  The only way we can be sure that they can't is if every
         jump insn between here and the end of the loop either
-        returns, exits the loop, is a forward jump, or is a jump
-        to the loop start.  */
+        returns, exits the loop, is a jump to a location that is still
+        behind the label, or is a jump to the loop start.  */
 
       if (GET_CODE (p) == CODE_LABEL)
        {
@@ -3666,10 +3857,7 @@ strength_reduce (scan_start, end, loop_top, insn_count,
                  && (! condjump_p (insn)
                      || (JUMP_LABEL (insn) != 0
                          && JUMP_LABEL (insn) != scan_start
-                         && (INSN_UID (JUMP_LABEL (insn)) >= max_uid_for_loop
-                             || INSN_UID (insn) >= max_uid_for_loop
-                             || (INSN_LUID (JUMP_LABEL (insn))
-                                 < INSN_LUID (insn))))))
+                         && ! loop_insn_first_p (p, JUMP_LABEL (insn)))))
                {
                  maybe_multiple = 1;
                  break;
@@ -3710,8 +3898,13 @@ strength_reduce (scan_start, end, loop_top, insn_count,
        {
          /* At the virtual top of a converted loop, insns are again known to
             be executed each iteration: logically, the loop begins here
-            even though the exit code has been duplicated.  */
-         if (NOTE_LINE_NUMBER (p) == NOTE_INSN_LOOP_VTOP && loop_depth == 0)
+            even though the exit code has been duplicated.
+
+            Insns are also again known to be executed each iteration at
+            the LOOP_CONT note.  */
+         if ((NOTE_LINE_NUMBER (p) == NOTE_INSN_LOOP_VTOP
+              || NOTE_LINE_NUMBER (p) == NOTE_INSN_LOOP_CONT)
+             && loop_depth == 0)
            not_every_iteration = 0;
          else if (NOTE_LINE_NUMBER (p) == NOTE_INSN_LOOP_BEG)
            loop_depth++;
@@ -3719,17 +3912,32 @@ strength_reduce (scan_start, end, loop_top, insn_count,
            loop_depth--;
        }
 
+      /* Note if we pass a loop latch.  If we do, then we can not clear
+        NOT_EVERY_ITERATION below when we pass the last CODE_LABEL in
+        a loop since a jump before the last CODE_LABEL may have started
+        a new loop iteration.
+
+        Note that LOOP_TOP is only set for rotated loops and we need
+        this check for all loops, so compare against the CODE_LABEL
+        which immediately follows LOOP_START.  */
+      if (GET_CODE (p) == JUMP_INSN && JUMP_LABEL (p) == NEXT_INSN (loop_start))
+       past_loop_latch = 1;
+
       /* Unlike in the code motion pass where MAYBE_NEVER indicates that
         an insn may never be executed, NOT_EVERY_ITERATION indicates whether
         or not an insn is known to be executed each iteration of the
         loop, whether or not any iterations are known to occur.
 
         Therefore, if we have just passed a label and have no more labels
-        between here and the test insn of the loop, we know these insns
-        will be executed each iteration.  */
-
-      if (not_every_iteration && GET_CODE (p) == CODE_LABEL
-         && no_labels_between_p (p, loop_end))
+        between here and the test insn of the loop, and we have not passed
+        a jump to the top of the loop, then we know these insns will be
+        executed each iteration.  */
+
+      if (not_every_iteration 
+         && ! past_loop_latch
+         && GET_CODE (p) == CODE_LABEL
+         && no_labels_between_p (p, loop_end)
+         && loop_insn_first_p (p, loop_cont))
        not_every_iteration = 0;
     }
 
@@ -3737,7 +3945,7 @@ strength_reduce (scan_start, end, loop_top, insn_count,
      Make a sanity check against n_times_set.  */
   for (backbl = &loop_iv_list, bl = *backbl; bl; bl = bl->next)
     {
-      if (reg_iv_type[bl->regno] != BASIC_INDUCT
+      if (REG_IV_TYPE (bl->regno) != BASIC_INDUCT
          /* Above happens if register modified by subreg, etc.  */
          /* Make sure it is not recognized as a basic induction var: */
          || VARRAY_INT (n_times_set, bl->regno) != bl->biv_count
@@ -3748,12 +3956,12 @@ strength_reduce (scan_start, end, loop_top, insn_count,
          if (loop_dump_stream)
            fprintf (loop_dump_stream, "Reg %d: biv discarded, %s\n",
                     bl->regno,
-                    (reg_iv_type[bl->regno] != BASIC_INDUCT
+                    (REG_IV_TYPE (bl->regno) != BASIC_INDUCT
                      ? "not induction variable"
                      : (! bl->incremented ? "never incremented"
                         : "count error")));
          
-         reg_iv_type[bl->regno] = NOT_BASIC_INDUCT;
+         REG_IV_TYPE (bl->regno) = NOT_BASIC_INDUCT;
          *backbl = bl->next;
        }
       else
@@ -3771,9 +3979,10 @@ strength_reduce (scan_start, end, loop_top, insn_count,
       /* Can still unroll the loop anyways, but indicate that there is no
         strength reduction info available.  */
       if (unroll_p)
-       unroll_loop (loop_end, insn_count, loop_start, end_insert_before, 0);
+       unroll_loop (loop_end, insn_count, loop_start, end_insert_before,
+                    loop_info, 0);
 
-      return;
+      goto egress;
     }
 
   /* Find initial value for each biv by searching backwards from loop_start,
@@ -3819,7 +4028,7 @@ strength_reduce (scan_start, end, loop_top, insn_count,
   /* Look at the each biv and see if we can say anything better about its
      initial value from any initializing insns set up above.  (This is done
      in two passes to avoid missing SETs in a PARALLEL.)  */
-  for (bl = loop_iv_list; bl; bl = bl->next)
+  for (backbl = &loop_iv_list; (bl = *backbl); backbl = &bl->next)
     {
       rtx src;
       rtx note;
@@ -3864,14 +4073,362 @@ strength_reduce (scan_start, end, loop_top, insn_count,
        }
       else
        {
-         /* Biv initial value is not simple move,
-            so let it keep initial value of "itself".  */
+         struct iv_class *bl2 = 0;
+         rtx increment = NULL_RTX;
+
+         /* Biv initial value is not a simple move.  If it is the sum of
+            another biv and a constant, check if both bivs are incremented
+            in lockstep.  Then we are actually looking at a giv.
+            For simplicity, we only handle the case where there is but a
+            single increment, and the register is not used elsewhere.  */
+         if (bl->biv_count == 1
+             && bl->regno < max_reg_before_loop
+             && uid_luid[REGNO_LAST_UID (bl->regno)] < INSN_LUID (loop_end)
+             && GET_CODE (src) == PLUS
+             && GET_CODE (XEXP (src, 0)) == REG
+             && CONSTANT_P (XEXP (src, 1))
+             && ((increment = biv_total_increment (bl, loop_start, loop_end))
+                 != NULL_RTX))
+           {
+             int regno = REGNO (XEXP (src, 0));
 
-         if (loop_dump_stream)
+             for (bl2 = loop_iv_list; bl2; bl2 = bl2->next)
+               if (bl2->regno == regno)
+                 break;
+           }
+       
+         /* Now, can we transform this biv into a giv?  */
+         if (bl2
+             && bl2->biv_count == 1
+             && rtx_equal_p (increment,
+                             biv_total_increment (bl2, loop_start, loop_end))
+             /* init_insn is only set to insns that are before loop_start
+                without any intervening labels.  */
+             && ! reg_set_between_p (bl2->biv->src_reg,
+                                     PREV_INSN (bl->init_insn), loop_start)
+             /* The register from BL2 must be set before the register from
+                BL is set, or we must be able to move the latter set after
+                the former set.  Currently there can't be any labels
+                in-between when biv_total_increment returns nonzero both times
+                but we test it here in case some day some real cfg analysis
+                gets used to set always_computable.  */
+             && (loop_insn_first_p (bl2->biv->insn, bl->biv->insn)
+                 ? no_labels_between_p (bl2->biv->insn, bl->biv->insn)
+                 : (! reg_used_between_p (bl->biv->src_reg, bl->biv->insn,
+                                          bl2->biv->insn)
+                    && no_jumps_between_p (bl->biv->insn, bl2->biv->insn)))
+             && validate_change (bl->biv->insn,
+                                 &SET_SRC (single_set (bl->biv->insn)),
+                                 copy_rtx (src), 0))
+           {
+             int loop_num = uid_loop_num[INSN_UID (loop_start)];
+             rtx dominator = loop_number_cont_dominator[loop_num];
+             rtx giv = bl->biv->src_reg;
+             rtx giv_insn = bl->biv->insn;
+             rtx after_giv = NEXT_INSN (giv_insn);
+
+             if (loop_dump_stream)
+               fprintf (loop_dump_stream, "is giv of biv %d\n", bl2->regno);
+             /* Let this giv be discovered by the generic code.  */
+             REG_IV_TYPE (bl->regno) = UNKNOWN_INDUCT;
+             reg_biv_class[bl->regno] = NULL_PTR;
+             /* We can get better optimization if we can move the giv setting
+                before the first giv use.  */
+             if (dominator
+                 && ! loop_insn_first_p (dominator, scan_start)
+                 && ! reg_set_between_p (bl2->biv->src_reg, loop_start,
+                                         dominator)
+                 && ! reg_used_between_p (giv, loop_start, dominator)
+                 && ! reg_used_between_p (giv, giv_insn, loop_end))
+               {
+                 rtx p;
+                 rtx next;
+
+                 for (next = NEXT_INSN (dominator); ; next = NEXT_INSN (next))
+                   {
+                     if ((GET_RTX_CLASS (GET_CODE (next)) == 'i'
+                          && (reg_mentioned_p (giv, PATTERN (next))
+                              || reg_set_p (bl2->biv->src_reg, next)))
+                         || GET_CODE (next) == JUMP_INSN)
+                       break;
+#ifdef HAVE_cc0
+                     if (GET_RTX_CLASS (GET_CODE (next)) != 'i'
+                         || ! sets_cc0_p (PATTERN (next)))
+#endif
+                       dominator = next;
+                   }
+                 if (loop_dump_stream)
+                   fprintf (loop_dump_stream, "move after insn %d\n",
+                            INSN_UID (dominator));
+                 /* Avoid problems with luids by actually moving the insn
+                    and adjusting all luids in the range.  */
+                 reorder_insns (giv_insn, giv_insn, dominator);
+                 for (p = dominator; INSN_UID (p) >= max_uid_for_loop; )
+                   p = PREV_INSN (p);
+                 compute_luids (giv_insn, after_giv, INSN_LUID (p));
+                 /* If the only purpose of the init insn is to initialize
+                    this giv, delete it.  */
+                 if (single_set (bl->init_insn)
+                     && ! reg_used_between_p (giv, bl->init_insn, loop_start))
+                   delete_insn (bl->init_insn);
+               }
+             else if (! loop_insn_first_p (bl2->biv->insn, bl->biv->insn))
+               {
+                 rtx p = PREV_INSN (giv_insn);
+                 while (INSN_UID (p) >= max_uid_for_loop)
+                   p = PREV_INSN (p);
+                 reorder_insns (giv_insn, giv_insn, bl2->biv->insn);
+                 compute_luids (after_giv, NEXT_INSN (giv_insn),
+                                INSN_LUID (p));
+               }
+             /* Remove this biv from the chain.  */
+             if (bl->next)
+               {
+                 /* We move the following giv from *bl->next into *bl.
+                    We have to update reg_biv_class for that moved biv
+                    to point to its new address.  */
+                 *bl = *bl->next;
+                 reg_biv_class[bl->regno] = bl;
+               }
+             else
+               {
+                 *backbl = 0;
+                 break;
+               }
+           }
+
+         /* If we can't make it a giv,
+            let biv keep initial value of "itself".  */
+         else if (loop_dump_stream)
            fprintf (loop_dump_stream, "is complex\n");
        }
     }
 
+  /* If a biv is unconditionally incremented several times in a row, convert
+     all but the last increment into a giv.  */
+
+  /* Get an upper bound for the number of registers
+     we might have after all bivs have been processed.  */
+  first_increment_giv = max_reg_num ();
+  for (n_extra_increment = 0, bl = loop_iv_list; bl; bl = bl->next)
+    n_extra_increment += bl->biv_count - 1;
+
+  /* If the loop contains volatile memory references do not allow any
+     replacements to take place, since this could loose the volatile markers.  */
+  if (n_extra_increment  && ! loop_info->has_volatile)
+    {
+      int nregs = first_increment_giv + n_extra_increment;
+
+      /* Reallocate reg_iv_type and reg_iv_info.  */
+      VARRAY_GROW (reg_iv_type, nregs);
+      VARRAY_GROW (reg_iv_info, nregs);
+
+      for (bl = loop_iv_list; bl; bl = bl->next)
+       {
+         struct induction **vp, *v, *next;
+         int biv_dead_after_loop = 0;
+
+         /* The biv increments lists are in reverse order.  Fix this first.  */
+         for (v = bl->biv, bl->biv = 0; v; v = next)
+           {
+             next = v->next_iv;
+             v->next_iv = bl->biv;
+             bl->biv = v;
+           }
+
+         /* We must guard against the case that an early exit between v->insn
+            and next->insn leaves the biv live after the loop, since that
+            would mean that we'd be missing an increment for the final
+            value.  The following test to set biv_dead_after_loop is like
+            the first part of the test to set bl->eliminable.
+            We don't check here if we can calculate the final value, since
+            this can't succeed if we already know that there is a jump
+            between v->insn and next->insn, yet next->always_executed is
+            set and next->maybe_multiple is cleared.  Such a combination
+            implies that the jump destination is outside the loop.
+            If we want to make this check more sophisticated, we should
+            check each branch between v->insn and next->insn individually
+            to see if the biv is dead at its destination.  */
+
+         if (uid_luid[REGNO_LAST_UID (bl->regno)] < INSN_LUID (loop_end)
+             && bl->init_insn
+             && INSN_UID (bl->init_insn) < max_uid_for_loop
+             && (uid_luid[REGNO_FIRST_UID (bl->regno)]
+                 >= INSN_LUID (bl->init_insn))
+#ifdef HAVE_decrement_and_branch_until_zero
+             && ! bl->nonneg
+#endif
+             && ! reg_mentioned_p (bl->biv->dest_reg, SET_SRC (bl->init_set)))
+           biv_dead_after_loop = 1;
+
+         for (vp = &bl->biv, next = *vp; v = next, next = v->next_iv;)
+           {
+             HOST_WIDE_INT offset;
+             rtx set, add_val, old_reg, dest_reg, last_use_insn, note;
+             int old_regno, new_regno;
+
+             if (! v->always_executed
+                 || v->maybe_multiple
+                 || GET_CODE (v->add_val) != CONST_INT
+                 || ! next->always_executed
+                 || next->maybe_multiple
+                 || ! CONSTANT_P (next->add_val)
+                 || v->mult_val != const1_rtx
+                 || next->mult_val != const1_rtx
+                 || ! (biv_dead_after_loop
+                       || no_jumps_between_p (v->insn, next->insn)))
+               {
+                 vp = &v->next_iv;
+                 continue;
+               }
+             offset = INTVAL (v->add_val);
+             set = single_set (v->insn);
+             add_val = plus_constant (next->add_val, offset);
+             old_reg = v->dest_reg;
+             dest_reg = gen_reg_rtx (v->mode);
+    
+             /* Unlike reg_iv_type / reg_iv_info, the other three arrays
+                have been allocated with some slop space, so we may not
+                actually need to reallocate them.  If we do, the following
+                if statement will be executed just once in this loop.  */
+             if ((unsigned) max_reg_num () > n_times_set->num_elements)
+               {
+                 /* Grow all the remaining arrays.  */
+                 VARRAY_GROW (set_in_loop, nregs);
+                 VARRAY_GROW (n_times_set, nregs);
+                 VARRAY_GROW (may_not_optimize, nregs);
+                 VARRAY_GROW (reg_single_usage, nregs);
+               }
+    
+             if (! validate_change (next->insn, next->location, add_val, 0))
+               {
+                 vp = &v->next_iv;
+                 continue;
+               }
+
+             /* Here we can try to eliminate the increment by combining
+                it into the uses.  */
+
+             /* Set last_use_insn so that we can check against it.  */
+
+             for (last_use_insn = v->insn, p = NEXT_INSN (v->insn);
+                  p != next->insn;
+                  p = next_insn_in_loop (p, scan_start, end, loop_top))
+               {
+                 if (GET_RTX_CLASS (GET_CODE (p)) != 'i')
+                   continue;
+                 if (reg_mentioned_p (old_reg, PATTERN (p)))
+                   {
+                     last_use_insn = p;
+                   }
+               }
+
+             /* If we can't get the LUIDs for the insns, we can't
+                calculate the lifetime.  This is likely from unrolling
+                of an inner loop, so there is little point in making this
+                a DEST_REG giv anyways.  */
+             if (INSN_UID (v->insn) >= max_uid_for_loop
+                 || INSN_UID (last_use_insn) >= max_uid_for_loop
+                 || ! validate_change (v->insn, &SET_DEST (set), dest_reg, 0))
+               {
+                 /* Change the increment at NEXT back to what it was.  */
+                 if (! validate_change (next->insn, next->location,
+                     next->add_val, 0))
+                   abort ();
+                 vp = &v->next_iv;
+                 continue;
+               }
+             next->add_val = add_val;
+             v->dest_reg = dest_reg;
+             v->giv_type = DEST_REG;
+             v->location = &SET_SRC (set);
+             v->cant_derive = 0;
+             v->combined_with = 0;
+             v->maybe_dead = 0;
+             v->derive_adjustment = 0;
+             v->same = 0;
+             v->ignore = 0;
+             v->new_reg = 0;
+             v->final_value = 0;
+             v->same_insn = 0;
+             v->auto_inc_opt = 0;
+             v->unrolled = 0;
+             v->shared = 0;
+             v->derived_from = 0;
+             v->always_computable = 1;
+             v->always_executed = 1;
+             v->replaceable = 1;
+             v->no_const_addval = 0;
+    
+             old_regno = REGNO (old_reg);
+             new_regno = REGNO (dest_reg);
+             VARRAY_INT (set_in_loop, old_regno)--;
+             VARRAY_INT (set_in_loop, new_regno) = 1;
+             VARRAY_INT (n_times_set, old_regno)--;
+             VARRAY_INT (n_times_set, new_regno) = 1;
+             VARRAY_CHAR (may_not_optimize, new_regno) = 0;
+    
+             REG_IV_TYPE (new_regno) = GENERAL_INDUCT;
+             REG_IV_INFO (new_regno) = v;
+
+             /* If next_insn has a REG_EQUAL note that mentiones OLD_REG,
+                it must be replaced.  */
+             note = find_reg_note (next->insn, REG_EQUAL, NULL_RTX);
+             if (note && reg_mentioned_p (old_reg, XEXP (note, 0)))
+               XEXP (note, 0) = copy_rtx (SET_SRC (single_set (next->insn)));
+
+             /* Remove the increment from the list of biv increments,
+                and record it as a giv.  */
+             *vp = next;
+             bl->biv_count--;
+             v->next_iv = bl->giv;
+             bl->giv = v;
+             bl->giv_count++;
+             v->benefit = rtx_cost (SET_SRC (set), SET);
+             bl->total_benefit += v->benefit;
+    
+             /* Now replace the biv with DEST_REG in all insns between
+                the replaced increment and the next increment, and
+                remember the last insn that needed a replacement.  */
+             for (last_use_insn = v->insn, p = NEXT_INSN (v->insn);
+                  p != next->insn;
+                  p = next_insn_in_loop (p, scan_start, end, loop_top))
+               {
+                 rtx note;
+    
+                 if (GET_RTX_CLASS (GET_CODE (p)) != 'i')
+                   continue;
+                 if (reg_mentioned_p (old_reg, PATTERN (p)))
+                   {
+                     last_use_insn = p;
+                     if (! validate_replace_rtx (old_reg, dest_reg, p))
+                       abort ();
+                   }
+                 for (note = REG_NOTES (p); note; note = XEXP (note, 1))
+                   {
+                     if (GET_CODE (note) == EXPR_LIST)
+                       XEXP (note, 0)
+                         = replace_rtx (XEXP (note, 0), old_reg, dest_reg);
+                   }
+               }
+    
+             v->last_use = last_use_insn;
+             v->lifetime = INSN_LUID (v->insn) - INSN_LUID (last_use_insn);
+             /* If the lifetime is zero, it means that this register is really
+                a dead store.  So mark this as a giv that can be ignored.
+                This will not prevent the biv from being eliminated.  */
+             if (v->lifetime == 0)
+               v->ignore = 1;
+
+             if (loop_dump_stream)
+               fprintf (loop_dump_stream,
+                        "Increment %d of biv %d converted to giv %d.\n\n",
+                        INSN_UID (v->insn), old_regno, new_regno);
+           }
+       }
+    }
+  last_increment_giv = max_reg_num () - 1;
+
   /* Search the loop for general induction variables.  */
 
   /* A register is a giv if: it is only set once, it is a function of a
@@ -3879,6 +4436,7 @@ strength_reduce (scan_start, end, loop_top, insn_count,
 
   not_every_iteration = 0;
   loop_depth = 0;
+  maybe_multiple = 0;
   p = scan_start;
   while (1)
     {
@@ -3908,6 +4466,7 @@ strength_reduce (scan_start, end, loop_top, insn_count,
          rtx mult_val;
          int benefit;
          rtx regnote = 0;
+         rtx last_consec_insn;
 
          dest_reg = SET_DEST (set);
          if (REGNO (dest_reg) < FIRST_PSEUDO_REGISTER)
@@ -3931,35 +4490,23 @@ strength_reduce (scan_start, end, loop_top, insn_count,
                  /* or all sets must be consecutive and make a giv.  */
                  || (benefit = consec_sets_giv (benefit, p,
                                                 src_reg, dest_reg,
-                                                &add_val, &mult_val))))
+                                                &add_val, &mult_val,
+                                                &last_consec_insn))))
            {
-             int count;
              struct induction *v
                = (struct induction *) alloca (sizeof (struct induction));
-             rtx temp;
 
              /* If this is a library call, increase benefit.  */
              if (find_reg_note (p, REG_RETVAL, NULL_RTX))
                benefit += libcall_benefit (p);
 
              /* Skip the consecutive insns, if there are any.  */
-             for (count = VARRAY_INT (n_times_set, REGNO (dest_reg)) - 1;
-                  count > 0; count--)
-               {
-                 /* If first insn of libcall sequence, skip to end.
-                    Do this at start of loop, since INSN is guaranteed to
-                    be an insn here.  */
-                 if (GET_CODE (p) != NOTE
-                     && (temp = find_reg_note (p, REG_LIBCALL, NULL_RTX)))
-                   p = XEXP (temp, 0);
-
-                 do p = NEXT_INSN (p);
-                 while (GET_CODE (p) == NOTE);
-               }
+             if (VARRAY_INT (n_times_set, REGNO (dest_reg)) != 1)
+               p = last_consec_insn;
 
              record_giv (v, p, src_reg, dest_reg, mult_val, add_val, benefit,
-                         DEST_REG, not_every_iteration, NULL_PTR, loop_start,
-                         loop_end);
+                         DEST_REG, not_every_iteration, maybe_multiple,
+                         NULL_PTR, loop_start, loop_end);
 
            }
        }
@@ -3969,8 +4516,8 @@ strength_reduce (scan_start, end, loop_top, insn_count,
       /* This resulted in worse code on a VAX 8600.  I wonder if it
         still does.  */
       if (GET_CODE (p) == INSN)
-       find_mem_givs (PATTERN (p), p, not_every_iteration, loop_start,
-                      loop_end);
+       find_mem_givs (PATTERN (p), p, not_every_iteration, maybe_multiple,
+                      loop_start, loop_end);
 #endif
 
       /* Update the status of whether giv can derive other givs.  This can
@@ -3979,27 +4526,70 @@ strength_reduce (scan_start, end, loop_top, insn_count,
        || GET_CODE (p) == CODE_LABEL)
        update_giv_derive (p);
 
-      /* Past a jump, we get to insns for which we can't count
-        on whether they will be executed during each iteration.  */
-      /* This code appears twice in strength_reduce.  There is also similar
-        code in scan_loop.  */
-      if (GET_CODE (p) == JUMP_INSN
-         /* If we enter the loop in the middle, and scan around to the
-            beginning, don't set not_every_iteration for that.
-            This can be any kind of jump, since we want to know if insns
-            will be executed if the loop is executed.  */
-         && ! (JUMP_LABEL (p) == loop_top
-               && ((NEXT_INSN (NEXT_INSN (p)) == loop_end && simplejump_p (p))
-                   || (NEXT_INSN (p) == loop_end && condjump_p (p)))))
+      /* Past CODE_LABEL, we get to insns that may be executed multiple
+        times.  The only way we can be sure that they can't is if every
+        every jump insn between here and the end of the loop either
+        returns, exits the loop, is a forward jump, or is a jump
+        to the loop start.  */
+
+      if (GET_CODE (p) == CODE_LABEL)
        {
-         rtx label = 0;
+         rtx insn = p;
 
-         /* If this is a jump outside the loop, then it also doesn't
-            matter.  Check to see if the target of this branch is on the
-            loop_number_exits_labels list.  */
-            
-         for (label = loop_number_exit_labels[uid_loop_num[INSN_UID (loop_start)]];
-              label;
+         maybe_multiple = 0;
+
+         while (1)
+           {
+             insn = NEXT_INSN (insn);
+             if (insn == scan_start)
+               break;
+             if (insn == end)
+               {
+                 if (loop_top != 0)
+                   insn = loop_top;
+                 else
+                   break;
+                 if (insn == scan_start)
+                   break;
+               }
+
+             if (GET_CODE (insn) == JUMP_INSN
+                 && GET_CODE (PATTERN (insn)) != RETURN
+                 && (! condjump_p (insn)
+                     || (JUMP_LABEL (insn) != 0
+                         && JUMP_LABEL (insn) != scan_start
+                         && (INSN_UID (JUMP_LABEL (insn)) >= max_uid_for_loop
+                             || INSN_UID (insn) >= max_uid_for_loop
+                             || (INSN_LUID (JUMP_LABEL (insn))
+                                 < INSN_LUID (insn))))))
+               {
+                 maybe_multiple = 1;
+                 break;
+               }
+           }
+       }
+
+      /* Past a jump, we get to insns for which we can't count
+        on whether they will be executed during each iteration.  */
+      /* This code appears twice in strength_reduce.  There is also similar
+        code in scan_loop.  */
+      if (GET_CODE (p) == JUMP_INSN
+         /* If we enter the loop in the middle, and scan around to the
+            beginning, don't set not_every_iteration for that.
+            This can be any kind of jump, since we want to know if insns
+            will be executed if the loop is executed.  */
+         && ! (JUMP_LABEL (p) == loop_top
+               && ((NEXT_INSN (NEXT_INSN (p)) == loop_end && simplejump_p (p))
+                   || (NEXT_INSN (p) == loop_end && condjump_p (p)))))
+       {
+         rtx label = 0;
+
+         /* If this is a jump outside the loop, then it also doesn't
+            matter.  Check to see if the target of this branch is on the
+            loop_number_exits_labels list.  */
+            
+         for (label = loop_number_exit_labels[uid_loop_num[INSN_UID (loop_start)]];
+              label;
               label = LABEL_NEXTREF (label))
            if (XEXP (label, 0) == JUMP_LABEL (p))
              break;
@@ -4012,8 +4602,13 @@ strength_reduce (scan_start, end, loop_top, insn_count,
        {
          /* At the virtual top of a converted loop, insns are again known to
             be executed each iteration: logically, the loop begins here
-            even though the exit code has been duplicated.  */
-         if (NOTE_LINE_NUMBER (p) == NOTE_INSN_LOOP_VTOP && loop_depth == 0)
+            even though the exit code has been duplicated.
+
+            Insns are also again known to be executed each iteration at
+            the LOOP_CONT note.  */
+         if ((NOTE_LINE_NUMBER (p) == NOTE_INSN_LOOP_VTOP
+              || NOTE_LINE_NUMBER (p) == NOTE_INSN_LOOP_CONT)
+             && loop_depth == 0)
            not_every_iteration = 0;
          else if (NOTE_LINE_NUMBER (p) == NOTE_INSN_LOOP_BEG)
            loop_depth++;
@@ -4031,7 +4626,8 @@ strength_reduce (scan_start, end, loop_top, insn_count,
         will be executed each iteration.  */
 
       if (not_every_iteration && GET_CODE (p) == CODE_LABEL
-         && no_labels_between_p (p, loop_end))
+         && no_labels_between_p (p, loop_end)
+         && loop_insn_first_p (p, loop_cont))
        not_every_iteration = 0;
     }
 
@@ -4040,7 +4636,7 @@ strength_reduce (scan_start, end, loop_top, insn_count,
      be called after all giv's have been identified, since otherwise it may
      fail if the iteration variable is a giv.  */
 
-  loop_n_iterations = loop_iterations (loop_start, loop_end);
+  loop_iterations (loop_start, loop_end, loop_info);
 
   /* Now for each giv for which we still don't know whether or not it is
      replaceable, check to see if it is replaceable because its final value
@@ -4053,17 +4649,20 @@ strength_reduce (scan_start, end, loop_top, insn_count,
 
       for (v = bl->giv; v; v = v->next_iv)
        if (! v->replaceable && ! v->not_replaceable)
-         check_final_value (v, loop_start, loop_end);
+         check_final_value (v, loop_start, loop_end, loop_info->n_iterations);
     }
 
   /* Try to prove that the loop counter variable (if any) is always
      nonnegative; if so, record that fact with a REG_NONNEG note
      so that "decrement and branch until zero" insn can be used.  */
-  check_dbra_loop (loop_end, insn_count, loop_start);
+  check_dbra_loop (loop_end, insn_count, loop_start, loop_info);
 
-  /* Create reg_map to hold substitutions for replaceable giv regs.  */
-  reg_map = (rtx *) alloca (max_reg_before_loop * sizeof (rtx));
-  bzero ((char *) reg_map, max_reg_before_loop * sizeof (rtx));
+  /* Create reg_map to hold substitutions for replaceable giv regs.
+     Some givs might have been made from biv increments, so look at
+     reg_iv_type for a suitable size.  */
+  reg_map_size = reg_iv_type->num_elements;
+  reg_map = (rtx *) alloca (reg_map_size * sizeof (rtx));
+  bzero ((char *) reg_map, reg_map_size * sizeof (rtx));
 
   /* Examine each iv class for feasibility of strength reduction/induction
      variable elimination.  */
@@ -4074,6 +4673,7 @@ strength_reduce (scan_start, end, loop_top, insn_count,
       int benefit;
       int all_reduced;
       rtx final_value = 0;
+      unsigned int nregs;
 
       /* Test whether it will be possible to eliminate this biv
         provided all givs are reduced.  This is possible if either
@@ -4099,7 +4699,8 @@ strength_reduce (scan_start, end, loop_top, insn_count,
           && ! bl->nonneg
 #endif
           && ! reg_mentioned_p (bl->biv->dest_reg, SET_SRC (bl->init_set)))
-         || ((final_value = final_biv_value (bl, loop_start, loop_end))
+         || ((final_value = final_biv_value (bl, loop_start, loop_end, 
+                                             loop_info->n_iterations))
 #ifdef HAVE_decrement_and_branch_until_zero
              && ! bl->nonneg
 #endif
@@ -4223,6 +4824,54 @@ strength_reduce (scan_start, end, loop_top, insn_count,
            }
        }
 
+      /* Check for givs whose first use is their definition and whose
+        last use is the definition of another giv.  If so, it is likely
+        dead and should not be used to derive another giv nor to
+        eliminate a biv.  */
+      for (v = bl->giv; v; v = v->next_iv)
+       {
+         if (v->ignore
+             || (v->same && v->same->ignore))
+           continue;
+
+         if (v->last_use)
+           {
+             struct induction *v1;
+
+             for (v1 = bl->giv; v1; v1 = v1->next_iv)
+               if (v->last_use == v1->insn)
+                 v->maybe_dead = 1;
+           }
+         else if (v->giv_type == DEST_REG
+             && REGNO_FIRST_UID (REGNO (v->dest_reg)) == INSN_UID (v->insn))
+           {
+             struct induction *v1;
+
+             for (v1 = bl->giv; v1; v1 = v1->next_iv)
+               if (REGNO_LAST_UID (REGNO (v->dest_reg)) == INSN_UID (v1->insn))
+                 v->maybe_dead = 1;
+           }
+       }
+
+      /* Now that we know which givs will be reduced, try to rearrange the
+         combinations to reduce register pressure.
+         recombine_givs calls find_life_end, which needs reg_iv_type and
+        reg_iv_info to be valid for all pseudos.  We do the necessary
+        reallocation here since it allows to check if there are still
+        more bivs to process.  */
+      nregs = max_reg_num ();
+      if (nregs > reg_iv_type->num_elements)
+       {
+         /* If there are still more bivs to process, allocate some slack
+            space so that we're not constantly reallocating these arrays.  */
+         if (bl->next)
+           nregs += nregs / 4;
+         /* Reallocate reg_iv_type and reg_iv_info.  */
+         VARRAY_GROW (reg_iv_type, nregs);
+         VARRAY_GROW (reg_iv_info, nregs);
+       }
+      recombine_givs (bl, loop_start, loop_end, unroll_p);
+
       /* Reduce each giv that we decided to reduce.  */
 
       for (v = bl->giv; v; v = v->next_iv)
@@ -4232,7 +4881,49 @@ strength_reduce (scan_start, end, loop_top, insn_count,
            {
              int auto_inc_opt = 0;
 
-             v->new_reg = gen_reg_rtx (v->mode);
+             /* If the code for derived givs immediately below has already
+                allocated a new_reg, we must keep it.  */
+             if (! v->new_reg)
+               v->new_reg = gen_reg_rtx (v->mode);
+
+             if (v->derived_from)
+               {
+                 struct induction *d = v->derived_from;
+
+                 /* In case d->dest_reg is not replaceable, we have
+                    to replace it in v->insn now.  */
+                 if (! d->new_reg)
+                   d->new_reg = gen_reg_rtx (d->mode);
+                 PATTERN (v->insn)
+                   = replace_rtx (PATTERN (v->insn), d->dest_reg, d->new_reg);
+                 PATTERN (v->insn)
+                   = replace_rtx (PATTERN (v->insn), v->dest_reg, v->new_reg);
+                 /* For each place where the biv is incremented, add an
+                    insn to set the new, reduced reg for the giv.
+                    We used to do this only for biv_count != 1, but
+                    this fails when there is a giv after a single biv
+                    increment, e.g. when the last giv was expressed as
+                    pre-decrement.  */
+                 for (tv = bl->biv; tv; tv = tv->next_iv)
+                   {
+                     /* We always emit reduced giv increments before the
+                        biv increment when bl->biv_count != 1.  So by
+                        emitting the add insns for derived givs after the
+                        biv increment, they pick up the updated value of
+                        the reduced giv.
+                        If the reduced giv is processed with
+                        auto_inc_opt == 1, then it is incremented earlier
+                        than the biv, hence we'll still pick up the right
+                        value.
+                        If it's processed with auto_inc_opt == -1,
+                        that implies that the biv increment is before the
+                        first reduced giv's use.  The derived giv's lifetime
+                        is after the reduced giv's lifetime, hence in this
+                        case, the biv increment doesn't matter.  */
+                     emit_insn_after (copy_rtx (PATTERN (v->insn)), tv->insn);
+                   }
+                 continue;
+               }
 
 #ifdef AUTO_INC_DEC
              /* If the target has auto-increment addressing modes, and
@@ -4346,11 +5037,8 @@ strength_reduce (scan_start, end, loop_top, insn_count,
         
         For each giv register that can be reduced now: if replaceable,
         substitute reduced reg wherever the old giv occurs;
-        else add new move insn "giv_reg = reduced_reg".
+        else add new move insn "giv_reg = reduced_reg".  */
 
-        Also check for givs whose first use is their definition and whose
-        last use is the definition of another giv.  If so, it is likely
-        dead and should not be used to eliminate a biv.  */
       for (v = bl->giv; v; v = v->next_iv)
        {
          if (v->same && v->same->ignore)
@@ -4359,16 +5047,6 @@ strength_reduce (scan_start, end, loop_top, insn_count,
          if (v->ignore)
            continue;
 
-         if (v->giv_type == DEST_REG
-             && REGNO_FIRST_UID (REGNO (v->dest_reg)) == INSN_UID (v->insn))
-           {
-             struct induction *v1;
-
-             for (v1 = bl->giv; v1; v1 = v1->next_iv)
-               if (REGNO_LAST_UID (REGNO (v->dest_reg)) == INSN_UID (v1->insn))
-                 v->maybe_dead = 1;
-           }
-
          /* Update expression if this was combined, in case other giv was
             replaced.  */
          if (v->same)
@@ -4552,27 +5230,61 @@ strength_reduce (scan_start, end, loop_top, insn_count,
     if (GET_CODE (p) == INSN || GET_CODE (p) == JUMP_INSN
        || GET_CODE (p) == CALL_INSN)
       {
-       replace_regs (PATTERN (p), reg_map, max_reg_before_loop, 0);
-       replace_regs (REG_NOTES (p), reg_map, max_reg_before_loop, 0);
+       replace_regs (PATTERN (p), reg_map, reg_map_size, 0);
+       replace_regs (REG_NOTES (p), reg_map, reg_map_size, 0);
        INSN_CODE (p) = -1;
       }
 
+  if (loop_info->n_iterations > 0)
+    {
+      /* When we completely unroll a loop we will likely not need the increment
+        of the loop BIV and we will not need the conditional branch at the
+        end of the loop.  */
+      unrolled_insn_copies = insn_count - 2;
+
+#ifdef HAVE_cc0
+      /* When we completely unroll a loop on a HAVE_cc0 machine we will not
+        need the comparison before the conditional branch at the end of the
+        loop.  */
+      unrolled_insn_copies -= 1;
+#endif
+
+      /* We'll need one copy for each loop iteration.  */
+      unrolled_insn_copies *= loop_info->n_iterations;
+
+      /* A little slop to account for the ability to remove initialization
+        code, better CSE, and other secondary benefits of completely
+        unrolling some loops.  */
+      unrolled_insn_copies -= 1;
+
+      /* Clamp the value.  */
+      if (unrolled_insn_copies < 0)
+       unrolled_insn_copies = 0;
+    }
+  
   /* Unroll loops from within strength reduction so that we can use the
      induction variable information that strength_reduce has already
-     collected.  */
-  
-  if (unroll_p)
-    unroll_loop (loop_end, insn_count, loop_start, end_insert_before, 1);
+     collected.  Always unroll loops that would be as small or smaller
+     unrolled than when rolled.  */
+  if (unroll_p
+      || (loop_info->n_iterations > 0
+         && unrolled_insn_copies <= insn_count))
+    unroll_loop (loop_end, insn_count, loop_start, end_insert_before,
+                loop_info, 1);
 
 #ifdef HAVE_decrement_and_branch_on_count
   /* Instrument the loop with BCT insn.  */
   if (HAVE_decrement_and_branch_on_count && bct_p
       && flag_branch_on_count_reg)
-    insert_bct (loop_start, loop_end);
+    insert_bct (loop_start, loop_end, loop_info);
 #endif  /* HAVE_decrement_and_branch_on_count */
 
   if (loop_dump_stream)
     fprintf (loop_dump_stream, "\n");
+
+egress:
+  VARRAY_FREE (reg_iv_type);
+  VARRAY_FREE (reg_iv_info);
 }
 \f
 /* Return 1 if X is a valid source for an initial value (or as value being
@@ -4617,18 +5329,20 @@ valid_initial_value_p (x, insn, call_seen, loop_start)
 /* Scan X for memory refs and check each memory address
    as a possible giv.  INSN is the insn whose pattern X comes from.
    NOT_EVERY_ITERATION is 1 if the insn might not be executed during
-   every loop iteration.  */
+   every loop iteration.  MAYBE_MULTIPLE is 1 if the insn might be executed
+   more thanonce in each loop iteration.  */
 
 static void
-find_mem_givs (x, insn, not_every_iteration, loop_start, loop_end)
+find_mem_givs (x, insn, not_every_iteration, maybe_multiple, loop_start,
+              loop_end)
      rtx x;
      rtx insn;
-     int not_every_iteration;
+     int not_every_iteration, maybe_multiple;
      rtx loop_start, loop_end;
 {
   register int i, j;
   register enum rtx_code code;
-  register char *fmt;
+  register const char *fmt;
 
   if (x == 0)
     return;
@@ -4671,7 +5385,7 @@ find_mem_givs (x, insn, not_every_iteration, loop_start, loop_end)
 
            record_giv (v, insn, src_reg, addr_placeholder, mult_val,
                        add_val, benefit, DEST_ADDR, not_every_iteration,
-                       &XEXP (x, 0), loop_start, loop_end);
+                       maybe_multiple, &XEXP (x, 0), loop_start, loop_end);
 
            v->mem_mode = GET_MODE (x);
          }
@@ -4687,12 +5401,12 @@ find_mem_givs (x, insn, not_every_iteration, loop_start, loop_end)
   fmt = GET_RTX_FORMAT (code);
   for (i = GET_RTX_LENGTH (code) - 1; i >= 0; i--)
     if (fmt[i] == 'e')
-      find_mem_givs (XEXP (x, i), insn, not_every_iteration, loop_start,
-                    loop_end);
+      find_mem_givs (XEXP (x, i), insn, not_every_iteration, maybe_multiple,
+                    loop_start, loop_end);
     else if (fmt[i] == 'E')
       for (j = 0; j < XVECLEN (x, i); j++)
        find_mem_givs (XVECEXP (x, i, j), insn, not_every_iteration,
-                      loop_start, loop_end);
+                      maybe_multiple, loop_start, loop_end);
 }
 \f
 /* Fill in the data about one biv update.
@@ -4712,13 +5426,14 @@ find_mem_givs (x, insn, not_every_iteration, loop_start, loop_end)
    executed exactly once per iteration.  */
 
 static void
-record_biv (v, insn, dest_reg, inc_val, mult_val,
+record_biv (v, insn, dest_reg, inc_val, mult_val, location,
            not_every_iteration, maybe_multiple)
      struct induction *v;
      rtx insn;
      rtx dest_reg;
      rtx inc_val;
      rtx mult_val;
+     rtx *location;
      int not_every_iteration;
      int maybe_multiple;
 {
@@ -4729,6 +5444,7 @@ record_biv (v, insn, dest_reg, inc_val, mult_val,
   v->dest_reg = dest_reg;
   v->mult_val = mult_val;
   v->add_val = inc_val;
+  v->location = location;
   v->mode = GET_MODE (dest_reg);
   v->always_computable = ! not_every_iteration;
   v->always_executed = ! not_every_iteration;
@@ -4812,7 +5528,8 @@ record_biv (v, insn, dest_reg, inc_val, mult_val,
 
 static void
 record_giv (v, insn, src_reg, dest_reg, mult_val, add_val, benefit,
-           type, not_every_iteration, location, loop_start, loop_end)
+           type, not_every_iteration, maybe_multiple, location, loop_start,
+           loop_end)
      struct induction *v;
      rtx insn;
      rtx src_reg;
@@ -4820,7 +5537,7 @@ record_giv (v, insn, src_reg, dest_reg, mult_val, add_val, benefit,
      rtx mult_val, add_val;
      int benefit;
      enum g_types type;
-     int not_every_iteration;
+     int not_every_iteration, maybe_multiple;
      rtx *location;
      rtx loop_start, loop_end;
 {
@@ -4838,7 +5555,7 @@ record_giv (v, insn, src_reg, dest_reg, mult_val, add_val, benefit,
   v->location = location;
   v->cant_derive = 0;
   v->combined_with = 0;
-  v->maybe_multiple = 0;
+  v->maybe_multiple = maybe_multiple;
   v->maybe_dead = 0;
   v->derive_adjustment = 0;
   v->same = 0;
@@ -4849,6 +5566,8 @@ record_giv (v, insn, src_reg, dest_reg, mult_val, add_val, benefit,
   v->auto_inc_opt = 0;
   v->unrolled = 0;
   v->shared = 0;
+  v->derived_from = 0;
+  v->last_use = 0;
 
   /* The v->always_computable field is used in update_giv_derive, to
      determine whether a giv can be used to derive another giv.  For a
@@ -4869,7 +5588,6 @@ record_giv (v, insn, src_reg, dest_reg, mult_val, add_val, benefit,
     {
       v->mode = GET_MODE (*location);
       v->lifetime = 1;
-      v->times_used = 1;
     }
   else /* type == DEST_REG */
     {
@@ -4878,16 +5596,14 @@ record_giv (v, insn, src_reg, dest_reg, mult_val, add_val, benefit,
       v->lifetime = (uid_luid[REGNO_LAST_UID (REGNO (dest_reg))]
                     - uid_luid[REGNO_FIRST_UID (REGNO (dest_reg))]);
 
-      v->times_used = VARRAY_INT (n_times_used, REGNO (dest_reg));
-
       /* If the lifetime is zero, it means that this register is
         really a dead store.  So mark this as a giv that can be
         ignored.  This will not prevent the biv from being eliminated.  */
       if (v->lifetime == 0)
        v->ignore = 1;
 
-      reg_iv_type[REGNO (dest_reg)] = GENERAL_INDUCT;
-      reg_iv_info[REGNO (dest_reg)] = v;
+      REG_IV_TYPE (REGNO (dest_reg)) = GENERAL_INDUCT;
+      REG_IV_INFO (REGNO (dest_reg)) = v;
     }
 
   /* Add the giv to the class of givs computed from one biv.  */
@@ -5013,8 +5729,8 @@ record_giv (v, insn, src_reg, dest_reg, mult_val, add_val, benefit,
 
       fprintf (loop_dump_stream, " src reg %d benefit %d",
               REGNO (src_reg), v->benefit);
-      fprintf (loop_dump_stream, " used %d lifetime %d",
-              v->times_used, v->lifetime);
+      fprintf (loop_dump_stream, " lifetime %d",
+              v->lifetime);
 
       if (v->replaceable)
        fprintf (loop_dump_stream, " replaceable");
@@ -5058,9 +5774,10 @@ record_giv (v, insn, src_reg, dest_reg, mult_val, add_val, benefit,
    have been identified.  */
 
 static void
-check_final_value (v, loop_start, loop_end)
+check_final_value (v, loop_start, loop_end, n_iterations)
      struct induction *v;
      rtx loop_start, loop_end;
+     unsigned HOST_WIDE_INT n_iterations;
 {
   struct iv_class *bl;
   rtx final_value = 0;
@@ -5087,7 +5804,7 @@ check_final_value (v, loop_start, loop_end)
   v->replaceable = 0;
 #endif
 
-  if ((final_value = final_giv_value (v, loop_start, loop_end))
+  if ((final_value = final_giv_value (v, loop_start, loop_end, n_iterations))
       && (v->always_computable || last_use_this_basic_block (v->dest_reg, v->insn)))
     {
       int biv_increment_seen = 0;
@@ -5160,13 +5877,10 @@ check_final_value (v, loop_start, loop_end)
 
              if (GET_CODE (p) == JUMP_INSN && JUMP_LABEL (p)
                  && LABEL_NAME (JUMP_LABEL (p))
-                 && ((INSN_UID (JUMP_LABEL (p)) >= max_uid_for_loop)
-                     || (INSN_UID (v->insn) >= max_uid_for_loop)
-                     || (INSN_UID (last_giv_use) >= max_uid_for_loop)
-                     || (INSN_LUID (JUMP_LABEL (p)) < INSN_LUID (v->insn)
-                         && INSN_LUID (JUMP_LABEL (p)) > INSN_LUID (loop_start))
-                     || (INSN_LUID (JUMP_LABEL (p)) > INSN_LUID (last_giv_use)
-                         && INSN_LUID (JUMP_LABEL (p)) < INSN_LUID (loop_end))))
+                 && ((loop_insn_first_p (JUMP_LABEL (p), v->insn)
+                      && loop_insn_first_p (loop_start, JUMP_LABEL (p)))
+                     || (loop_insn_first_p (last_giv_use, JUMP_LABEL (p))
+                         && loop_insn_first_p (JUMP_LABEL (p), loop_end))))
                {
                  v->replaceable = 0;
                  v->not_replaceable = 1;
@@ -5276,9 +5990,10 @@ update_giv_derive (p)
                                             &dummy);
 
                  if (tem && giv->derive_adjustment)
-                   tem = simplify_giv_expr (gen_rtx_PLUS (giv->mode, tem,
-                                                          giv->derive_adjustment),
-                                            &dummy);
+                   tem = simplify_giv_expr
+                     (gen_rtx_PLUS (giv->mode, tem, giv->derive_adjustment),
+                      &dummy);
+
                  if (tem)
                    giv->derive_adjustment = tem;
                  else
@@ -5301,7 +6016,8 @@ update_giv_derive (p)
      REG = INVARIANT + REG
 
    If X is suitable, we return 1, set *MULT_VAL to CONST1_RTX,
-   and store the additive term into *INC_VAL.
+   store the additive term into *INC_VAL, and store the place where
+   we found the additive term into *LOCATION.
 
    If X is an assignment of an invariant into DEST_REG, we set
    *MULT_VAL to CONST0_RTX, and store the invariant into *INC_VAL.
@@ -5328,19 +6044,21 @@ update_giv_derive (p)
    If we cannot find a biv, we return 0.  */
 
 static int
-basic_induction_var (x, mode, dest_reg, p, inc_val, mult_val)
+basic_induction_var (x, mode, dest_reg, p, inc_val, mult_val, location)
      register rtx x;
      enum machine_mode mode;
      rtx p;
      rtx dest_reg;
      rtx *inc_val;
      rtx *mult_val;
+     rtx **location;
 {
   register enum rtx_code code;
-  rtx arg;
+  rtx *argp, arg;
   rtx insn, set = 0;
 
   code = GET_CODE (x);
+  *location = NULL;
   switch (code)
     {
     case PLUS:
@@ -5348,20 +6066,26 @@ basic_induction_var (x, mode, dest_reg, p, inc_val, mult_val)
          || (GET_CODE (XEXP (x, 0)) == SUBREG
              && SUBREG_PROMOTED_VAR_P (XEXP (x, 0))
              && SUBREG_REG (XEXP (x, 0)) == dest_reg))
-       arg = XEXP (x, 1);
+       {
+         argp = &XEXP (x, 1);
+       }
       else if (rtx_equal_p (XEXP (x, 1), dest_reg)
               || (GET_CODE (XEXP (x, 1)) == SUBREG
                   && SUBREG_PROMOTED_VAR_P (XEXP (x, 1))
                   && SUBREG_REG (XEXP (x, 1)) == dest_reg))
-       arg = XEXP (x, 0);
+       {
+         argp = &XEXP (x, 0);
+       }
       else
        return 0;
 
+      arg = *argp;
       if (invariant_p (arg) != 1)
        return 0;
 
       *inc_val = convert_modes (GET_MODE (dest_reg), GET_MODE (x), arg, 0);
       *mult_val = const1_rtx;
+      *location = argp;
       return 1;
 
     case SUBREG:
@@ -5369,7 +6093,7 @@ basic_induction_var (x, mode, dest_reg, p, inc_val, mult_val)
         value.  */
       if (SUBREG_PROMOTED_VAR_P (x))
        return basic_induction_var (SUBREG_REG (x), GET_MODE (SUBREG_REG (x)),
-                                   dest_reg, p, inc_val, mult_val);
+                                   dest_reg, p, inc_val, mult_val, location);
       return 0;
 
     case REG:
@@ -5394,13 +6118,15 @@ basic_induction_var (x, mode, dest_reg, p, inc_val, mult_val)
               || (GET_CODE (SET_DEST (set)) == SUBREG
                   && (GET_MODE_SIZE (GET_MODE (SET_DEST (set)))
                       <= UNITS_PER_WORD)
+                  && (GET_MODE_CLASS (GET_MODE (SET_DEST (set)))
+                      == MODE_INT)
                   && SUBREG_REG (SET_DEST (set)) == x))
              && basic_induction_var (SET_SRC (set),
                                      (GET_MODE (SET_SRC (set)) == VOIDmode
                                       ? GET_MODE (x)
                                       : GET_MODE (SET_SRC (set))),
                                      dest_reg, insn,
-                                     inc_val, mult_val))
+                                     inc_val, mult_val, location))
            return 1;
        }
       /* ... fall through ...  */
@@ -5418,7 +6144,7 @@ basic_induction_var (x, mode, dest_reg, p, inc_val, mult_val)
       /* convert_modes aborts if we try to convert to or from CCmode, so just
          exclude that case.  It is very unlikely that a condition code value
         would be a useful iterator anyways.  */
-      if (loops_enclosed == 1
+      if (this_loop_info.loops_enclosed == 1
          && GET_MODE_CLASS (mode) != MODE_CC
          && GET_MODE_CLASS (GET_MODE (dest_reg)) != MODE_CC)
        {
@@ -5432,7 +6158,7 @@ basic_induction_var (x, mode, dest_reg, p, inc_val, mult_val)
 
     case SIGN_EXTEND:
       return basic_induction_var (XEXP (x, 0), GET_MODE (XEXP (x, 0)),
-                                 dest_reg, p, inc_val, mult_val);
+                                 dest_reg, p, inc_val, mult_val, location);
 
     case ASHIFTRT:
       /* Similar, since this can be a sign extension.  */
@@ -5452,7 +6178,8 @@ basic_induction_var (x, mode, dest_reg, p, inc_val, mult_val)
          && XEXP (x, 1) == XEXP (SET_SRC (set), 1))
        return basic_induction_var (XEXP (SET_SRC (set), 0),
                                    GET_MODE (XEXP (x, 0)),
-                                   dest_reg, insn, inc_val, mult_val);
+                                   dest_reg, insn, inc_val, mult_val,
+                                   location);
       return 0;
 
     default:
@@ -5591,8 +6318,10 @@ general_induction_var (x, src_reg, add_val, mult_val, is_addr, pbenefit)
 
    *BENEFIT will be incremented by the benefit of any sub-giv encountered.  */
 
-static rtx sge_plus PROTO ((enum machine_mode, rtx, rtx));
-static rtx sge_plus_constant PROTO ((rtx, rtx));
+static rtx sge_plus PARAMS ((enum machine_mode, rtx, rtx));
+static rtx sge_plus_constant PARAMS ((rtx, rtx));
+static int cmp_combine_givs_stats PARAMS ((const PTR, const PTR));
+static int cmp_recombine_givs_stats PARAMS ((const PTR, const PTR));
 
 static rtx
 simplify_giv_expr (x, benefit)
@@ -5659,10 +6388,13 @@ simplify_giv_expr (x, benefit)
 
          case PLUS:
            /* (a + invar_1) + invar_2.  Associate.  */
-           return simplify_giv_expr (
-               gen_rtx_PLUS (mode, XEXP (arg0, 0),
-                             gen_rtx_PLUS (mode, XEXP (arg0, 1), arg1)),
-               benefit);
+           return
+             simplify_giv_expr (gen_rtx_PLUS (mode,
+                                              XEXP (arg0, 0),
+                                              gen_rtx_PLUS (mode,
+                                                            XEXP (arg0, 1),
+                                                            arg1)),
+                                benefit);
 
          default:
            abort ();
@@ -5682,11 +6414,12 @@ simplify_giv_expr (x, benefit)
        tem = arg0, arg0 = arg1, arg1 = tem;
 
       if (GET_CODE (arg1) == PLUS)
-         return simplify_giv_expr (gen_rtx_PLUS (mode,
-                                                 gen_rtx_PLUS (mode, arg0,
-                                                               XEXP (arg1, 0)),
-                                                 XEXP (arg1, 1)),
-                                   benefit);
+         return
+           simplify_giv_expr (gen_rtx_PLUS (mode,
+                                            gen_rtx_PLUS (mode, arg0,
+                                                          XEXP (arg1, 0)),
+                                            XEXP (arg1, 1)),
+                              benefit);
 
       /* Now must have MULT + MULT.  Distribute if same biv, else not giv.  */
       if (GET_CODE (arg0) != MULT || GET_CODE (arg1) != MULT)
@@ -5706,7 +6439,8 @@ simplify_giv_expr (x, benefit)
       /* Handle "a - b" as "a + b * (-1)".  */
       return simplify_giv_expr (gen_rtx_PLUS (mode,
                                              XEXP (x, 0),
-                                             gen_rtx_MULT (mode, XEXP (x, 1),
+                                             gen_rtx_MULT (mode,
+                                                           XEXP (x, 1),
                                                            constm1_rtx)),
                                benefit);
 
@@ -5765,7 +6499,8 @@ simplify_giv_expr (x, benefit)
 
        case MULT:
          /* (a * invar_1) * invar_2.  Associate.  */
-         return simplify_giv_expr (gen_rtx_MULT (mode, XEXP (arg0, 0),
+         return simplify_giv_expr (gen_rtx_MULT (mode,
+                                                 XEXP (arg0, 0),
                                                  gen_rtx_MULT (mode,
                                                                XEXP (arg0, 1),
                                                                arg1)),
@@ -5791,11 +6526,12 @@ simplify_giv_expr (x, benefit)
       if (GET_CODE (XEXP (x, 1)) != CONST_INT)
        return 0;
 
-      return simplify_giv_expr (gen_rtx_MULT (mode,
-                                             XEXP (x, 0),
-                                             GEN_INT ((HOST_WIDE_INT) 1
-                                                      << INTVAL (XEXP (x, 1)))),
-                               benefit);
+      return
+       simplify_giv_expr (gen_rtx_MULT (mode,
+                                        XEXP (x, 0),
+                                        GEN_INT ((HOST_WIDE_INT) 1
+                                                 << INTVAL (XEXP (x, 1)))),
+                          benefit);
 
     case NEG:
       /* "-a" is "a * (-1)" */
@@ -5819,13 +6555,13 @@ simplify_giv_expr (x, benefit)
        return 0;
 
       /* Check for biv or giv.  */
-      switch (reg_iv_type[REGNO (x)])
+      switch (REG_IV_TYPE (REGNO (x)))
        {
        case BASIC_INDUCT:
          return x;
        case GENERAL_INDUCT:
          {
-           struct induction *v = reg_iv_info[REGNO (x)];
+           struct induction *v = REG_IV_INFO (REGNO (x));
 
            /* Form expression from giv and add benefit.  Ensure this giv
               can derive another and subtract any needed adjustment if so.  */
@@ -5833,9 +6569,10 @@ simplify_giv_expr (x, benefit)
            if (v->cant_derive)
              return 0;
 
-           tem = gen_rtx_PLUS (mode, gen_rtx_MULT (mode, v->src_reg,
-                                                   v->mult_val),
-                          v->add_val);
+           tem = gen_rtx_PLUS (mode, gen_rtx_MULT (mode,
+                                                   v->src_reg, v->mult_val),
+                               v->add_val);
+
            if (v->derive_adjustment)
              tem = gen_rtx_MINUS (mode, tem, v->derive_adjustment);
            return simplify_giv_expr (tem, benefit);
@@ -6005,13 +6742,14 @@ sge_plus (mode, x, y)
 
 static int
 consec_sets_giv (first_benefit, p, src_reg, dest_reg,
-                add_val, mult_val)
+                add_val, mult_val, last_consec_insn)
      int first_benefit;
      rtx p;
      rtx src_reg;
      rtx dest_reg;
      rtx *add_val;
      rtx *mult_val;
+     rtx *last_consec_insn;
 {
   int count;
   enum rtx_code code;
@@ -6035,8 +6773,8 @@ consec_sets_giv (first_benefit, p, src_reg, dest_reg,
   v->cant_derive = 0;
   v->derive_adjustment = 0;
 
-  reg_iv_type[REGNO (dest_reg)] = GENERAL_INDUCT;
-  reg_iv_info[REGNO (dest_reg)] = v;
+  REG_IV_TYPE (REGNO (dest_reg)) = GENERAL_INDUCT;
+  REG_IV_INFO (REGNO (dest_reg)) = v;
 
   count = VARRAY_INT (n_times_set, REGNO (dest_reg)) - 1;
 
@@ -6080,11 +6818,12 @@ consec_sets_giv (first_benefit, p, src_reg, dest_reg,
              && CONSTANT_P (SET_SRC (set)))
            continue;
 
-         reg_iv_type[REGNO (dest_reg)] = UNKNOWN_INDUCT;
+         REG_IV_TYPE (REGNO (dest_reg)) = UNKNOWN_INDUCT;
          return 0;
        }
     }
 
+  *last_consec_insn = p;
   return v->benefit;
 }
 \f
@@ -6197,7 +6936,7 @@ express_from_1 (a, b, mult)
   return NULL_RTX;
 }
 
-static rtx
+rtx
 express_from (g1, g2)
      struct induction *g1, *g2;
 {
@@ -6224,6 +6963,30 @@ express_from (g1, g2)
 
   add = express_from_1 (g1->add_val, g2->add_val, mult);
   if (add == NULL_RTX)
+    {
+      /* Failed.  If we've got a multiplication factor between G1 and G2,
+        scale G1's addend and try again.  */
+      if (INTVAL (mult) > 1)
+       {
+         rtx g1_add_val = g1->add_val;
+         if (GET_CODE (g1_add_val) == MULT
+             && GET_CODE (XEXP (g1_add_val, 1)) == CONST_INT)
+           {
+             HOST_WIDE_INT m;
+             m = INTVAL (mult) * INTVAL (XEXP (g1_add_val, 1));
+             g1_add_val = gen_rtx_MULT (GET_MODE (g1_add_val),
+                                        XEXP (g1_add_val, 0), GEN_INT (m));
+           }
+         else
+           {
+             g1_add_val = gen_rtx_MULT (GET_MODE (g1_add_val), g1_add_val,
+                                        mult);
+           }
+
+         add = express_from_1 (g1_add_val, g2->add_val, const1_rtx);
+       }
+    }
+  if (add == NULL_RTX)
     return NULL_RTX;
 
   /* Form simplified final result.  */
@@ -6265,7 +7028,10 @@ combine_givs_p (g1, g2)
   /* If these givs are identical, they can be combined.  We use the results
      of express_from because the addends are not in a canonical form, so
      rtx_equal_p is a weaker test.  */
-  if (tem == g1->dest_reg)
+  /* But don't combine a DEST_REG giv with a DEST_ADDR giv; we want the
+     combination to be the other way round.  */
+  if (tem == g1->dest_reg
+      && (g1->giv_type == DEST_REG || g2->giv_type == DEST_ADDR))
     {
       return g1->dest_reg;
     }
@@ -6301,9 +7067,14 @@ struct combine_givs_stats
 };
 
 static int
-cmp_combine_givs_stats (x, y)
-     struct combine_givs_stats *x, *y;
+cmp_combine_givs_stats (xp, yp)
+     const PTR xp;
+     const PTR yp;
 {
+  const struct combine_givs_stats * const x =
+    (const struct combine_givs_stats *) xp;
+  const struct combine_givs_stats * const y =
+    (const struct combine_givs_stats *) yp;
   int d;
   d = y->total_benefit - x->total_benefit;
   /* Stabilize the sort.  */
@@ -6312,40 +7083,6 @@ cmp_combine_givs_stats (x, y)
   return d;
 }
 
-/* If one of these givs is a DEST_REG that was only used once, by the
-   other giv, this is actually a single use.  Return 0 if this is not
-   the case, -1 if g1 is the DEST_REG involved, and 1 if it was g2.  */
-
-static int
-combine_givs_used_once (g1, g2)
-     struct induction *g1, *g2;
-{
-  if (g1->giv_type == DEST_REG
-      && VARRAY_INT (n_times_used, REGNO (g1->dest_reg)) == 1
-      && reg_mentioned_p (g1->dest_reg, PATTERN (g2->insn)))
-    return -1;
-
-  if (g2->giv_type == DEST_REG
-      && VARRAY_INT (n_times_used, REGNO (g2->dest_reg)) == 1
-      && reg_mentioned_p (g2->dest_reg, PATTERN (g1->insn)))
-    return 1;
-
-  return 0;
-}
-static int
-combine_givs_benefit_from (g1, g2)
-     struct induction *g1, *g2;
-{
-  int tmp = combine_givs_used_once (g1, g2);
-  if (tmp < 0)
-    return 0;
-  else if (tmp > 0)
-    return g2->benefit - g1->benefit;
-  else
-    return g2->benefit;
-}
-
 /* Check all pairs of givs for iv_class BL and see if any can be combined with
    any other.  If so, point SAME to the giv combined with and set NEW_REG to
    be an expression (in terms of the other giv's DEST_REG) equivalent to the
@@ -6355,6 +7092,9 @@ static void
 combine_givs (bl)
      struct iv_class *bl;
 {
+  /* Additional benefit to add for being combined multiple times.  */
+  const int extra_benefit = 3;
+
   struct induction *g1, *g2, **giv_array;
   int i, j, k, giv_count;
   struct combine_givs_stats *stats;
@@ -6382,13 +7122,27 @@ combine_givs (bl)
   for (i = 0; i < giv_count; i++)
     {
       int this_benefit;
+      rtx single_use;
 
       g1 = giv_array[i];
+      stats[i].giv_number = i;
+
+      /* If a DEST_REG GIV is used only once, do not allow it to combine
+        with anything, for in doing so we will gain nothing that cannot
+        be had by simply letting the GIV with which we would have combined
+        to be reduced on its own.  The losage shows up in particular with 
+        DEST_ADDR targets on hosts with reg+reg addressing, though it can
+        be seen elsewhere as well.  */
+      if (g1->giv_type == DEST_REG
+         && (single_use = VARRAY_RTX (reg_single_usage, REGNO (g1->dest_reg)))
+         && single_use != const0_rtx)
+       continue;
 
       this_benefit = g1->benefit;
       /* Add an additional weight for zero addends.  */
       if (g1->no_const_addval)
        this_benefit += 1;
+
       for (j = 0; j < giv_count; j++)
        {
          rtx this_combine;
@@ -6398,12 +7152,9 @@ combine_givs (bl)
              && (this_combine = combine_givs_p (g1, g2)) != NULL_RTX)
            {
              can_combine[i*giv_count + j] = this_combine;
-             this_benefit += combine_givs_benefit_from (g1, g2);
-             /* Add an additional weight for being reused more times.  */
-             this_benefit += 3;
+             this_benefit += g2->benefit + extra_benefit;
            }
        }
-      stats[i].giv_number = i;
       stats[i].total_benefit = this_benefit;
     }
 
@@ -6447,12 +7198,10 @@ restart:
 
              g2->new_reg = can_combine[i*giv_count + j];
              g2->same = g1;
-             g1->combined_with = 1;
-             if (!combine_givs_used_once (g1, g2))
-               g1->times_used += 1;
+             g1->combined_with++;
              g1->lifetime += g2->lifetime;
 
-             g1_add_benefit += combine_givs_benefit_from (g1, g2);
+             g1_add_benefit += g2->benefit;
 
              /* ??? The new final_[bg]iv_value code does a much better job
                 of finding replaceable giv's, and hence this code may no
@@ -6466,11 +7215,7 @@ restart:
                {
                  int m = stats[l].giv_number;
                  if (can_combine[m*giv_count + j])
-                   {
-                     /* Remove additional weight for being reused.  */
-                     stats[l].total_benefit -= 3 + 
-                       combine_givs_benefit_from (giv_array[m], g2);
-                   }
+                   stats[l].total_benefit -= g2->benefit + extra_benefit;
                }
 
              if (loop_dump_stream)
@@ -6487,12 +7232,8 @@ restart:
          for (j = 0; j < giv_count; ++j)
            {
              int m = stats[j].giv_number;
-             if (can_combine[m*giv_count + j])
-               {
-                 /* Remove additional weight for being reused.  */
-                 stats[j].total_benefit -= 3 + 
-                   combine_givs_benefit_from (giv_array[m], g1);
-               }
+             if (can_combine[m*giv_count + i])
+               stats[j].total_benefit -= g1->benefit + extra_benefit;
            }
 
          g1->benefit += g1_add_benefit;
@@ -6508,6 +7249,435 @@ restart:
     }
 }
 \f
+struct recombine_givs_stats
+{
+  int giv_number;
+  int start_luid, end_luid;
+};
+
+/* Used below as comparison function for qsort.  We want a ascending luid
+   when scanning the array starting at the end, thus the arguments are
+   used in reverse.  */
+static int
+cmp_recombine_givs_stats (xp, yp)
+     const PTR xp;
+     const PTR yp;
+{
+  const struct recombine_givs_stats * const x =
+    (const struct recombine_givs_stats *) xp;
+  const struct recombine_givs_stats * const y =
+    (const struct recombine_givs_stats *) yp;
+  int d;
+  d = y->start_luid - x->start_luid;
+  /* Stabilize the sort.  */
+  if (!d)
+    d = y->giv_number - x->giv_number;
+  return d;
+}
+
+/* Scan X, which is a part of INSN, for the end of life of a giv.  Also
+   look for the start of life of a giv where the start has not been seen
+   yet to unlock the search for the end of its life.
+   Only consider givs that belong to BIV.
+   Return the total number of lifetime ends that have been found.  */
+static int
+find_life_end (x, stats, insn, biv)
+     rtx x, insn, biv;
+     struct recombine_givs_stats *stats;
+{
+  enum rtx_code code;
+  const char *fmt;
+  int i, j;
+  int retval;
+
+  code = GET_CODE (x);
+  switch (code)
+    {
+    case SET:
+      {
+       rtx reg = SET_DEST (x);
+       if (GET_CODE (reg) == REG)
+         {
+           int regno = REGNO (reg);
+           struct induction *v = REG_IV_INFO (regno);
+
+           if (REG_IV_TYPE (regno) == GENERAL_INDUCT
+               && ! v->ignore
+               && v->src_reg == biv
+               && stats[v->ix].end_luid <= 0)
+             {
+               /* If we see a 0 here for end_luid, it means that we have
+                  scanned the entire loop without finding any use at all.
+                  We must not predicate this code on a start_luid match
+                  since that would make the test fail for givs that have
+                  been hoisted out of inner loops.  */
+               if (stats[v->ix].end_luid == 0)
+                 {
+                   stats[v->ix].end_luid = stats[v->ix].start_luid;
+                   return 1 + find_life_end (SET_SRC (x), stats, insn, biv);
+                 }
+               else if (stats[v->ix].start_luid == INSN_LUID (insn))
+                 stats[v->ix].end_luid = 0;
+             }
+           return find_life_end (SET_SRC (x), stats, insn, biv);
+         }
+       break;
+      }
+    case REG:
+      {
+       int regno = REGNO (x);
+       struct induction *v = REG_IV_INFO (regno);
+
+       if (REG_IV_TYPE (regno) == GENERAL_INDUCT
+           && ! v->ignore
+           && v->src_reg == biv
+           && stats[v->ix].end_luid == 0)
+         {
+           while (INSN_UID (insn) >= max_uid_for_loop)
+             insn = NEXT_INSN (insn);
+           stats[v->ix].end_luid = INSN_LUID (insn);
+           return 1;
+         }
+       return 0;
+      }
+    case LABEL_REF:
+    case CONST_DOUBLE:
+    case CONST_INT:
+    case CONST:
+      return 0;
+    default:
+      break;
+    }
+  fmt = GET_RTX_FORMAT (code);
+  retval = 0;
+  for (i = GET_RTX_LENGTH (code) - 1; i >= 0; i--)
+    {
+      if (fmt[i] == 'e')
+       retval += find_life_end (XEXP (x, i), stats, insn, biv);
+
+      else if (fmt[i] == 'E')
+        for (j = XVECLEN (x, i) - 1; j >= 0; j--)
+         retval += find_life_end (XVECEXP (x, i, j), stats, insn, biv);
+    }
+  return retval;
+}
+
+/* For each giv that has been combined with another, look if
+   we can combine it with the most recently used one instead.
+   This tends to shorten giv lifetimes, and helps the next step:
+   try to derive givs from other givs.  */
+static void
+recombine_givs (bl, loop_start, loop_end, unroll_p)
+     struct iv_class *bl;
+     rtx loop_start, loop_end;
+     int unroll_p;
+{
+  struct induction *v, **giv_array, *last_giv;
+  struct recombine_givs_stats *stats;
+  int giv_count;
+  int i, rescan;
+  int ends_need_computing;
+
+  for (giv_count = 0, v = bl->giv; v; v = v->next_iv)
+    {
+      if (! v->ignore)
+       giv_count++;
+    }
+  giv_array
+    = (struct induction **) alloca (giv_count * sizeof (struct induction *));
+  stats = (struct recombine_givs_stats *) alloca (giv_count * sizeof *stats);
+
+  /* Initialize stats and set up the ix field for each giv in stats to name
+     the corresponding index into stats.  */
+  for (i = 0, v = bl->giv; v; v = v->next_iv)
+    {
+      rtx p;
+
+      if (v->ignore)
+       continue;
+      giv_array[i] = v;
+      stats[i].giv_number = i;
+      /* If this giv has been hoisted out of an inner loop, use the luid of
+        the previous insn.  */
+      for (p = v->insn; INSN_UID (p) >= max_uid_for_loop; )
+       p = PREV_INSN (p);
+      stats[i].start_luid = INSN_LUID (p);
+      i++;
+    }
+
+  qsort (stats, giv_count, sizeof(*stats), cmp_recombine_givs_stats);
+
+  /* Set up the ix field for each giv in stats to name
+     the corresponding index into stats, and
+     do the actual most-recently-used recombination.  */
+  for (last_giv = 0, i = giv_count - 1; i >= 0; i--)
+    {
+      v = giv_array[stats[i].giv_number];
+      v->ix = i;
+      if (v->same)
+       {
+         struct induction *old_same = v->same;
+         rtx new_combine;
+
+         /* combine_givs_p actually says if we can make this transformation.
+            The other tests are here only to avoid keeping a giv alive
+            that could otherwise be eliminated.  */
+         if (last_giv
+             && ((old_same->maybe_dead && ! old_same->combined_with)
+                 || ! last_giv->maybe_dead
+                 || last_giv->combined_with)
+             && (new_combine = combine_givs_p (last_giv, v)))
+           {
+             old_same->combined_with--;
+             v->new_reg = new_combine;
+             v->same = last_giv;
+             last_giv->combined_with++;
+             /* No need to update lifetimes / benefits here since we have
+                already decided what to reduce.  */
+
+             if (loop_dump_stream)
+               {
+                 fprintf (loop_dump_stream,
+                          "giv at %d recombined with giv at %d as ",
+                          INSN_UID (v->insn), INSN_UID (last_giv->insn));
+                 print_rtl (loop_dump_stream, v->new_reg);
+                 putc ('\n', loop_dump_stream);
+               }
+             continue;
+           }
+         v = v->same;
+       }
+      else if (v->giv_type != DEST_REG)
+       continue;
+      if (! last_giv
+         || (last_giv->maybe_dead && ! last_giv->combined_with)
+         || ! v->maybe_dead
+         || v->combined_with)
+       last_giv = v;
+    }
+
+  ends_need_computing = 0;
+  /* For each DEST_REG giv, compute lifetime starts, and try to compute
+     lifetime ends from regscan info.  */
+  for (i = giv_count - 1; i >= 0; i--)
+    {
+      v = giv_array[stats[i].giv_number];
+      if (v->ignore)
+       continue;
+      if (v->giv_type == DEST_ADDR)
+       {
+         /* Loop unrolling of an inner loop can even create new DEST_REG
+            givs.  */
+         rtx p;
+         for (p = v->insn; INSN_UID (p) >= max_uid_for_loop; )
+           p = PREV_INSN (p);
+         stats[i].start_luid = stats[i].end_luid = INSN_LUID (p);
+         if (p != v->insn)
+           stats[i].end_luid++;
+       }
+      else /* v->giv_type == DEST_REG */
+       {
+         if (v->last_use)
+           {
+             stats[i].start_luid = INSN_LUID (v->insn);
+             stats[i].end_luid = INSN_LUID (v->last_use);
+           }
+         else if (INSN_UID (v->insn) >= max_uid_for_loop)
+           {
+             rtx p;
+             /* This insn has been created by loop optimization on an inner
+                loop.  We don't have a proper start_luid that will match
+                when we see the first set.  But we do know that there will
+                be no use before the set, so we can set end_luid to 0 so that
+                we'll start looking for the last use right away.  */
+             for (p = PREV_INSN (v->insn); INSN_UID (p) >= max_uid_for_loop; )
+               p = PREV_INSN (p);
+             stats[i].start_luid = INSN_LUID (p);
+             stats[i].end_luid = 0;
+             ends_need_computing++;
+           }
+         else
+           {
+             int regno = REGNO (v->dest_reg);
+             int count = VARRAY_INT (n_times_set, regno) - 1;
+             rtx p = v->insn;
+
+             /* Find the first insn that sets the giv, so that we can verify
+                if this giv's lifetime wraps around the loop.  We also need
+                the luid of the first setting insn in order to detect the
+                last use properly.  */
+             while (count)
+               {
+                 p = prev_nonnote_insn (p);
+                 if (reg_set_p (v->dest_reg, p))
+                 count--;
+               }
+
+             stats[i].start_luid = INSN_LUID (p);
+             if (stats[i].start_luid > uid_luid[REGNO_FIRST_UID (regno)])
+               {
+                 stats[i].end_luid = -1;
+                 ends_need_computing++;
+               }
+             else
+               {
+                 stats[i].end_luid = uid_luid[REGNO_LAST_UID (regno)];
+                 if (stats[i].end_luid > INSN_LUID (loop_end))
+                   {
+                     stats[i].end_luid = -1;
+                     ends_need_computing++;
+                   }
+               }
+           }
+       }
+    }
+
+  /* If the regscan information was unconclusive for one or more DEST_REG
+     givs, scan the all insn in the loop to find out lifetime ends.  */
+  if (ends_need_computing)
+    {
+      rtx biv = bl->biv->src_reg;
+      rtx p = loop_end;
+
+      do
+       {
+         if (p == loop_start)
+           p = loop_end;
+         p = PREV_INSN (p);
+         if (GET_RTX_CLASS (GET_CODE (p)) != 'i')
+           continue;
+         ends_need_computing -= find_life_end (PATTERN (p), stats, p, biv);
+       }
+      while (ends_need_computing);
+    }
+
+  /* Set start_luid back to the last insn that sets the giv.  This allows
+     more combinations.  */
+  for (i = giv_count - 1; i >= 0; i--)
+    {
+      v = giv_array[stats[i].giv_number];
+      if (v->ignore)
+       continue;
+      if (INSN_UID (v->insn) < max_uid_for_loop)
+       stats[i].start_luid = INSN_LUID (v->insn);
+    }
+
+  /* Now adjust lifetime ends by taking combined givs into account.  */
+  for (i = giv_count - 1; i >= 0; i--)
+    {
+      unsigned luid;
+      int j;
+
+      v = giv_array[stats[i].giv_number];
+      if (v->ignore)
+       continue;
+      if (v->same && ! v->same->ignore)
+       {
+         j = v->same->ix;
+         luid = stats[i].start_luid;
+         /* Use unsigned arithmetic to model loop wrap-around.  */
+         if (luid - stats[j].start_luid
+             > (unsigned) stats[j].end_luid - stats[j].start_luid)
+           stats[j].end_luid = luid;
+       }
+    }
+
+  qsort (stats, giv_count, sizeof(*stats), cmp_recombine_givs_stats);
+
+  /* Try to derive DEST_REG givs from previous DEST_REG givs with the
+     same mult_val and non-overlapping lifetime.  This reduces register
+     pressure.
+     Once we find a DEST_REG giv that is suitable to derive others from,
+     we set last_giv to this giv, and try to derive as many other DEST_REG
+     givs from it without joining overlapping lifetimes.  If we then
+     encounter a DEST_REG giv that we can't derive, we set rescan to the
+     index for this giv (unless rescan is already set).
+     When we are finished with the current LAST_GIV (i.e. the inner loop
+     terminates), we start again with rescan, which then becomes the new
+     LAST_GIV.  */
+  for (i = giv_count - 1; i >= 0; i = rescan)
+    {
+      int life_start, life_end;
+
+      for (last_giv = 0, rescan = -1; i >= 0; i--)
+       {
+         rtx sum;
+
+         v = giv_array[stats[i].giv_number];
+         if (v->giv_type != DEST_REG || v->derived_from || v->same)
+           continue;
+         if (! last_giv)
+           {
+             /* Don't use a giv that's likely to be dead to derive
+                others - that would be likely to keep that giv alive.  */
+             if (! v->maybe_dead || v->combined_with)
+               {
+                 last_giv = v;
+                 life_start = stats[i].start_luid;
+                 life_end = stats[i].end_luid;
+               }
+             continue;
+           }
+         /* Use unsigned arithmetic to model loop wrap around.  */
+         if (((unsigned) stats[i].start_luid - life_start
+              >= (unsigned) life_end - life_start)
+             && ((unsigned) stats[i].end_luid - life_start
+                 > (unsigned) life_end - life_start)
+             /*  Check that the giv insn we're about to use for deriving
+                 precedes all uses of that giv.  Note that initializing the
+                 derived giv would defeat the purpose of reducing register
+                 pressure.
+                 ??? We could arrange to move the insn.  */
+             && ((unsigned) stats[i].end_luid - INSN_LUID (loop_start)
+                  > (unsigned) stats[i].start_luid - INSN_LUID (loop_start))
+             && rtx_equal_p (last_giv->mult_val, v->mult_val)
+             /* ??? Could handle libcalls, but would need more logic.  */
+             && ! find_reg_note (v->insn, REG_RETVAL, NULL_RTX)
+             /* We would really like to know if for any giv that v
+                is combined with, v->insn or any intervening biv increment
+                dominates that combined giv.  However, we
+                don't have this detailed control flow information.
+                N.B. since last_giv will be reduced, it is valid
+                anywhere in the loop, so we don't need to check the
+                validity of last_giv.
+                We rely here on the fact that v->always_executed implies that
+                there is no jump to someplace else in the loop before the
+                giv insn, and hence any insn that is executed before the
+                giv insn in the loop will have a lower luid.  */
+             && (v->always_executed || ! v->combined_with)
+             && (sum = express_from (last_giv, v))
+             /* Make sure we don't make the add more expensive.  ADD_COST
+                doesn't take different costs of registers and constants into
+                account, so compare the cost of the actual SET_SRCs.  */
+             && (rtx_cost (sum, SET)
+                 <= rtx_cost (SET_SRC (single_set (v->insn)), SET))
+             /* ??? unroll can't understand anything but reg + const_int
+                sums.  It would be cleaner to fix unroll.  */
+             && ((GET_CODE (sum) == PLUS
+                  && GET_CODE (XEXP (sum, 0)) == REG
+                  && GET_CODE (XEXP (sum, 1)) == CONST_INT)
+                 || ! unroll_p)
+             && validate_change (v->insn, &PATTERN (v->insn),
+                                 gen_rtx_SET (VOIDmode, v->dest_reg, sum), 0))
+           {
+             v->derived_from = last_giv;
+             life_end = stats[i].end_luid;
+
+             if (loop_dump_stream)
+               {
+                 fprintf (loop_dump_stream,
+                          "giv at %d derived from %d as ",
+                          INSN_UID (v->insn), INSN_UID (last_giv->insn));
+                 print_rtl (loop_dump_stream, sum);
+                 putc ('\n', loop_dump_stream);
+               }
+           }
+         else if (rescan < 0)
+           rescan = i;
+       }
+    }
+}
+\f
 /* EMIT code before INSERT_BEFORE to set REG = B * M + A.  */
 
 void
@@ -6649,10 +7819,11 @@ product_cheap_p (a, b)
    final_[bg]iv_value.  */
 
 static int
-check_dbra_loop (loop_end, insn_count, loop_start)
+check_dbra_loop (loop_end, insn_count, loop_start, loop_info)
      rtx loop_end;
      int insn_count;
      rtx loop_start;
+     struct loop_info *loop_info;
 {
   struct iv_class *bl;
   rtx reg;
@@ -6758,7 +7929,8 @@ check_dbra_loop (loop_end, insn_count, loop_start)
            }
        }
     }
-  else if (INTVAL (bl->biv->add_val) > 0)
+  else if (GET_CODE (bl->biv->add_val) == CONST_INT
+          && INTVAL (bl->biv->add_val) > 0)
     {
       /* Try to change inc to dec, so can apply above optimization.  */
       /* Can do this if:
@@ -6796,10 +7968,22 @@ check_dbra_loop (loop_end, insn_count, loop_start)
                    && REGNO (SET_DEST (set)) == bl->regno)
                  /* An insn that sets the biv is okay.  */
                  ;
-               else if (p == prev_nonnote_insn (prev_nonnote_insn (loop_end))
-                        || p == prev_nonnote_insn (loop_end))
-                 /* Don't bother about the end test.  */
-                 ;
+               else if ((p == prev_nonnote_insn (prev_nonnote_insn (loop_end))
+                         || p == prev_nonnote_insn (loop_end))
+                        && reg_mentioned_p (bivreg, PATTERN (p)))
+                 {
+                   /* If either of these insns uses the biv and sets a pseudo
+                      that has more than one usage, then the biv has uses
+                      other than counting since it's used to derive a value
+                      that is used more than one time.  */
+                   note_set_pseudo_multiple_uses_retval = 0;
+                   note_stores (PATTERN (p), note_set_pseudo_multiple_uses);
+                   if (note_set_pseudo_multiple_uses_retval)
+                     {
+                       no_use_except_counting = 0;
+                       break;
+                     }
+                 }
                else if (reg_mentioned_p (bivreg, PATTERN (p)))
                  {
                    no_use_except_counting = 0;
@@ -6823,9 +8007,25 @@ check_dbra_loop (loop_end, insn_count, loop_start)
             case, the insn should have been moved out of the loop.  */
 
          if (num_mem_sets == 1)
-           reversible_mem_store
-             = (! unknown_address_altered
-                && ! invariant_p (XEXP (loop_store_mems[0], 0)));
+           {
+             struct induction *v;
+
+             reversible_mem_store
+               = (! unknown_address_altered
+                  && ! invariant_p (XEXP (XEXP (loop_store_mems, 0), 0)));
+
+             /* If the store depends on a register that is set after the
+                store, it depends on the initial value, and is thus not
+                reversible.  */
+             for (v = bl->giv; reversible_mem_store && v; v = v->next_iv)
+               {
+                 if (v->giv_type == DEST_REG
+                     && reg_mentioned_p (v->dest_reg,
+                                         XEXP (loop_store_mems, 0))
+                     && loop_insn_first_p (first_loop_store_insn, v->insn))
+                   reversible_mem_store = 0;
+               }
+           }
        }
       else
        return 0;
@@ -6839,8 +8039,8 @@ check_dbra_loop (loop_end, insn_count, loop_start)
         about all these things.  */
 
       if ((num_nonfixed_reads <= 1
-          && !loop_has_call
-          && !loop_has_volatile
+          && ! loop_info->has_call
+          && ! loop_info->has_volatile
           && reversible_mem_store
           && (bl->giv_count + bl->biv_count + num_mem_sets
              + num_movables + compare_and_branch == insn_count)
@@ -6868,18 +8068,21 @@ check_dbra_loop (loop_end, insn_count, loop_start)
                  || (GET_CODE (comparison) == LE
                      && no_use_except_counting)))
            {
-             HOST_WIDE_INT add_val, add_adjust, comparison_val;
+             HOST_WIDE_INT add_val, add_adjust, comparison_val = 0;
              rtx initial_value, comparison_value;
              int nonneg = 0;
              enum rtx_code cmp_code;
              int comparison_const_width;
              unsigned HOST_WIDE_INT comparison_sign_mask;
-             rtx vtop;
 
              add_val = INTVAL (bl->biv->add_val);
              comparison_value = XEXP (comparison, 1);
-             comparison_const_width
-               = GET_MODE_BITSIZE (GET_MODE (XEXP (comparison, 1)));
+             if (GET_MODE (comparison_value) == VOIDmode)
+               comparison_const_width
+                 = GET_MODE_BITSIZE (GET_MODE (XEXP (comparison, 0)));
+             else
+               comparison_const_width
+                 = GET_MODE_BITSIZE (GET_MODE (comparison_value));
              if (comparison_const_width > HOST_BITS_PER_WIDE_INT)
                comparison_const_width = HOST_BITS_PER_WIDE_INT;
              comparison_sign_mask
@@ -6921,34 +8124,16 @@ check_dbra_loop (loop_end, insn_count, loop_start)
                  initial_value = const0_rtx;
                }
 
-             /* Check if there is a NOTE_INSN_LOOP_VTOP note.  If there is,
-                that means that this is a for or while style loop, with
-                a loop exit test at the start.  Thus, we can assume that
-                the loop condition was true when the loop was entered.
-                This allows us to change the loop exit condition to an
-                equality test.
-                We start at the end and search backwards for the previous
-                NOTE.  If there is no NOTE_INSN_LOOP_VTOP for this loop,
-                the search will stop at the NOTE_INSN_LOOP_CONT.  */
-             vtop = loop_end;
-             do
-               vtop = PREV_INSN (vtop);
-             while (GET_CODE (vtop) != NOTE
-                    || NOTE_LINE_NUMBER (vtop) > 0
-                    || NOTE_LINE_NUMBER (vtop) == NOTE_REPEATED_LINE_NUMBER
-                    || NOTE_LINE_NUMBER (vtop) == NOTE_INSN_DELETED);
-             if (NOTE_LINE_NUMBER (vtop) != NOTE_INSN_LOOP_VTOP)
-               vtop = NULL_RTX;
-               
              /* First check if we can do a vanilla loop reversal.  */
              if (initial_value == const0_rtx
-                 /* If we have a decrement_and_branch_on_count, prefer
-                    the NE test, since this will allow that instruction to
-                    be generated.  Note that we must use a vanilla loop
-                    reversal if the biv is used to calculate a giv or has
-                    a non-counting use.  */
-#if ! defined (HAVE_decrement_and_branch_until_zero) && defined (HAVE_decrement_and_branch_on_count)
-                 && (! (add_val == 1 && vtop
+                 /* If we have a decrement_and_branch_on_count,
+                    prefer the NE test, since this will allow that
+                    instruction to be generated.  Note that we must
+                    use a vanilla loop reversal if the biv is used to
+                    calculate a giv or has a non-counting use.  */
+#if ! defined (HAVE_decrement_and_branch_until_zero) \
+&& defined (HAVE_decrement_and_branch_on_count)
+                 && (! (add_val == 1 && loop_info->vtop
                         && (bl->biv_count == 0
                             || no_use_except_counting)))
 #endif
@@ -6963,7 +8148,7 @@ check_dbra_loop (loop_end, insn_count, loop_start)
                  nonneg = 1;
                  cmp_code = GE;
                }
-             else if (add_val == 1 && vtop
+             else if (add_val == 1 && loop_info->vtop
                       && (bl->biv_count == 0
                           || no_use_except_counting))
                {
@@ -7029,10 +8214,12 @@ check_dbra_loop (loop_end, insn_count, loop_start)
                  enum machine_mode mode = GET_MODE (reg);
                  enum insn_code icode
                    = add_optab->handlers[(int) mode].insn_code;
-                 if (! (*insn_operand_predicate[icode][0]) (reg, mode)
-                     || ! ((*insn_operand_predicate[icode][1])
+
+                 if (! (*insn_data[icode].operand[0].predicate) (reg, mode)
+                     || ! ((*insn_data[icode].operand[1].predicate)
                            (comparison_value, mode))
-                     || ! (*insn_operand_predicate[icode][2]) (offset, mode))
+                     || ! ((*insn_data[icode].operand[2].predicate)
+                           (offset, mode)))
                    return 0;
                  start_value
                    = gen_rtx_PLUS (mode, comparison_value, offset);
@@ -7048,10 +8235,10 @@ check_dbra_loop (loop_end, insn_count, loop_start)
                  enum machine_mode mode = GET_MODE (reg);
                  enum insn_code icode
                    = sub_optab->handlers[(int) mode].insn_code;
-                 if (! (*insn_operand_predicate[icode][0]) (reg, mode)
-                     || ! ((*insn_operand_predicate[icode][1])
+                 if (! (*insn_data[icode].operand[0].predicate) (reg, mode)
+                     || ! ((*insn_data[icode].operand[1].predicate)
                            (comparison_value, mode))
-                     || ! ((*insn_operand_predicate[icode][2])
+                     || ! ((*insn_data[icode].operand[2].predicate)
                            (initial_value, mode)))
                    return 0;
                  start_value
@@ -7080,6 +8267,15 @@ check_dbra_loop (loop_end, insn_count, loop_start)
              bl->initial_value = start_value;
              bl->biv->add_val = new_add_val;
 
+             /* Update loop info.  */
+             loop_info->initial_value = reg;
+             loop_info->initial_equiv_value = reg;
+             loop_info->final_value = const0_rtx;
+             loop_info->final_equiv_value = const0_rtx;
+             loop_info->comparison_value = const0_rtx;
+             loop_info->comparison_code = cmp_code;
+             loop_info->increment = new_add_val;
+
              /* Inc LABEL_NUSES so that delete_insn will
                 not delete the label.  */
              LABEL_NUSES (XEXP (jump_label, 0)) ++;
@@ -7099,10 +8295,9 @@ check_dbra_loop (loop_end, insn_count, loop_start)
 
              /* Add new compare/branch insn at end of loop.  */
              start_sequence ();
-             emit_cmp_insn (reg, const0_rtx, cmp_code, NULL_RTX,
-                            GET_MODE (reg), 0, 0);
-             emit_jump_insn ((*bcc_gen_fctn[(int) cmp_code])
-                             (XEXP (jump_label, 0)));
+             emit_cmp_and_jump_insns (reg, const0_rtx, cmp_code, NULL_RTX,
+                                      GET_MODE (reg), 0, 0, 
+                                      XEXP (jump_label, 0));
              tem = gen_sequence ();
              end_sequence ();
              emit_jump_insn_before (tem, loop_end);
@@ -7128,6 +8323,40 @@ check_dbra_loop (loop_end, insn_count, loop_start)
                  bl->nonneg = 1;
                }
 
+             /* No insn may reference both the reversed and another biv or it
+                will fail (see comment near the top of the loop reversal
+                code).
+                Earlier on, we have verified that the biv has no use except
+                counting, or it is the only biv in this function.
+                However, the code that computes no_use_except_counting does
+                not verify reg notes.  It's possible to have an insn that
+                references another biv, and has a REG_EQUAL note with an
+                expression based on the reversed biv.  To avoid this case,
+                remove all REG_EQUAL notes based on the reversed biv
+                here.  */
+             for (p = loop_start; p != loop_end; p = NEXT_INSN (p))
+               if (GET_RTX_CLASS (GET_CODE (p)) == 'i')
+                 {
+                   rtx *pnote;
+                   rtx set = single_set (p);
+                   /* If this is a set of a GIV based on the reversed biv, any
+                      REG_EQUAL notes should still be correct.  */
+                   if (! set
+                       || GET_CODE (SET_DEST (set)) != REG
+                       || (size_t) REGNO (SET_DEST (set)) >= reg_iv_type->num_elements
+                       || REG_IV_TYPE (REGNO (SET_DEST (set))) != GENERAL_INDUCT
+                       || REG_IV_INFO (REGNO (SET_DEST (set)))->src_reg != bl->biv->src_reg)
+                     for (pnote = &REG_NOTES (p); *pnote;)
+                       {
+                         if (REG_NOTE_KIND (*pnote) == REG_EQUAL
+                             && reg_mentioned_p (regno_reg_rtx[bl->regno],
+                                                 XEXP (*pnote, 0)))
+                           *pnote = XEXP (*pnote, 1);
+                         else
+                           pnote = &XEXP (*pnote, 1);
+                       }
+                 }
+
              /* Mark that this biv has been reversed.  Each giv which depends
                 on this biv, and which is also live past the end of the loop
                 will have to be fixed up.  */
@@ -7135,8 +8364,13 @@ check_dbra_loop (loop_end, insn_count, loop_start)
              bl->reversed = 1;
 
              if (loop_dump_stream)
-               fprintf (loop_dump_stream,
-                        "Reversed loop and added reg_nonneg\n");
+               {
+                 fprintf (loop_dump_stream, "Reversed loop");
+                 if (bl->nonneg)
+                   fprintf (loop_dump_stream, " and added reg_nonneg\n");
+                 else
+                   fprintf (loop_dump_stream, "\n");
+               }
 
              return 1;
            }
@@ -7175,6 +8409,27 @@ maybe_eliminate_biv (bl, loop_start, end, eliminate_p, threshold, insn_count)
       enum rtx_code code = GET_CODE (p);
       rtx where = threshold >= insn_count ? loop_start : p;
 
+      /* If this is a libcall that sets a giv, skip ahead to its end.  */
+      if (GET_RTX_CLASS (code) == 'i')
+       {
+         rtx note = find_reg_note (p, REG_LIBCALL, NULL_RTX);
+
+         if (note)
+           {
+             rtx last = XEXP (note, 0);
+             rtx set = single_set (last);
+
+             if (set && GET_CODE (SET_DEST (set)) == REG)
+               {
+                 int regno = REGNO (SET_DEST (set));
+
+                 if (regno < max_reg_before_loop
+                     && REG_IV_TYPE (regno) == GENERAL_INDUCT
+                     && REG_IV_INFO (regno)->src_reg == bl->biv->src_reg)
+                   p = last;
+               }
+           }
+       }
       if ((code == INSN || code == JUMP_INSN || code == CALL_INSN)
          && reg_mentioned_p (reg, PATTERN (p))
          && ! maybe_eliminate_biv_1 (PATTERN (p), p, bl, eliminate_p, where))
@@ -7198,6 +8453,78 @@ maybe_eliminate_biv (bl, loop_start, end, eliminate_p, threshold, insn_count)
   return 0;
 }
 \f
+/* INSN and REFERENCE are instructions in the same insn chain.
+   Return non-zero if INSN is first.  */
+
+int
+loop_insn_first_p (insn, reference)
+     rtx insn, reference;
+{
+  rtx p, q;
+
+  for (p = insn, q = reference; ;)
+    {
+      /* Start with test for not first so that INSN == REFERENCE yields not
+         first.  */
+      if (q == insn || ! p)
+        return 0;
+      if (p == reference || ! q)
+        return 1;
+
+      /* Either of P or Q might be a NOTE.  Notes have the same LUID as the
+         previous insn, hence the <= comparison below does not work if
+        P is a note.  */
+      if (INSN_UID (p) < max_uid_for_loop
+         && INSN_UID (q) < max_uid_for_loop
+         && GET_CODE (p) != NOTE)
+       return INSN_LUID (p) <= INSN_LUID (q);
+
+      if (INSN_UID (p) >= max_uid_for_loop
+         || GET_CODE (p) == NOTE)
+       p = NEXT_INSN (p);
+      if (INSN_UID (q) >= max_uid_for_loop)
+       q = NEXT_INSN (q);
+    }
+}
+
+/* We are trying to eliminate BIV in INSN using GIV.  Return non-zero if
+   the offset that we have to take into account due to auto-increment /
+   div derivation is zero.  */
+static int
+biv_elimination_giv_has_0_offset (biv, giv, insn)
+     struct induction *biv, *giv;
+     rtx insn;
+{
+  /* If the giv V had the auto-inc address optimization applied
+     to it, and INSN occurs between the giv insn and the biv
+     insn, then we'd have to adjust the value used here.
+     This is rare, so we don't bother to make this possible.  */
+  if (giv->auto_inc_opt
+      && ((loop_insn_first_p (giv->insn, insn)
+          && loop_insn_first_p (insn, biv->insn))
+         || (loop_insn_first_p (biv->insn, insn)
+             && loop_insn_first_p (insn, giv->insn))))
+    return 0;
+
+  /* If the giv V was derived from another giv, and INSN does
+     not occur between the giv insn and the biv insn, then we'd
+     have to adjust the value used here.  This is rare, so we don't
+     bother to make this possible.  */
+  if (giv->derived_from
+      && ! (giv->always_executed
+           && loop_insn_first_p (giv->insn, insn)
+           && loop_insn_first_p (insn, biv->insn)))
+    return 0;
+  if (giv->same
+      && giv->same->derived_from
+      && ! (giv->same->always_executed
+           && loop_insn_first_p (giv->same->insn, insn)
+           && loop_insn_first_p (insn, biv->insn)))
+    return 0;
+
+  return 1;
+}
+
 /* If BL appears in X (part of the pattern of INSN), see if we can
    eliminate its use.  If so, return 1.  If not, return 0.
 
@@ -7224,7 +8551,7 @@ maybe_eliminate_biv_1 (x, insn, bl, eliminate_p, where)
   rtx new;
 #endif
   int arg_operand;
-  char *fmt;
+  const char *fmt;
   int i, j;
 
   switch (code)
@@ -7263,15 +8590,7 @@ maybe_eliminate_biv_1 (x, insn, bl, eliminate_p, where)
                && v->mode == mode
                && 0)
              {
-               /* If the giv V had the auto-inc address optimization applied
-                  to it, and INSN occurs between the giv insn and the biv
-                  insn, then we must adjust the value used here.
-                  This is rare, so we don't bother to do so.  */
-               if (v->auto_inc_opt
-                   && ((INSN_LUID (v->insn) < INSN_LUID (insn)
-                        && INSN_LUID (insn) < INSN_LUID (bl->biv->insn))
-                       || (INSN_LUID (v->insn) > INSN_LUID (insn)
-                           && INSN_LUID (insn) > INSN_LUID (bl->biv->insn))))
+               if (! biv_elimination_giv_has_0_offset (bl->biv, v, insn))
                  continue;
 
                if (! eliminate_p)
@@ -7306,15 +8625,7 @@ maybe_eliminate_biv_1 (x, insn, bl, eliminate_p, where)
                    || (GET_CODE (v->add_val) == REG
                        && REGNO_POINTER_FLAG (REGNO (v->add_val)))))
              {
-               /* If the giv V had the auto-inc address optimization applied
-                  to it, and INSN occurs between the giv insn and the biv
-                  insn, then we must adjust the value used here.
-                  This is rare, so we don't bother to do so.  */
-               if (v->auto_inc_opt
-                   && ((INSN_LUID (v->insn) < INSN_LUID (insn)
-                        && INSN_LUID (insn) < INSN_LUID (bl->biv->insn))
-                       || (INSN_LUID (v->insn) > INSN_LUID (insn)
-                           && INSN_LUID (insn) > INSN_LUID (bl->biv->insn))))
+               if (! biv_elimination_giv_has_0_offset (bl->biv, v, insn))
                  continue;
 
                if (! eliminate_p)
@@ -7379,15 +8690,7 @@ maybe_eliminate_biv_1 (x, insn, bl, eliminate_p, where)
                && ! v->ignore && ! v->maybe_dead && v->always_computable
                && v->mode == mode)
              {
-               /* If the giv V had the auto-inc address optimization applied
-                  to it, and INSN occurs between the giv insn and the biv
-                  insn, then we must adjust the value used here.
-                  This is rare, so we don't bother to do so.  */
-               if (v->auto_inc_opt
-                   && ((INSN_LUID (v->insn) < INSN_LUID (insn)
-                        && INSN_LUID (insn) < INSN_LUID (bl->biv->insn))
-                       || (INSN_LUID (v->insn) > INSN_LUID (insn)
-                           && INSN_LUID (insn) > INSN_LUID (bl->biv->insn))))
+               if (! biv_elimination_giv_has_0_offset (bl->biv, v, insn))
                  continue;
 
                if (! eliminate_p)
@@ -7430,15 +8733,7 @@ maybe_eliminate_biv_1 (x, insn, bl, eliminate_p, where)
              {
                rtx tem;
 
-               /* If the giv V had the auto-inc address optimization applied
-                  to it, and INSN occurs between the giv insn and the biv
-                  insn, then we must adjust the value used here.
-                  This is rare, so we don't bother to do so.  */
-               if (v->auto_inc_opt
-                   && ((INSN_LUID (v->insn) < INSN_LUID (insn)
-                        && INSN_LUID (insn) < INSN_LUID (bl->biv->insn))
-                       || (INSN_LUID (v->insn) > INSN_LUID (insn)
-                           && INSN_LUID (insn) > INSN_LUID (bl->biv->insn))))
+               if (! biv_elimination_giv_has_0_offset (bl->biv, v, insn))
                  continue;
 
                if (! eliminate_p)
@@ -7474,15 +8769,7 @@ maybe_eliminate_biv_1 (x, insn, bl, eliminate_p, where)
                  {
                    rtx tem;
 
-                   /* If the giv V had the auto-inc address optimization applied
-                      to it, and INSN occurs between the giv insn and the biv
-                      insn, then we must adjust the value used here.
-                      This is rare, so we don't bother to do so.  */
-                   if (v->auto_inc_opt
-                       && ((INSN_LUID (v->insn) < INSN_LUID (insn)
-                            && INSN_LUID (insn) < INSN_LUID (bl->biv->insn))
-                           || (INSN_LUID (v->insn) > INSN_LUID (insn)
-                               && INSN_LUID (insn) > INSN_LUID (bl->biv->insn))))
+                   if (! biv_elimination_giv_has_0_offset (bl->biv, v, insn))
                      continue;
 
                    if (! eliminate_p)
@@ -7518,7 +8805,7 @@ maybe_eliminate_biv_1 (x, insn, bl, eliminate_p, where)
 #if 0
          /* Otherwise the reg compared with had better be a biv.  */
          if (GET_CODE (arg) != REG
-             || reg_iv_type[REGNO (arg)] != BASIC_INDUCT)
+             || REG_IV_TYPE (REGNO (arg)) != BASIC_INDUCT)
            return 0;
 
          /* Look for a pair of givs, one for each biv,
@@ -7536,15 +8823,7 @@ maybe_eliminate_biv_1 (x, insn, bl, eliminate_p, where)
                    && rtx_equal_p (tv->add_val, v->add_val)
                    && tv->mode == mode)
                  {
-                   /* If the giv V had the auto-inc address optimization applied
-                      to it, and INSN occurs between the giv insn and the biv
-                      insn, then we must adjust the value used here.
-                      This is rare, so we don't bother to do so.  */
-                   if (v->auto_inc_opt
-                       && ((INSN_LUID (v->insn) < INSN_LUID (insn)
-                            && INSN_LUID (insn) < INSN_LUID (bl->biv->insn))
-                           || (INSN_LUID (v->insn) > INSN_LUID (insn)
-                               && INSN_LUID (insn) > INSN_LUID (bl->biv->insn))))
+                   if (! biv_elimination_giv_has_0_offset (bl->biv, v, insn))
                      continue;
 
                    if (! eliminate_p)
@@ -7631,7 +8910,7 @@ record_initial (dest, set)
 
   if (GET_CODE (dest) != REG
       || REGNO (dest) >= max_reg_before_loop
-      || reg_iv_type[REGNO (dest)] != BASIC_INDUCT)
+      || REG_IV_TYPE (REGNO (dest)) != BASIC_INDUCT)
     return;
 
   bl = reg_biv_class[REGNO (dest)];
@@ -7665,7 +8944,7 @@ update_reg_last_use (x, insn)
   else
     {
       register int i, j;
-      register char *fmt = GET_RTX_FORMAT (GET_CODE (x));
+      register const char *fmt = GET_RTX_FORMAT (GET_CODE (x));
       for (i = GET_RTX_LENGTH (GET_CODE (x)) - 1; i >= 0; i--)
        {
          if (fmt[i] == 'e')
@@ -7965,8 +9244,9 @@ get_condition_for_loop (x)
  */
 
 static void
-insert_bct (loop_start, loop_end)
+insert_bct (loop_start, loop_end, loop_info)
      rtx loop_start, loop_end;
+     struct loop_info *loop_info;
 {
   int i;
   unsigned HOST_WIDE_INT n_iterations;
@@ -7982,7 +9262,7 @@ insert_bct (loop_start, loop_end)
   int loop_num = uid_loop_num [INSN_UID (loop_start)];
 
   /* It's impossible to instrument a competely unrolled loop.  */
-  if (loop_unroll_factor [loop_num] == -1)
+  if (loop_info->unroll_number == loop_info->n_iterations)
     return;
 
   /* Make sure that the count register is not in use.  */
@@ -8019,7 +9299,7 @@ insert_bct (loop_start, loop_end)
 
   /* Make sure that the loop does not contain a function call
      (the count register might be altered by the called function).  */
-  if (loop_has_call)
+  if (loop_info->has_call)
     {
       if (loop_dump_stream)
        fprintf (loop_dump_stream,
@@ -8030,7 +9310,7 @@ insert_bct (loop_start, loop_end)
 
   /* Make sure that the loop does not jump via a table.
      (the count register might be used to perform the branch on table).  */
-  if (loop_has_tablejump)
+  if (loop_info->has_tablejump)
     {
       if (loop_dump_stream)
        fprintf (loop_dump_stream,
@@ -8040,10 +9320,10 @@ insert_bct (loop_start, loop_end)
     }
 
   /* Account for loop unrolling in instrumented iteration count.  */
-  if (loop_unroll_factor [loop_num] > 1)
-    n_iterations = loop_n_iterations / loop_unroll_factor [loop_num];
+  if (loop_info->unroll_number > 1)
+    n_iterations = loop_info->n_iterations / loop_info->unroll_number;
   else
-    n_iterations = loop_n_iterations;
+    n_iterations = loop_info->n_iterations;
 
   if (n_iterations != 0 && n_iterations < 3)
     {
@@ -8071,7 +9351,7 @@ insert_bct (loop_start, loop_end)
      at compile time.  In this case we generate run_time calculation
      of the number of iterations.  */
 
-  if (loop_iteration_var == 0)
+  if (loop_info->iteration_var == 0)
     {
       if (loop_dump_stream)
        fprintf (loop_dump_stream,
@@ -8080,8 +9360,8 @@ insert_bct (loop_start, loop_end)
       return;
     }
 
-  if (GET_MODE_CLASS (GET_MODE (loop_iteration_var)) != MODE_INT
-      || GET_MODE_SIZE (GET_MODE (loop_iteration_var)) != UNITS_PER_WORD)
+  if (GET_MODE_CLASS (GET_MODE (loop_info->iteration_var)) != MODE_INT
+      || GET_MODE_SIZE (GET_MODE (loop_info->iteration_var)) != UNITS_PER_WORD)
     {
       if (loop_dump_stream)
        fprintf (loop_dump_stream,
@@ -8091,7 +9371,7 @@ insert_bct (loop_start, loop_end)
     }
 
   /* With runtime bounds, if the compare is of the form '!=' we give up */
-  if (loop_comparison_code == NE)
+  if (loop_info->comparison_code == NE)
     {
       if (loop_dump_stream)
        fprintf (loop_dump_stream,
@@ -8155,19 +9435,10 @@ insert_bct (loop_start, loop_end)
                                   NULL_RTX, 0, OPTAB_LIB_WIDEN);
 
        if (increment_value_abs != 1)
-         {
-           /* ??? This will generate an expensive divide instruction for
-              most targets.  The original authors apparently expected this
-              to be a shift, since they test for power-of-2 divisors above,
-              but just naively generating a divide instruction will not give 
-              a shift.  It happens to work for the PowerPC target because
-              the rs6000.md file has a divide pattern that emits shifts.
-              It will probably not work for any other target.  */
-           iterations_num_reg = expand_binop (loop_var_mode, sdiv_optab,
-                                              temp_reg,
-                                              GEN_INT (increment_value_abs),
-                                              NULL_RTX, 0, OPTAB_LIB_WIDEN);
-         }
+         iterations_num_reg = expand_binop (loop_var_mode, asr_optab,
+                                            temp_reg,
+                                            GEN_INT (exact_log2 (increment_value_abs)),
+                                            NULL_RTX, 0, OPTAB_LIB_WIDEN);
        else
          iterations_num_reg = temp_reg;
       }
@@ -8328,25 +9599,24 @@ insert_loop_mem (mem, data)
   return 0;
 }
 
-/* Like load_mems, but also ensures that N_TIMES_SET,
+/* Like load_mems, but also ensures that SET_IN_LOOP,
    MAY_NOT_OPTIMIZE, REG_SINGLE_USAGE, and INSN_COUNT have the correct
    values after load_mems.  */
 
 static void
 load_mems_and_recount_loop_regs_set (scan_start, end, loop_top, start,
-                                    reg_single_usage, insn_count)
+                                    insn_count)
      rtx scan_start;
      rtx end;
      rtx loop_top;
      rtx start;
-     varray_type reg_single_usage;
      int *insn_count;
 {
   int nregs = max_reg_num ();
 
   load_mems (scan_start, end, loop_top, start);
   
-  /* Recalculate n_times_set and friends since load_mems may have
+  /* Recalculate set_in_loop and friends since load_mems may have
      created new registers.  */
   if (max_reg_num () > nregs)
     {
@@ -8356,20 +9626,18 @@ load_mems_and_recount_loop_regs_set (scan_start, end, loop_top, start,
       old_nregs = nregs;
       nregs = max_reg_num ();
 
-      if ((unsigned) nregs > n_times_set->num_elements)
+      if ((unsigned) nregs > set_in_loop->num_elements)
        {
          /* Grow all the arrays.  */
+         VARRAY_GROW (set_in_loop, nregs);
          VARRAY_GROW (n_times_set, nregs);
-         VARRAY_GROW (n_times_used, nregs);
          VARRAY_GROW (may_not_optimize, nregs);
-         if (reg_single_usage)
-           VARRAY_GROW (reg_single_usage, nregs);
+         VARRAY_GROW (reg_single_usage, nregs);
        }
       /* Clear the arrays */
-      bzero ((char *) &n_times_set->data, nregs * sizeof (int));
+      bzero ((char *) &set_in_loop->data, nregs * sizeof (int));
       bzero ((char *) &may_not_optimize->data, nregs * sizeof (char));
-      if (reg_single_usage)
-       bzero ((char *) &reg_single_usage->data, nregs * sizeof (rtx));
+      bzero ((char *) &reg_single_usage->data, nregs * sizeof (rtx));
 
       count_loop_regs_set (loop_top ? loop_top : start, end,
                           may_not_optimize, reg_single_usage,
@@ -8378,7 +9646,7 @@ load_mems_and_recount_loop_regs_set (scan_start, end, loop_top, start,
       for (i = 0; i < FIRST_PSEUDO_REGISTER; i++)
        {
          VARRAY_CHAR (may_not_optimize, i) = 1;
-         VARRAY_INT (n_times_set, i) = 1;
+         VARRAY_INT (set_in_loop, i) = 1;
        }
       
 #ifdef AVOID_CCMODE_COPIES
@@ -8389,9 +9657,9 @@ load_mems_and_recount_loop_regs_set (scan_start, end, loop_top, start,
          VARRAY_CHAR (may_not_optimize, i) = 1;
 #endif
 
-      /* Set n_times_used for the new registers.  */
-      bcopy ((char *) (&n_times_set->data.i[0] + old_nregs),
-            (char *) (&n_times_used->data.i[0] + old_nregs),
+      /* Set n_times_set for the new registers.  */
+      bcopy ((char *) (&set_in_loop->data.i[0] + old_nregs),
+            (char *) (&n_times_set->data.i[0] + old_nregs),
             (nregs - old_nregs) * sizeof (int));
     }
 }
@@ -8411,7 +9679,7 @@ load_mems (scan_start, end, loop_top, start)
   int i;
   rtx p;
   rtx label = NULL_RTX;
-  rtx end_label;
+  rtx end_label = NULL_RTX;
 
   if (loop_mems_idx > 0) 
     {
@@ -8453,10 +9721,10 @@ load_mems (scan_start, end, loop_top, start)
       /* Actually move the MEMs.  */
       for (i = 0; i < loop_mems_idx; ++i) 
        {
-         int j;
          int written = 0;
          rtx reg;
          rtx mem = loop_mems[i].mem;
+         rtx mem_list_entry;
 
          if (MEM_VOLATILE_P (mem) 
              || invariant_p (XEXP (mem, 0)) != 1)
@@ -8465,17 +9733,19 @@ load_mems (scan_start, end, loop_top, start)
 
          /* Go through the MEMs written to in the loop to see if this
             one is aliased by one of them.  */
-         for (j = 0; j < loop_store_mems_idx; ++j) 
+         mem_list_entry = loop_store_mems;
+         while (mem_list_entry)
            {
-             if (rtx_equal_p (mem, loop_store_mems[j]))
+             if (rtx_equal_p (mem, XEXP (mem_list_entry, 0)))
                written = 1;
-             else if (true_dependence (loop_store_mems[j], VOIDmode,
+             else if (true_dependence (XEXP (mem_list_entry, 0), VOIDmode,
                                        mem, rtx_varies_p))
                {
                  /* MEM is indeed aliased by this store.  */
                  loop_mems[i].optimize = 0;
                  break;
                }
+             mem_list_entry = XEXP (mem_list_entry, 1);
            }
          
          /* If this MEM is written to, we must be sure that there
@@ -8541,7 +9811,7 @@ load_mems (scan_start, end, loop_top, start)
 
              /* Load the memory immediately before START, which is
                 the NOTE_LOOP_BEG.  */
-             set = gen_rtx_SET (GET_MODE (reg), reg, mem);
+             set = gen_move_insn (reg, mem);
              emit_insn_before (set, start);
 
              if (written)
@@ -8558,7 +9828,7 @@ load_mems (scan_start, end, loop_top, start)
 
                  /* Store the memory immediately after END, which is
                   the NOTE_LOOP_END.  */
-                 set = gen_rtx_SET (GET_MODE (reg), copy_rtx (mem), reg); 
+                 set = gen_move_insn (copy_rtx (mem), reg); 
                  emit_insn_after (set, label);
                }