passes.c (rest_of_handle_gcse): Remove dead assignments to tem and tem2.
[platform/upstream/gcc.git] / gcc / passes.c
1 /* Top level of GCC compilers (cc1, cc1plus, etc.)
2    Copyright (C) 1987, 1988, 1989, 1992, 1993, 1994, 1995, 1996, 1997, 1998,
3    1999, 2000, 2001, 2002, 2003, 2004, 2005 Free Software Foundation, Inc.
4
5 This file is part of GCC.
6
7 GCC is free software; you can redistribute it and/or modify it under
8 the terms of the GNU General Public License as published by the Free
9 Software Foundation; either version 2, or (at your option) any later
10 version.
11
12 GCC is distributed in the hope that it will be useful, but WITHOUT ANY
13 WARRANTY; without even the implied warranty of MERCHANTABILITY or
14 FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License
15 for more details.
16
17 You should have received a copy of the GNU General Public License
18 along with GCC; see the file COPYING.  If not, write to the Free
19 Software Foundation, 59 Temple Place - Suite 330, Boston, MA
20 02111-1307, USA.  */
21
22 /* This is the top level of cc1/c++.
23    It parses command args, opens files, invokes the various passes
24    in the proper order, and counts the time used by each.
25    Error messages and low-level interface to malloc also handled here.  */
26
27 #include "config.h"
28 #undef FLOAT /* This is for hpux. They should change hpux.  */
29 #undef FFS  /* Some systems define this in param.h.  */
30 #include "system.h"
31 #include "coretypes.h"
32 #include "tm.h"
33 #include <signal.h>
34
35 #ifdef HAVE_SYS_RESOURCE_H
36 # include <sys/resource.h>
37 #endif
38
39 #ifdef HAVE_SYS_TIMES_H
40 # include <sys/times.h>
41 #endif
42
43 #include "line-map.h"
44 #include "input.h"
45 #include "tree.h"
46 #include "rtl.h"
47 #include "tm_p.h"
48 #include "flags.h"
49 #include "insn-attr.h"
50 #include "insn-config.h"
51 #include "insn-flags.h"
52 #include "hard-reg-set.h"
53 #include "recog.h"
54 #include "output.h"
55 #include "except.h"
56 #include "function.h"
57 #include "toplev.h"
58 #include "expr.h"
59 #include "basic-block.h"
60 #include "intl.h"
61 #include "ggc.h"
62 #include "graph.h"
63 #include "regs.h"
64 #include "timevar.h"
65 #include "diagnostic.h"
66 #include "params.h"
67 #include "reload.h"
68 #include "dwarf2asm.h"
69 #include "integrate.h"
70 #include "real.h"
71 #include "debug.h"
72 #include "target.h"
73 #include "langhooks.h"
74 #include "cfglayout.h"
75 #include "cfgloop.h"
76 #include "hosthooks.h"
77 #include "cgraph.h"
78 #include "opts.h"
79 #include "coverage.h"
80 #include "value-prof.h"
81 #include "alloc-pool.h"
82 #include "tree-pass.h"
83 #include "tree-dump.h"
84
85 #if defined (DWARF2_UNWIND_INFO) || defined (DWARF2_DEBUGGING_INFO)
86 #include "dwarf2out.h"
87 #endif
88
89 #if defined (DBX_DEBUGGING_INFO) || defined (XCOFF_DEBUGGING_INFO)
90 #include "dbxout.h"
91 #endif
92
93 #ifdef SDB_DEBUGGING_INFO
94 #include "sdbout.h"
95 #endif
96
97 #ifdef XCOFF_DEBUGGING_INFO
98 #include "xcoffout.h"           /* Needed for external data
99                                    declarations for e.g. AIX 4.x.  */
100 #endif
101
102 #ifndef HAVE_conditional_execution
103 #define HAVE_conditional_execution 0
104 #endif
105
106 /* Format to use to print dumpfile index value */
107 #ifndef DUMPFILE_FORMAT
108 #define DUMPFILE_FORMAT ".%02d."
109 #endif
110
111 static int initializing_dump = 0;
112
113 /* Routine to open a dump file.  Return true if the dump file is enabled.  */
114
115 static int
116 open_dump_file (enum tree_dump_index index, tree decl)
117 {
118   if (! dump_enabled_p (index))
119     return 0;
120
121   timevar_push (TV_DUMP);
122
123   if (dump_file != NULL || dump_file_name != NULL)
124     abort ();
125
126   dump_file_name = get_dump_file_name (index);
127   initializing_dump = !dump_initialized_p (index);
128   dump_file = dump_begin (index, NULL);
129
130   if (dump_file == NULL)
131     fatal_error ("can't open %s: %m", dump_file_name);
132
133   if (decl)
134     fprintf (dump_file, "\n;; Function %s%s\n\n",
135              lang_hooks.decl_printable_name (decl, 2),
136              cfun->function_frequency == FUNCTION_FREQUENCY_HOT
137              ? " (hot)"
138              : cfun->function_frequency == FUNCTION_FREQUENCY_UNLIKELY_EXECUTED
139              ? " (unlikely executed)"
140              : "");
141
142   timevar_pop (TV_DUMP);
143   return 1;
144 }
145
146 /* Routine to close a dump file.  */
147
148 static void
149 close_dump_file (enum tree_dump_index index,
150                  void (*func) (FILE *, rtx),
151                  rtx insns)
152 {
153   if (! dump_file)
154     return;
155
156   timevar_push (TV_DUMP);
157   if (insns
158       && graph_dump_format != no_graph)
159     {
160       /* If we've not initialized the files, do so now.  */
161       if (initializing_dump)
162         clean_graph_dump_file (dump_file_name);
163
164       print_rtl_graph_with_bb (dump_file_name, insns);
165     }
166
167   if (func && insns)
168     func (dump_file, insns);
169
170   dump_end (index, dump_file);
171   free ((char *) dump_file_name);
172
173   dump_file = NULL;
174   dump_file_name = NULL;
175   timevar_pop (TV_DUMP);
176 }
177
178 /* This is called from various places for FUNCTION_DECL, VAR_DECL,
179    and TYPE_DECL nodes.
180
181    This does nothing for local (non-static) variables, unless the
182    variable is a register variable with DECL_ASSEMBLER_NAME set.  In
183    that case, or if the variable is not an automatic, it sets up the
184    RTL and outputs any assembler code (label definition, storage
185    allocation and initialization).
186
187    DECL is the declaration.  TOP_LEVEL is nonzero
188    if this declaration is not within a function.  */
189
190 void
191 rest_of_decl_compilation (tree decl,
192                           int top_level,
193                           int at_end)
194 {
195   /* We deferred calling assemble_alias so that we could collect
196      other attributes such as visibility.  Emit the alias now.  */
197   {
198     tree alias;
199     alias = lookup_attribute ("alias", DECL_ATTRIBUTES (decl));
200     if (alias)
201       {
202         alias = TREE_VALUE (TREE_VALUE (alias));
203         alias = get_identifier (TREE_STRING_POINTER (alias));
204         assemble_alias (decl, alias);
205       }
206   }
207
208   /* Can't defer this, because it needs to happen before any
209      later function definitions are processed.  */
210   if (DECL_REGISTER (decl) && DECL_ASSEMBLER_NAME_SET_P (decl))
211     make_decl_rtl (decl);
212
213   /* Forward declarations for nested functions are not "external",
214      but we need to treat them as if they were.  */
215   if (TREE_STATIC (decl) || DECL_EXTERNAL (decl)
216       || TREE_CODE (decl) == FUNCTION_DECL)
217     {
218       timevar_push (TV_VARCONST);
219
220       /* Don't output anything when a tentative file-scope definition
221          is seen.  But at end of compilation, do output code for them.
222
223          We do output all variables when unit-at-a-time is active and rely on
224          callgraph code to defer them except for forward declarations
225          (see gcc.c-torture/compile/920624-1.c) */
226       if ((at_end
227            || !DECL_DEFER_OUTPUT (decl)
228            || (flag_unit_at_a_time && DECL_INITIAL (decl)))
229           && !DECL_EXTERNAL (decl))
230         {
231           if (flag_unit_at_a_time && !cgraph_global_info_ready
232               && TREE_CODE (decl) != FUNCTION_DECL && top_level)
233             cgraph_varpool_finalize_decl (decl);
234           else
235             assemble_variable (decl, top_level, at_end, 0);
236         }
237
238 #ifdef ASM_FINISH_DECLARE_OBJECT
239       if (decl == last_assemble_variable_decl)
240         {
241           ASM_FINISH_DECLARE_OBJECT (asm_out_file, decl,
242                                      top_level, at_end);
243         }
244 #endif
245
246       timevar_pop (TV_VARCONST);
247     }
248   else if (TREE_CODE (decl) == TYPE_DECL)
249     {
250       timevar_push (TV_SYMOUT);
251       debug_hooks->type_decl (decl, !top_level);
252       timevar_pop (TV_SYMOUT);
253     }
254 }
255
256 /* Called after finishing a record, union or enumeral type.  */
257
258 void
259 rest_of_type_compilation (tree type, int toplev)
260 {
261   /* Avoid confusing the debug information machinery when there are
262      errors.  */
263   if (errorcount != 0 || sorrycount != 0)
264     return;
265
266   timevar_push (TV_SYMOUT);
267   debug_hooks->type_decl (TYPE_STUB_DECL (type), !toplev);
268   timevar_pop (TV_SYMOUT);
269 }
270
271 /* Turn the RTL into assembly.  */
272 static void
273 rest_of_handle_final (void)
274 {
275   timevar_push (TV_FINAL);
276   {
277     rtx x;
278     const char *fnname;
279
280     /* Get the function's name, as described by its RTL.  This may be
281        different from the DECL_NAME name used in the source file.  */
282
283     x = DECL_RTL (current_function_decl);
284     if (!MEM_P (x))
285       abort ();
286     x = XEXP (x, 0);
287     if (GET_CODE (x) != SYMBOL_REF)
288       abort ();
289     fnname = XSTR (x, 0);
290
291     assemble_start_function (current_function_decl, fnname);
292     final_start_function (get_insns (), asm_out_file, optimize);
293     final (get_insns (), asm_out_file, optimize, 0);
294     final_end_function ();
295
296 #ifdef TARGET_UNWIND_INFO
297     /* ??? The IA-64 ".handlerdata" directive must be issued before
298        the ".endp" directive that closes the procedure descriptor.  */
299     output_function_exception_table ();
300 #endif
301
302     assemble_end_function (current_function_decl, fnname);
303
304 #ifndef TARGET_UNWIND_INFO
305     /* Otherwise, it feels unclean to switch sections in the middle.  */
306     output_function_exception_table ();
307 #endif
308
309     user_defined_section_attribute = false;
310
311     if (! quiet_flag)
312       fflush (asm_out_file);
313
314     /* Release all memory allocated by flow.  */
315     free_basic_block_vars ();
316   }
317
318   /* Write DBX symbols if requested.  */
319
320   /* Note that for those inline functions where we don't initially
321      know for certain that we will be generating an out-of-line copy,
322      the first invocation of this routine (rest_of_compilation) will
323      skip over this code by doing a `goto exit_rest_of_compilation;'.
324      Later on, wrapup_global_declarations will (indirectly) call
325      rest_of_compilation again for those inline functions that need
326      to have out-of-line copies generated.  During that call, we
327      *will* be routed past here.  */
328
329   timevar_push (TV_SYMOUT);
330   (*debug_hooks->function_decl) (current_function_decl);
331   timevar_pop (TV_SYMOUT);
332
333   ggc_collect ();
334   timevar_pop (TV_FINAL);
335 }
336
337 #ifdef DELAY_SLOTS
338 /* Run delay slot optimization.  */
339 static void
340 rest_of_handle_delay_slots (void)
341 {
342   timevar_push (TV_DBR_SCHED);
343   open_dump_file (DFI_dbr, current_function_decl);
344
345   dbr_schedule (get_insns (), dump_file);
346
347   close_dump_file (DFI_dbr, print_rtl, get_insns ());
348
349   ggc_collect ();
350
351   timevar_pop (TV_DBR_SCHED);
352 }
353 #endif
354
355 #ifdef STACK_REGS
356 /* Convert register usage from flat register file usage to a stack
357    register file.  */
358 static void
359 rest_of_handle_stack_regs (void)
360 {
361 #if defined (HAVE_ATTR_length)
362   /* If flow2 creates new instructions which need splitting
363      and scheduling after reload is not done, they might not be
364      split until final which doesn't allow splitting
365      if HAVE_ATTR_length.  */
366 #ifdef INSN_SCHEDULING
367   if (optimize && !flag_schedule_insns_after_reload)
368 #else
369   if (optimize)
370 #endif
371     {
372       timevar_push (TV_SHORTEN_BRANCH);
373       split_all_insns (1);
374       timevar_pop (TV_SHORTEN_BRANCH);
375     }
376 #endif
377
378   timevar_push (TV_REG_STACK);
379   open_dump_file (DFI_stack, current_function_decl);
380
381   if (reg_to_stack (dump_file) && optimize)
382     {
383       if (cleanup_cfg (CLEANUP_EXPENSIVE | CLEANUP_POST_REGSTACK
384                        | (flag_crossjumping ? CLEANUP_CROSSJUMP : 0))
385           && (flag_reorder_blocks || flag_reorder_blocks_and_partition))
386         {
387           reorder_basic_blocks (0);
388           cleanup_cfg (CLEANUP_EXPENSIVE | CLEANUP_POST_REGSTACK);
389         }
390     }
391
392   close_dump_file (DFI_stack, print_rtl_with_bb, get_insns ());
393
394   ggc_collect ();
395   timevar_pop (TV_REG_STACK);
396 }
397 #endif
398
399 /* Track the variables, i.e. compute where the variable is stored at each position in function.  */
400 static void
401 rest_of_handle_variable_tracking (void)
402 {
403   timevar_push (TV_VAR_TRACKING);
404   open_dump_file (DFI_vartrack, current_function_decl);
405
406   variable_tracking_main ();
407
408   close_dump_file (DFI_vartrack, print_rtl_with_bb, get_insns ());
409   timevar_pop (TV_VAR_TRACKING);
410 }
411
412 /* Machine dependent reorg pass.  */
413 static void
414 rest_of_handle_machine_reorg (void)
415 {
416   timevar_push (TV_MACH_DEP);
417   open_dump_file (DFI_mach, current_function_decl);
418
419   targetm.machine_dependent_reorg ();
420
421   close_dump_file (DFI_mach, print_rtl, get_insns ());
422
423   ggc_collect ();
424   timevar_pop (TV_MACH_DEP);
425 }
426
427
428 /* Run old register allocator.  Return TRUE if we must exit
429    rest_of_compilation upon return.  */
430 static bool
431 rest_of_handle_old_regalloc (void)
432 {
433   int failure;
434   int rebuild_notes;
435
436   timevar_push (TV_LOCAL_ALLOC);
437   open_dump_file (DFI_lreg, current_function_decl);
438
439   /* Allocate the reg_renumber array.  */
440   allocate_reg_info (max_regno, FALSE, TRUE);
441
442   /* And the reg_equiv_memory_loc array.  */
443   VARRAY_GROW (reg_equiv_memory_loc_varray, max_regno);
444   reg_equiv_memory_loc = &VARRAY_RTX (reg_equiv_memory_loc_varray, 0);
445
446   allocate_initial_values (reg_equiv_memory_loc);
447
448   regclass (get_insns (), max_reg_num (), dump_file);
449   rebuild_notes = local_alloc ();
450
451   timevar_pop (TV_LOCAL_ALLOC);
452
453   /* Local allocation may have turned an indirect jump into a direct
454      jump.  If so, we must rebuild the JUMP_LABEL fields of jumping
455      instructions.  */
456   if (rebuild_notes)
457     {
458       timevar_push (TV_JUMP);
459
460       rebuild_jump_labels (get_insns ());
461       purge_all_dead_edges (0);
462       delete_unreachable_blocks ();
463
464       timevar_pop (TV_JUMP);
465     }
466
467   if (dump_enabled_p (DFI_lreg))
468     {
469       timevar_push (TV_DUMP);
470       dump_flow_info (dump_file);
471       dump_local_alloc (dump_file);
472       timevar_pop (TV_DUMP);
473     }
474
475   close_dump_file (DFI_lreg, print_rtl_with_bb, get_insns ());
476
477   ggc_collect ();
478
479   timevar_push (TV_GLOBAL_ALLOC);
480   open_dump_file (DFI_greg, current_function_decl);
481
482   /* If optimizing, allocate remaining pseudo-regs.  Do the reload
483      pass fixing up any insns that are invalid.  */
484
485   if (optimize)
486     failure = global_alloc (dump_file);
487   else
488     {
489       build_insn_chain (get_insns ());
490       failure = reload (get_insns (), 0);
491     }
492
493   if (dump_enabled_p (DFI_greg))
494     {
495       timevar_push (TV_DUMP);
496       dump_global_regs (dump_file);
497       timevar_pop (TV_DUMP);
498
499       close_dump_file (DFI_greg, print_rtl_with_bb, get_insns ());
500     }
501
502   ggc_collect ();
503
504   timevar_pop (TV_GLOBAL_ALLOC);
505
506   return failure;
507 }
508
509 /* Run the regrename and cprop passes.  */
510 static void
511 rest_of_handle_regrename (void)
512 {
513   timevar_push (TV_RENAME_REGISTERS);
514   open_dump_file (DFI_rnreg, current_function_decl);
515
516   if (flag_rename_registers)
517     regrename_optimize ();
518   if (flag_cprop_registers)
519     copyprop_hardreg_forward ();
520
521   close_dump_file (DFI_rnreg, print_rtl_with_bb, get_insns ());
522   timevar_pop (TV_RENAME_REGISTERS);
523 }
524
525 /* Reorder basic blocks.  */
526 static void
527 rest_of_handle_reorder_blocks (void)
528 {
529   bool changed;
530   unsigned int liveness_flags;
531
532   open_dump_file (DFI_bbro, current_function_decl);
533
534   /* Last attempt to optimize CFG, as scheduling, peepholing and insn
535      splitting possibly introduced more crossjumping opportunities.  */
536   liveness_flags = (!HAVE_conditional_execution ? CLEANUP_UPDATE_LIFE : 0);
537   changed = cleanup_cfg (CLEANUP_EXPENSIVE | liveness_flags);
538
539   if (flag_sched2_use_traces && flag_schedule_insns_after_reload)
540     tracer (liveness_flags);
541   if (flag_reorder_blocks || flag_reorder_blocks_and_partition)
542     reorder_basic_blocks (liveness_flags);
543   if (flag_reorder_blocks || flag_reorder_blocks_and_partition
544       || (flag_sched2_use_traces && flag_schedule_insns_after_reload))
545     changed |= cleanup_cfg (CLEANUP_EXPENSIVE | liveness_flags);
546
547   /* On conditional execution targets we can not update the life cheaply, so
548      we deffer the updating to after both cleanups.  This may lose some cases
549      but should not be terribly bad.  */
550   if (changed && HAVE_conditional_execution)
551     update_life_info (NULL, UPDATE_LIFE_GLOBAL_RM_NOTES,
552                       PROP_DEATH_NOTES);
553   close_dump_file (DFI_bbro, print_rtl_with_bb, get_insns ());
554 }
555
556 /* Partition hot and cold basic blocks.  */
557 static void
558 rest_of_handle_partition_blocks (void)
559 {
560   no_new_pseudos = 0;
561   partition_hot_cold_basic_blocks ();
562   allocate_reg_life_data ();
563   update_life_info (NULL, UPDATE_LIFE_GLOBAL_RM_NOTES, 
564                     PROP_LOG_LINKS | PROP_REG_INFO | PROP_DEATH_NOTES);
565   no_new_pseudos = 1;
566 }
567
568 #ifdef INSN_SCHEDULING
569 /* Run instruction scheduler.  */
570 /* Perform SMS module scheduling.  */
571 static void
572 rest_of_handle_sms (void)
573 {
574   timevar_push (TV_SMS);
575   open_dump_file (DFI_sms, current_function_decl);
576
577   /* We want to be able to create new pseudos.  */
578   no_new_pseudos = 0;
579   sms_schedule (dump_file);
580   close_dump_file (DFI_sms, print_rtl, get_insns ());
581
582
583   /* Update the life information, because we add pseudos.  */
584   max_regno = max_reg_num ();
585   allocate_reg_info (max_regno, FALSE, FALSE);
586   update_life_info_in_dirty_blocks (UPDATE_LIFE_GLOBAL_RM_NOTES,
587                                     (PROP_DEATH_NOTES
588                                      | PROP_KILL_DEAD_CODE
589                                      | PROP_SCAN_DEAD_CODE));
590   no_new_pseudos = 1;
591
592   ggc_collect ();
593   timevar_pop (TV_SMS);
594 }
595
596 /* Run instruction scheduler.  */
597 static void
598 rest_of_handle_sched (void)
599 {
600   timevar_push (TV_SCHED);
601
602   /* Print function header into sched dump now
603      because doing the sched analysis makes some of the dump.  */
604   open_dump_file (DFI_sched, current_function_decl);
605
606   /* Do control and data sched analysis,
607      and write some of the results to dump file.  */
608
609   schedule_insns (dump_file);
610
611   close_dump_file (DFI_sched, print_rtl_with_bb, get_insns ());
612
613   ggc_collect ();
614   timevar_pop (TV_SCHED);
615 }
616
617 /* Run second scheduling pass after reload.  */
618 static void
619 rest_of_handle_sched2 (void)
620 {
621   timevar_push (TV_SCHED2);
622   open_dump_file (DFI_sched2, current_function_decl);
623
624   /* Do control and data sched analysis again,
625      and write some more of the results to dump file.  */
626
627   split_all_insns (1);
628
629   if (flag_sched2_use_superblocks || flag_sched2_use_traces)
630     {
631       schedule_ebbs (dump_file);
632       /* No liveness updating code yet, but it should be easy to do.
633          reg-stack recomputes the liveness when needed for now.  */
634       count_or_remove_death_notes (NULL, 1);
635       cleanup_cfg (CLEANUP_EXPENSIVE);
636     }
637   else
638     schedule_insns (dump_file);
639
640   close_dump_file (DFI_sched2, print_rtl_with_bb, get_insns ());
641
642   ggc_collect ();
643
644   timevar_pop (TV_SCHED2);
645 }
646 #endif
647
648 static void
649 rest_of_handle_gcse2 (void)
650 {
651   timevar_push (TV_GCSE_AFTER_RELOAD);
652   open_dump_file (DFI_gcse2, current_function_decl);
653
654   gcse_after_reload_main (get_insns ());
655   rebuild_jump_labels (get_insns ());
656   delete_trivially_dead_insns (get_insns (), max_reg_num ());
657   close_dump_file (DFI_gcse2, print_rtl_with_bb, get_insns ());
658
659   ggc_collect ();
660
661 #ifdef ENABLE_CHECKING
662   verify_flow_info ();
663 #endif
664
665   timevar_pop (TV_GCSE_AFTER_RELOAD);
666 }
667
668 /* Register allocation pre-pass, to reduce number of moves necessary
669    for two-address machines.  */
670 static void
671 rest_of_handle_regmove (void)
672 {
673   timevar_push (TV_REGMOVE);
674   open_dump_file (DFI_regmove, current_function_decl);
675
676   regmove_optimize (get_insns (), max_reg_num (), dump_file);
677
678   cleanup_cfg (CLEANUP_EXPENSIVE | CLEANUP_UPDATE_LIFE);
679   close_dump_file (DFI_regmove, print_rtl_with_bb, get_insns ());
680
681   ggc_collect ();
682   timevar_pop (TV_REGMOVE);
683 }
684
685 /* Run tracer.  */
686 static void
687 rest_of_handle_tracer (void)
688 {
689   open_dump_file (DFI_tracer, current_function_decl);
690   if (dump_file)
691     dump_flow_info (dump_file);
692   tracer (0);
693   cleanup_cfg (CLEANUP_EXPENSIVE);
694   reg_scan (get_insns (), max_reg_num ());
695   close_dump_file (DFI_tracer, print_rtl_with_bb, get_insns ());
696 }
697
698 /* If-conversion and CFG cleanup.  */
699 static void
700 rest_of_handle_if_conversion (void)
701 {
702   timevar_push (TV_IFCVT);
703   open_dump_file (DFI_ce1, current_function_decl);
704
705   if (flag_if_conversion)
706     {
707       if (dump_file)
708         dump_flow_info (dump_file);
709       cleanup_cfg (CLEANUP_EXPENSIVE);
710       reg_scan (get_insns (), max_reg_num ());
711       if_convert (0);
712     }
713
714   timevar_push (TV_JUMP);
715   cleanup_cfg (CLEANUP_EXPENSIVE);
716   reg_scan (get_insns (), max_reg_num ());
717   timevar_pop (TV_JUMP);
718
719   close_dump_file (DFI_ce1, print_rtl_with_bb, get_insns ());
720   timevar_pop (TV_IFCVT);
721 }
722
723 /* Rerun if-conversion, as combine may have simplified things enough
724    to now meet sequence length restrictions.  */
725 static void
726 rest_of_handle_if_after_combine (void)
727 {
728   timevar_push (TV_IFCVT);
729   open_dump_file (DFI_ce2, current_function_decl);
730
731   no_new_pseudos = 0;
732   if_convert (1);
733   no_new_pseudos = 1;
734
735   close_dump_file (DFI_ce2, print_rtl_with_bb, get_insns ());
736   timevar_pop (TV_IFCVT);
737 }
738
739 static void
740 rest_of_handle_if_after_reload (void)
741 {
742   timevar_push (TV_IFCVT2);
743   open_dump_file (DFI_ce3, current_function_decl);
744
745   /* Last attempt to optimize CFG, as scheduling, peepholing and insn
746      splitting possibly introduced more crossjumping opportunities.  */
747   cleanup_cfg (CLEANUP_EXPENSIVE
748                | CLEANUP_UPDATE_LIFE 
749                | (flag_crossjumping ? CLEANUP_CROSSJUMP : 0));
750   if (flag_if_conversion2)
751     if_convert (1);
752   close_dump_file (DFI_ce3, print_rtl_with_bb, get_insns ());
753   timevar_pop (TV_IFCVT2);
754 }
755
756 static void
757 rest_of_handle_web (void)
758 {
759   open_dump_file (DFI_web, current_function_decl);
760   timevar_push (TV_WEB);
761   web_main ();
762   delete_trivially_dead_insns (get_insns (), max_reg_num ());
763   cleanup_cfg (CLEANUP_EXPENSIVE);
764
765   timevar_pop (TV_WEB);
766   close_dump_file (DFI_web, print_rtl_with_bb, get_insns ());
767   reg_scan (get_insns (), max_reg_num ());
768 }
769
770 /* Do branch profiling and static profile estimation passes.  */
771 static void
772 rest_of_handle_branch_prob (void)
773 {
774   struct loops loops;
775
776   timevar_push (TV_BRANCH_PROB);
777   open_dump_file (DFI_bp, current_function_decl);
778
779   if (profile_arc_flag || flag_test_coverage || flag_branch_probabilities)
780     branch_prob ();
781
782   /* Discover and record the loop depth at the head of each basic
783      block.  The loop infrastructure does the real job for us.  */
784   flow_loops_find (&loops, LOOP_TREE);
785
786   if (dump_file)
787     flow_loops_dump (&loops, dump_file, NULL, 0);
788
789   /* Estimate using heuristics if no profiling info is available.  */
790   if (flag_guess_branch_prob)
791     estimate_probability (&loops);
792
793   flow_loops_free (&loops);
794   free_dominance_info (CDI_DOMINATORS);
795   close_dump_file (DFI_bp, print_rtl_with_bb, get_insns ());
796   timevar_pop (TV_BRANCH_PROB);
797 }
798
799 /* Do optimizations based on expression value profiles.  */
800 static void
801 rest_of_handle_value_profile_transformations (void)
802 {
803   open_dump_file (DFI_vpt, current_function_decl);
804   timevar_push (TV_VPT);
805
806   if (value_profile_transformations ())
807     cleanup_cfg (CLEANUP_EXPENSIVE);
808
809   timevar_pop (TV_VPT);
810   close_dump_file (DFI_vpt, print_rtl_with_bb, get_insns ());
811 }
812
813 /* Do control and data flow analysis; write some of the results to the
814    dump file.  */
815 static void
816 rest_of_handle_cfg (void)
817 {
818   open_dump_file (DFI_cfg, current_function_decl);
819   if (dump_file)
820     dump_flow_info (dump_file);
821   if (optimize)
822     cleanup_cfg (CLEANUP_EXPENSIVE
823                  | (flag_thread_jumps ? CLEANUP_THREADING : 0));
824
825   /* It may make more sense to mark constant functions after dead code is
826      eliminated by life_analysis, but we need to do it early, as -fprofile-arcs
827      may insert code making function non-constant, but we still must consider
828      it as constant, otherwise -fbranch-probabilities will not read data back.
829
830      life_analysis rarely eliminates modification of external memory.
831
832      FIXME: now with tree based profiling we are in the trap described above
833      again.  It seems to be easiest to disable the optimization for time
834      being before the problem is either solved by moving the transformation
835      to the IPA level (we need the CFG for this) or the very early optimization
836      passes are made to ignore the const/pure flags so code does not change.  */
837   if (optimize
838       && (!flag_tree_based_profiling
839           || (!profile_arc_flag && !flag_branch_probabilities)))
840     {
841       /* Alias analysis depends on this information and mark_constant_function
842        depends on alias analysis.  */
843       reg_scan (get_insns (), max_reg_num ());
844       mark_constant_function ();
845     }
846
847   close_dump_file (DFI_cfg, print_rtl_with_bb, get_insns ());
848 }
849
850 /* Perform jump bypassing and control flow optimizations.  */
851 static void
852 rest_of_handle_jump_bypass (void)
853 {
854   timevar_push (TV_BYPASS);
855   open_dump_file (DFI_bypass, current_function_decl);
856
857   cleanup_cfg (CLEANUP_EXPENSIVE);
858   reg_scan (get_insns (), max_reg_num ());
859
860   if (bypass_jumps (dump_file))
861     {
862       rebuild_jump_labels (get_insns ());
863       cleanup_cfg (CLEANUP_EXPENSIVE);
864       delete_trivially_dead_insns (get_insns (), max_reg_num ());
865     }
866
867   close_dump_file (DFI_bypass, print_rtl_with_bb, get_insns ());
868   timevar_pop (TV_BYPASS);
869
870   ggc_collect ();
871
872 #ifdef ENABLE_CHECKING
873   verify_flow_info ();
874 #endif
875 }
876
877 /* Try combining insns through substitution.  */
878 static void
879 rest_of_handle_combine (void)
880 {
881   int rebuild_jump_labels_after_combine = 0;
882
883   timevar_push (TV_COMBINE);
884   open_dump_file (DFI_combine, current_function_decl);
885
886   rebuild_jump_labels_after_combine
887     = combine_instructions (get_insns (), max_reg_num ());
888
889   /* Combining insns may have turned an indirect jump into a
890      direct jump.  Rebuild the JUMP_LABEL fields of jumping
891      instructions.  */
892   if (rebuild_jump_labels_after_combine)
893     {
894       timevar_push (TV_JUMP);
895       rebuild_jump_labels (get_insns ());
896       timevar_pop (TV_JUMP);
897
898       cleanup_cfg (CLEANUP_EXPENSIVE | CLEANUP_UPDATE_LIFE);
899     }
900
901   close_dump_file (DFI_combine, print_rtl_with_bb, get_insns ());
902   timevar_pop (TV_COMBINE);
903
904   ggc_collect ();
905 }
906
907 /* Perform life analysis.  */
908 static void
909 rest_of_handle_life (void)
910 {
911   open_dump_file (DFI_life, current_function_decl);
912   regclass_init ();
913
914 #ifdef ENABLE_CHECKING
915   verify_flow_info ();
916 #endif
917   life_analysis (dump_file, PROP_FINAL);
918   if (optimize)
919     cleanup_cfg (CLEANUP_EXPENSIVE | CLEANUP_UPDATE_LIFE | CLEANUP_LOG_LINKS
920                  | (flag_thread_jumps ? CLEANUP_THREADING : 0));
921
922   if (extra_warnings)
923     {
924       setjmp_vars_warning (DECL_INITIAL (current_function_decl));
925       setjmp_args_warning ();
926     }
927
928   if (optimize)
929     {
930       if (initialize_uninitialized_subregs ())
931         {
932           /* Insns were inserted, and possibly pseudos created, so
933              things might look a bit different.  */
934           allocate_reg_life_data ();
935           update_life_info (NULL, UPDATE_LIFE_GLOBAL_RM_NOTES,
936                             PROP_LOG_LINKS | PROP_REG_INFO | PROP_DEATH_NOTES);
937         }
938     }
939
940   no_new_pseudos = 1;
941
942   close_dump_file (DFI_life, print_rtl_with_bb, get_insns ());
943
944   ggc_collect ();
945 }
946
947 /* Perform common subexpression elimination.  Nonzero value from
948    `cse_main' means that jumps were simplified and some code may now
949    be unreachable, so do jump optimization again.  */
950 static void
951 rest_of_handle_cse (void)
952 {
953   int tem;
954
955   open_dump_file (DFI_cse, current_function_decl);
956   if (dump_file)
957     dump_flow_info (dump_file);
958   timevar_push (TV_CSE);
959
960   reg_scan (get_insns (), max_reg_num ());
961
962   tem = cse_main (get_insns (), max_reg_num (), dump_file);
963   if (tem)
964     rebuild_jump_labels (get_insns ());
965   if (purge_all_dead_edges (0))
966     delete_unreachable_blocks ();
967
968   delete_trivially_dead_insns (get_insns (), max_reg_num ());
969
970   /* If we are not running more CSE passes, then we are no longer
971      expecting CSE to be run.  But always rerun it in a cheap mode.  */
972   cse_not_expected = !flag_rerun_cse_after_loop && !flag_gcse;
973
974   if (tem || optimize > 1)
975     cleanup_cfg (CLEANUP_EXPENSIVE | CLEANUP_PRE_LOOP);
976
977   timevar_pop (TV_CSE);
978   close_dump_file (DFI_cse, print_rtl_with_bb, get_insns ());
979
980   ggc_collect ();
981 }
982
983 /* Run second CSE pass after loop optimizations.  */
984 static void
985 rest_of_handle_cse2 (void)
986 {
987   int tem;
988
989   timevar_push (TV_CSE2);
990   open_dump_file (DFI_cse2, current_function_decl);
991   if (dump_file)
992     dump_flow_info (dump_file);
993   /* CFG is no longer maintained up-to-date.  */
994   tem = cse_main (get_insns (), max_reg_num (), dump_file);
995
996   /* Run a pass to eliminate duplicated assignments to condition code
997      registers.  We have to run this after bypass_jumps, because it
998      makes it harder for that pass to determine whether a jump can be
999      bypassed safely.  */
1000   cse_condition_code_reg ();
1001
1002   purge_all_dead_edges (0);
1003   delete_trivially_dead_insns (get_insns (), max_reg_num ());
1004
1005   if (tem)
1006     {
1007       timevar_push (TV_JUMP);
1008       rebuild_jump_labels (get_insns ());
1009       cleanup_cfg (CLEANUP_EXPENSIVE);
1010       timevar_pop (TV_JUMP);
1011     }
1012   reg_scan (get_insns (), max_reg_num ());
1013   close_dump_file (DFI_cse2, print_rtl_with_bb, get_insns ());
1014   timevar_pop (TV_CSE2);
1015
1016   ggc_collect ();
1017 }
1018
1019 /* Perform global cse.  */
1020 static void
1021 rest_of_handle_gcse (void)
1022 {
1023   int save_csb, save_cfj;
1024   int tem2 = 0, tem;
1025
1026   timevar_push (TV_GCSE);
1027   open_dump_file (DFI_gcse, current_function_decl);
1028
1029   tem = gcse_main (get_insns (), dump_file);
1030   rebuild_jump_labels (get_insns ());
1031   delete_trivially_dead_insns (get_insns (), max_reg_num ());
1032
1033   save_csb = flag_cse_skip_blocks;
1034   save_cfj = flag_cse_follow_jumps;
1035   flag_cse_skip_blocks = flag_cse_follow_jumps = 0;
1036
1037   /* If -fexpensive-optimizations, re-run CSE to clean up things done
1038      by gcse.  */
1039   if (flag_expensive_optimizations)
1040     {
1041       timevar_push (TV_CSE);
1042       reg_scan (get_insns (), max_reg_num ());
1043       tem2 = cse_main (get_insns (), max_reg_num (), dump_file);
1044       purge_all_dead_edges (0);
1045       delete_trivially_dead_insns (get_insns (), max_reg_num ());
1046       timevar_pop (TV_CSE);
1047       cse_not_expected = !flag_rerun_cse_after_loop;
1048     }
1049
1050   /* If gcse or cse altered any jumps, rerun jump optimizations to clean
1051      things up.  Then possibly re-run CSE again.  */
1052   if (tem || tem2)
1053     {
1054       timevar_push (TV_JUMP);
1055       rebuild_jump_labels (get_insns ());
1056       cleanup_cfg (CLEANUP_EXPENSIVE | CLEANUP_PRE_LOOP);
1057       timevar_pop (TV_JUMP);
1058     }
1059
1060   close_dump_file (DFI_gcse, print_rtl_with_bb, get_insns ());
1061   timevar_pop (TV_GCSE);
1062
1063   ggc_collect ();
1064   flag_cse_skip_blocks = save_csb;
1065   flag_cse_follow_jumps = save_cfj;
1066 #ifdef ENABLE_CHECKING
1067   verify_flow_info ();
1068 #endif
1069 }
1070
1071 /* Move constant computations out of loops.  */
1072 static void
1073 rest_of_handle_loop_optimize (void)
1074 {
1075   int do_prefetch;
1076
1077   timevar_push (TV_LOOP);
1078   delete_dead_jumptables ();
1079   cleanup_cfg (CLEANUP_EXPENSIVE | CLEANUP_PRE_LOOP);
1080   open_dump_file (DFI_loop, current_function_decl);
1081
1082   /* CFG is no longer maintained up-to-date.  */
1083   free_bb_for_insn ();
1084   profile_status = PROFILE_ABSENT;
1085
1086   do_prefetch = flag_prefetch_loop_arrays ? LOOP_PREFETCH : 0;
1087
1088   if (flag_rerun_loop_opt)
1089     {
1090       cleanup_barriers ();
1091
1092       /* We only want to perform unrolling once.  */
1093       loop_optimize (get_insns (), dump_file, 0);
1094
1095       /* The first call to loop_optimize makes some instructions
1096          trivially dead.  We delete those instructions now in the
1097          hope that doing so will make the heuristics in loop work
1098          better and possibly speed up compilation.  */
1099       delete_trivially_dead_insns (get_insns (), max_reg_num ());
1100
1101       /* The regscan pass is currently necessary as the alias
1102          analysis code depends on this information.  */
1103       reg_scan (get_insns (), max_reg_num ());
1104     }
1105   cleanup_barriers ();
1106   loop_optimize (get_insns (), dump_file, do_prefetch);
1107
1108   /* Loop can create trivially dead instructions.  */
1109   delete_trivially_dead_insns (get_insns (), max_reg_num ());
1110   find_basic_blocks (get_insns (), max_reg_num (), dump_file);
1111   close_dump_file (DFI_loop, print_rtl, get_insns ());
1112   timevar_pop (TV_LOOP);
1113
1114   ggc_collect ();
1115 }
1116
1117 /* Perform loop optimizations.  It might be better to do them a bit
1118    sooner, but we want the profile feedback to work more
1119    efficiently.  */
1120 static void
1121 rest_of_handle_loop2 (void)
1122 {
1123   struct loops *loops;
1124   basic_block bb;
1125
1126   if (!flag_move_loop_invariants
1127       && !flag_unswitch_loops
1128       && !flag_peel_loops
1129       && !flag_unroll_loops
1130       && !flag_branch_on_count_reg)
1131     return;
1132
1133   timevar_push (TV_LOOP);
1134   open_dump_file (DFI_loop2, current_function_decl);
1135   if (dump_file)
1136     dump_flow_info (dump_file);
1137
1138   /* Initialize structures for layout changes.  */
1139   cfg_layout_initialize (0);
1140
1141   loops = loop_optimizer_init (dump_file);
1142
1143   if (loops)
1144     {
1145       /* The optimizations:  */
1146       if (flag_move_loop_invariants)
1147         move_loop_invariants (loops);
1148
1149       if (flag_unswitch_loops)
1150         unswitch_loops (loops);
1151
1152       if (flag_peel_loops || flag_unroll_loops)
1153         unroll_and_peel_loops (loops,
1154                                (flag_peel_loops ? UAP_PEEL : 0) |
1155                                (flag_unroll_loops ? UAP_UNROLL : 0) |
1156                                (flag_unroll_all_loops ? UAP_UNROLL_ALL : 0));
1157
1158 #ifdef HAVE_doloop_end
1159       if (flag_branch_on_count_reg && HAVE_doloop_end)
1160         doloop_optimize_loops (loops);
1161 #endif /* HAVE_doloop_end */
1162
1163       loop_optimizer_finalize (loops, dump_file);
1164     }
1165
1166   free_dominance_info (CDI_DOMINATORS);
1167
1168   /* Finalize layout changes.  */
1169   FOR_EACH_BB (bb)
1170     if (bb->next_bb != EXIT_BLOCK_PTR)
1171       bb->rbi->next = bb->next_bb;
1172   cfg_layout_finalize ();
1173
1174   cleanup_cfg (CLEANUP_EXPENSIVE);
1175   delete_trivially_dead_insns (get_insns (), max_reg_num ());
1176   reg_scan (get_insns (), max_reg_num ());
1177   if (dump_file)
1178     dump_flow_info (dump_file);
1179   close_dump_file (DFI_loop2, print_rtl_with_bb, get_insns ());
1180   timevar_pop (TV_LOOP);
1181   ggc_collect ();
1182 }
1183
1184 static void
1185 rest_of_handle_branch_target_load_optimize (void)
1186 {
1187   static int warned = 0;
1188
1189   /* Leave this a warning for now so that it is possible to experiment
1190      with running this pass twice.  In 3.6, we should either make this
1191      an error, or use separate dump files.  */
1192   if (flag_branch_target_load_optimize
1193       && flag_branch_target_load_optimize2
1194       && !warned)
1195     {
1196       warning ("branch target register load optimization is not intended "
1197                "to be run twice");
1198
1199       warned = 1;
1200     }
1201
1202   open_dump_file (DFI_branch_target_load, current_function_decl);
1203   branch_target_load_optimize (epilogue_completed);
1204   close_dump_file (DFI_branch_target_load, print_rtl_with_bb, get_insns ());
1205   ggc_collect ();
1206 }
1207
1208 #ifdef OPTIMIZE_MODE_SWITCHING
1209 static void
1210 rest_of_handle_mode_switching (void)
1211 {
1212   timevar_push (TV_MODE_SWITCH);
1213
1214   no_new_pseudos = 0;
1215   optimize_mode_switching (NULL);
1216   no_new_pseudos = 1;
1217
1218   timevar_pop (TV_MODE_SWITCH);
1219 }
1220 #endif
1221
1222 static void
1223 rest_of_handle_jump (void)
1224 {
1225   ggc_collect ();
1226
1227   timevar_push (TV_JUMP);
1228   open_dump_file (DFI_sibling, current_function_decl);
1229
1230   delete_unreachable_blocks ();
1231 #ifdef ENABLE_CHECKING
1232   verify_flow_info ();
1233 #endif
1234
1235   if (cfun->tail_call_emit)
1236     fixup_tail_calls ();
1237
1238   close_dump_file (DFI_sibling, print_rtl, get_insns ());
1239   timevar_pop (TV_JUMP);
1240 }
1241
1242 static void
1243 rest_of_handle_eh (void)
1244 {
1245   insn_locators_initialize ();
1246   /* Complete generation of exception handling code.  */
1247   if (doing_eh (0))
1248     {
1249       timevar_push (TV_JUMP);
1250       open_dump_file (DFI_eh, current_function_decl);
1251
1252       cleanup_cfg (CLEANUP_PRE_LOOP | CLEANUP_NO_INSN_DEL);
1253
1254       finish_eh_generation ();
1255
1256       cleanup_cfg (CLEANUP_PRE_LOOP | CLEANUP_NO_INSN_DEL);
1257
1258       close_dump_file (DFI_eh, print_rtl, get_insns ());
1259       timevar_pop (TV_JUMP);
1260     }
1261 }
1262
1263 static void
1264 rest_of_handle_stack_adjustments (void)
1265 {
1266   life_analysis (dump_file, PROP_POSTRELOAD);
1267   cleanup_cfg (CLEANUP_EXPENSIVE | CLEANUP_UPDATE_LIFE
1268                | (flag_crossjumping ? CLEANUP_CROSSJUMP : 0));
1269     
1270   /* This is kind of a heuristic.  We need to run combine_stack_adjustments
1271      even for machines with possibly nonzero RETURN_POPS_ARGS
1272      and ACCUMULATE_OUTGOING_ARGS.  We expect that only ports having
1273      push instructions will have popping returns.  */
1274 #ifndef PUSH_ROUNDING
1275   if (!ACCUMULATE_OUTGOING_ARGS)
1276 #endif
1277     combine_stack_adjustments ();
1278 }
1279
1280 static void
1281 rest_of_handle_flow2 (void)
1282 {
1283   timevar_push (TV_FLOW2);
1284   open_dump_file (DFI_flow2, current_function_decl);
1285
1286   /* Re-create the death notes which were deleted during reload.  */
1287 #ifdef ENABLE_CHECKING
1288   verify_flow_info ();
1289 #endif
1290
1291   /* If optimizing, then go ahead and split insns now.  */
1292 #ifndef STACK_REGS
1293   if (optimize > 0)
1294 #endif
1295     split_all_insns (0);
1296
1297   if (flag_branch_target_load_optimize)
1298     {
1299       close_dump_file (DFI_flow2, print_rtl_with_bb, get_insns ());
1300       rest_of_handle_branch_target_load_optimize ();
1301       open_dump_file (DFI_flow2, current_function_decl);
1302     }
1303
1304   if (optimize)
1305     cleanup_cfg (CLEANUP_EXPENSIVE);
1306
1307   /* On some machines, the prologue and epilogue code, or parts thereof,
1308      can be represented as RTL.  Doing so lets us schedule insns between
1309      it and the rest of the code and also allows delayed branch
1310      scheduling to operate in the epilogue.  */
1311   thread_prologue_and_epilogue_insns (get_insns ());
1312   epilogue_completed = 1;
1313
1314   if (optimize)
1315     rest_of_handle_stack_adjustments ();
1316
1317   flow2_completed = 1;
1318
1319   close_dump_file (DFI_flow2, print_rtl_with_bb, get_insns ());
1320   timevar_pop (TV_FLOW2);
1321
1322   ggc_collect ();
1323 }
1324
1325
1326 static void
1327 rest_of_handle_jump2 (void)
1328 {
1329   open_dump_file (DFI_jump, current_function_decl);
1330
1331   /* Always do one jump optimization pass to ensure that JUMP_LABEL fields
1332      are initialized and to compute whether control can drop off the end
1333      of the function.  */
1334
1335   timevar_push (TV_JUMP);
1336   /* Turn NOTE_INSN_EXPECTED_VALUE into REG_BR_PROB.  Do this
1337      before jump optimization switches branch directions.  */
1338   if (flag_guess_branch_prob)
1339     expected_value_to_br_prob ();
1340
1341   delete_trivially_dead_insns (get_insns (), max_reg_num ());
1342   reg_scan (get_insns (), max_reg_num ());
1343   if (dump_file)
1344     dump_flow_info (dump_file);
1345   cleanup_cfg ((optimize ? CLEANUP_EXPENSIVE : 0) | CLEANUP_PRE_LOOP
1346                | (flag_thread_jumps ? CLEANUP_THREADING : 0));
1347
1348   create_loop_notes ();
1349
1350   purge_line_number_notes (get_insns ());
1351
1352   if (optimize)
1353     cleanup_cfg (CLEANUP_EXPENSIVE | CLEANUP_PRE_LOOP);
1354
1355   /* Jump optimization, and the removal of NULL pointer checks, may
1356      have reduced the number of instructions substantially.  CSE, and
1357      future passes, allocate arrays whose dimensions involve the
1358      maximum instruction UID, so if we can reduce the maximum UID
1359      we'll save big on memory.  */
1360   renumber_insns (dump_file);
1361
1362   close_dump_file (DFI_jump, print_rtl_with_bb, get_insns ());
1363   timevar_pop (TV_JUMP);
1364
1365   ggc_collect ();
1366 }
1367
1368 #ifdef HAVE_peephole2
1369 static void
1370 rest_of_handle_peephole2 (void)
1371 {
1372   timevar_push (TV_PEEPHOLE2);
1373   open_dump_file (DFI_peephole2, current_function_decl);
1374
1375   peephole2_optimize (dump_file);
1376
1377   close_dump_file (DFI_peephole2, print_rtl_with_bb, get_insns ());
1378   timevar_pop (TV_PEEPHOLE2);
1379 }
1380 #endif
1381
1382 static void
1383 rest_of_handle_postreload (void)
1384 {
1385   timevar_push (TV_RELOAD_CSE_REGS);
1386   open_dump_file (DFI_postreload, current_function_decl);
1387
1388   /* Do a very simple CSE pass over just the hard registers.  */
1389   reload_cse_regs (get_insns ());
1390   /* reload_cse_regs can eliminate potentially-trapping MEMs.
1391      Remove any EH edges associated with them.  */
1392   if (flag_non_call_exceptions)
1393     purge_all_dead_edges (0);
1394
1395   close_dump_file (DFI_postreload, print_rtl_with_bb, get_insns ());
1396   timevar_pop (TV_RELOAD_CSE_REGS);
1397 }
1398
1399 static void
1400 rest_of_handle_shorten_branches (void)
1401 {
1402   /* Shorten branches.  */
1403   timevar_push (TV_SHORTEN_BRANCH);
1404   shorten_branches (get_insns ());
1405   timevar_pop (TV_SHORTEN_BRANCH);
1406 }
1407
1408 static void
1409 rest_of_clean_state (void)
1410 {
1411   rtx insn, next;
1412   coverage_end_function ();
1413
1414   /* It is very important to decompose the RTL instruction chain here:
1415      debug information keeps pointing into CODE_LABEL insns inside the function
1416      body.  If these remain pointing to the other insns, we end up preserving
1417      whole RTL chain and attached detailed debug info in memory.  */
1418   for (insn = get_insns (); insn; insn = next)
1419     {
1420       next = NEXT_INSN (insn);
1421       NEXT_INSN (insn) = NULL;
1422       PREV_INSN (insn) = NULL;
1423     }
1424
1425   /* In case the function was not output,
1426      don't leave any temporary anonymous types
1427      queued up for sdb output.  */
1428 #ifdef SDB_DEBUGGING_INFO
1429   if (write_symbols == SDB_DEBUG)
1430     sdbout_types (NULL_TREE);
1431 #endif
1432
1433   reload_completed = 0;
1434   epilogue_completed = 0;
1435   flow2_completed = 0;
1436   no_new_pseudos = 0;
1437
1438   timevar_push (TV_FINAL);
1439
1440   /* Clear out the insn_length contents now that they are no
1441      longer valid.  */
1442   init_insn_lengths ();
1443
1444   /* Show no temporary slots allocated.  */
1445   init_temp_slots ();
1446
1447   free_basic_block_vars ();
1448   free_bb_for_insn ();
1449
1450   timevar_pop (TV_FINAL);
1451
1452   if (targetm.binds_local_p (current_function_decl))
1453     {
1454       int pref = cfun->preferred_stack_boundary;
1455       if (cfun->stack_alignment_needed > cfun->preferred_stack_boundary)
1456         pref = cfun->stack_alignment_needed;
1457       cgraph_rtl_info (current_function_decl)->preferred_incoming_stack_boundary
1458         = pref;
1459     }
1460
1461   /* Make sure volatile mem refs aren't considered valid operands for
1462      arithmetic insns.  We must call this here if this is a nested inline
1463      function, since the above code leaves us in the init_recog state
1464      (from final.c), and the function context push/pop code does not
1465      save/restore volatile_ok.
1466
1467      ??? Maybe it isn't necessary for expand_start_function to call this
1468      anymore if we do it here?  */
1469
1470   init_recog_no_volatile ();
1471
1472   /* We're done with this function.  Free up memory if we can.  */
1473   free_after_parsing (cfun);
1474   free_after_compilation (cfun);
1475 }
1476 \f
1477
1478 /* This function is called from the pass manager in tree-optimize.c
1479    after all tree passes have finished for a single function, and we
1480    have expanded the function body from trees to RTL.
1481    Once we are here, we have decided that we're supposed to output
1482    that function, i.e. that we should write assembler code for it.
1483
1484    We run a series of low-level passes here on the function's RTL
1485    representation.  Each pass is called via a rest_of_* function.  */
1486
1487 static void
1488 rest_of_compilation (void)
1489 {
1490   /* If we're emitting a nested function, make sure its parent gets
1491      emitted as well.  Doing otherwise confuses debug info.  */
1492   {
1493     tree parent;
1494     for (parent = DECL_CONTEXT (current_function_decl);
1495          parent != NULL_TREE;
1496          parent = get_containing_scope (parent))
1497       if (TREE_CODE (parent) == FUNCTION_DECL)
1498         TREE_SYMBOL_REFERENCED (DECL_ASSEMBLER_NAME (parent)) = 1;
1499   }
1500
1501   /* We are now committed to emitting code for this function.  Do any
1502      preparation, such as emitting abstract debug info for the inline
1503      before it gets mangled by optimization.  */
1504   if (cgraph_function_possibly_inlined_p (current_function_decl))
1505     (*debug_hooks->outlining_inline_function) (current_function_decl);
1506
1507   /* Remove any notes we don't need.  That will make iterating
1508      over the instruction sequence faster, and allow the garbage
1509      collector to reclaim the memory used by the notes.  */
1510   remove_unnecessary_notes ();
1511
1512   /* Initialize some variables used by the optimizers.  */
1513   init_function_for_compilation ();
1514
1515   TREE_ASM_WRITTEN (current_function_decl) = 1;
1516
1517   /* Early return if there were errors.  We can run afoul of our
1518      consistency checks, and there's not really much point in fixing them.  */
1519   if (rtl_dump_and_exit || flag_syntax_only || errorcount || sorrycount)
1520     goto exit_rest_of_compilation;
1521
1522   rest_of_handle_jump ();
1523
1524   rest_of_handle_eh ();
1525
1526   /* Delay emitting hard_reg_initial_value sets until after EH landing pad
1527      generation, which might create new sets.  */
1528   emit_initial_value_sets ();
1529
1530 #ifdef FINALIZE_PIC
1531   /* If we are doing position-independent code generation, now
1532      is the time to output special prologues and epilogues.
1533      We do not want to do this earlier, because it just clutters
1534      up inline functions with meaningless insns.  */
1535   if (flag_pic)
1536     FINALIZE_PIC;
1537 #endif
1538
1539   /* Copy any shared structure that should not be shared.  */
1540   unshare_all_rtl ();
1541
1542 #ifdef SETJMP_VIA_SAVE_AREA
1543   /* This must be performed before virtual register instantiation.
1544      Please be aware that everything in the compiler that can look
1545      at the RTL up to this point must understand that REG_SAVE_AREA
1546      is just like a use of the REG contained inside.  */
1547   if (current_function_calls_alloca)
1548     optimize_save_area_alloca ();
1549 #endif
1550
1551   /* Instantiate all virtual registers.  */
1552   instantiate_virtual_regs ();
1553
1554   rest_of_handle_jump2 ();
1555
1556   if (optimize > 0)
1557     rest_of_handle_cse ();
1558
1559   if (optimize > 0)
1560     {
1561       if (flag_gcse)
1562         rest_of_handle_gcse ();
1563
1564       if (flag_loop_optimize)
1565         rest_of_handle_loop_optimize ();
1566
1567       if (flag_gcse)
1568         rest_of_handle_jump_bypass ();
1569     }
1570
1571   timevar_push (TV_FLOW);
1572   rest_of_handle_cfg ();
1573
1574   if (!flag_tree_based_profiling
1575       && (optimize > 0 || profile_arc_flag
1576           || flag_test_coverage || flag_branch_probabilities))
1577     {
1578       rtl_register_profile_hooks ();
1579       rtl_register_value_prof_hooks ();
1580       rest_of_handle_branch_prob ();
1581
1582       if (flag_branch_probabilities
1583           && flag_profile_values
1584           && (flag_value_profile_transformations
1585               || flag_speculative_prefetching))
1586         rest_of_handle_value_profile_transformations ();
1587
1588       /* Remove the death notes created for vpt.  */
1589       if (flag_profile_values)
1590         count_or_remove_death_notes (NULL, 1);
1591     }
1592
1593   if (optimize > 0)
1594     rest_of_handle_if_conversion ();
1595
1596   if (optimize > 0 && flag_tracer)
1597     rest_of_handle_tracer ();
1598
1599   if (optimize > 0
1600       && flag_loop_optimize2)
1601     rest_of_handle_loop2 ();
1602
1603   if (optimize > 0 && flag_web)
1604     rest_of_handle_web ();
1605
1606   if (optimize > 0 && flag_rerun_cse_after_loop)
1607     rest_of_handle_cse2 ();
1608
1609   cse_not_expected = 1;
1610
1611   rest_of_handle_life ();
1612   timevar_pop (TV_FLOW);
1613
1614   if (optimize > 0)
1615     rest_of_handle_combine ();
1616
1617   if (optimize > 0 && flag_if_conversion)
1618     rest_of_handle_if_after_combine ();
1619
1620   /* The optimization to partition hot/cold basic blocks into separate
1621      sections of the .o file does not work well with linkonce or with
1622      user defined section attributes.  Don't call it if either case
1623      arises.  */
1624
1625   if (flag_reorder_blocks_and_partition 
1626       && !DECL_ONE_ONLY (current_function_decl)
1627       && !user_defined_section_attribute)
1628     rest_of_handle_partition_blocks ();
1629
1630   if (optimize > 0 && flag_regmove)
1631     rest_of_handle_regmove ();
1632
1633   /* Do unconditional splitting before register allocation to allow machine
1634      description to add extra information not needed previously.  */
1635   split_all_insns (1);
1636
1637 #ifdef OPTIMIZE_MODE_SWITCHING
1638   rest_of_handle_mode_switching ();
1639 #endif
1640
1641   /* Any of the several passes since flow1 will have munged register
1642      lifetime data a bit.  We need it to be up to date for scheduling
1643      (see handling of reg_known_equiv in init_alias_analysis).  */
1644   recompute_reg_usage (get_insns (), !optimize_size);
1645
1646 #ifdef INSN_SCHEDULING
1647   if (optimize > 0 && flag_modulo_sched)
1648     rest_of_handle_sms ();
1649
1650   if (flag_schedule_insns)
1651     rest_of_handle_sched ();
1652 #endif
1653
1654   /* Determine if the current function is a leaf before running reload
1655      since this can impact optimizations done by the prologue and
1656      epilogue thus changing register elimination offsets.  */
1657   current_function_is_leaf = leaf_function_p ();
1658
1659   if (rest_of_handle_old_regalloc ())
1660     goto exit_rest_of_compilation;
1661
1662   if (optimize > 0)
1663     rest_of_handle_postreload ();
1664
1665   if (optimize > 0 && flag_gcse_after_reload)
1666     rest_of_handle_gcse2 ();
1667
1668   rest_of_handle_flow2 ();
1669
1670 #ifdef HAVE_peephole2
1671   if (optimize > 0 && flag_peephole2)
1672     rest_of_handle_peephole2 ();
1673 #endif
1674
1675   if (optimize > 0)
1676     rest_of_handle_if_after_reload ();
1677
1678   if (optimize > 0)
1679     {
1680       if (flag_rename_registers || flag_cprop_registers)
1681         rest_of_handle_regrename ();
1682
1683       rest_of_handle_reorder_blocks ();
1684     }
1685
1686   if (flag_branch_target_load_optimize2)
1687     rest_of_handle_branch_target_load_optimize ();
1688
1689 #ifdef LEAF_REGISTERS
1690   current_function_uses_only_leaf_regs
1691     = optimize > 0 && only_leaf_regs_used () && leaf_function_p ();
1692 #endif
1693
1694 #ifdef INSN_SCHEDULING
1695   if (optimize > 0 && flag_schedule_insns_after_reload)
1696     rest_of_handle_sched2 ();
1697 #endif
1698
1699 #ifdef STACK_REGS
1700   rest_of_handle_stack_regs ();
1701 #endif
1702
1703   compute_alignments ();
1704
1705   /* Aggressively duplicate basic blocks ending in computed gotos to the
1706      tails of their predecessors, unless we are optimizing for size.  */
1707   if (flag_expensive_optimizations && !optimize_size)
1708     duplicate_computed_gotos ();
1709
1710   if (flag_var_tracking)
1711     rest_of_handle_variable_tracking ();
1712
1713   /* CFG is no longer maintained up-to-date.  */
1714   free_bb_for_insn ();
1715
1716   if (targetm.machine_dependent_reorg != 0)
1717     rest_of_handle_machine_reorg ();
1718
1719   purge_line_number_notes (get_insns ());
1720   cleanup_barriers ();
1721
1722 #ifdef DELAY_SLOTS
1723   if (flag_delayed_branch)
1724     rest_of_handle_delay_slots ();
1725 #endif
1726
1727 #if defined (HAVE_ATTR_length) && !defined (STACK_REGS)
1728   timevar_push (TV_SHORTEN_BRANCH);
1729   split_all_insns_noflow ();
1730   timevar_pop (TV_SHORTEN_BRANCH);
1731 #endif
1732
1733   convert_to_eh_region_ranges ();
1734
1735   rest_of_handle_shorten_branches ();
1736
1737   set_nothrow_function_flags ();
1738
1739   rest_of_handle_final ();
1740
1741  exit_rest_of_compilation:
1742
1743   rest_of_clean_state ();
1744 }
1745
1746 void
1747 finish_optimization_passes (void)
1748 {
1749   enum tree_dump_index i;
1750   struct dump_file_info *dfi;
1751   char *name;
1752
1753   timevar_push (TV_DUMP);
1754   if (profile_arc_flag || flag_test_coverage || flag_branch_probabilities)
1755     {
1756       open_dump_file (DFI_bp, NULL);
1757       end_branch_prob ();
1758       close_dump_file (DFI_bp, NULL, NULL_RTX);
1759     }
1760
1761   if (optimize > 0 && open_dump_file (DFI_combine, NULL))
1762     {
1763       dump_combine_total_stats (dump_file);
1764       close_dump_file (DFI_combine, NULL, NULL_RTX);
1765     }
1766
1767   /* Do whatever is necessary to finish printing the graphs.  */
1768   if (graph_dump_format != no_graph)
1769     for (i = DFI_MIN; (dfi = get_dump_file_info (i)) != NULL; ++i)
1770       if (dump_initialized_p (i)
1771           && (dfi->flags & TDF_RTL) != 0
1772           && (name = get_dump_file_name (i)) != NULL)
1773         {
1774           finish_graph_dump_file (name);
1775           free (name);
1776         }
1777
1778   timevar_pop (TV_DUMP);
1779 }
1780
1781 struct tree_opt_pass pass_rest_of_compilation =
1782 {
1783   NULL,                                 /* name */
1784   NULL,                                 /* gate */
1785   rest_of_compilation,                  /* execute */
1786   NULL,                                 /* sub */
1787   NULL,                                 /* next */
1788   0,                                    /* static_pass_number */
1789   TV_REST_OF_COMPILATION,               /* tv_id */
1790   PROP_rtl,                             /* properties_required */
1791   0,                                    /* properties_provided */
1792   PROP_rtl,                             /* properties_destroyed */
1793   0,                                    /* todo_flags_start */
1794   TODO_ggc_collect,                     /* todo_flags_finish */
1795   0                                     /* letter */
1796 };
1797
1798