change delegation for to_read_description
[external/binutils.git] / gdb / target.c
1 /* Select target systems and architectures at runtime for GDB.
2
3    Copyright (C) 1990-2014 Free Software Foundation, Inc.
4
5    Contributed by Cygnus Support.
6
7    This file is part of GDB.
8
9    This program is free software; you can redistribute it and/or modify
10    it under the terms of the GNU General Public License as published by
11    the Free Software Foundation; either version 3 of the License, or
12    (at your option) any later version.
13
14    This program is distributed in the hope that it will be useful,
15    but WITHOUT ANY WARRANTY; without even the implied warranty of
16    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
17    GNU General Public License for more details.
18
19    You should have received a copy of the GNU General Public License
20    along with this program.  If not, see <http://www.gnu.org/licenses/>.  */
21
22 #include "defs.h"
23 #include <errno.h>
24 #include <string.h>
25 #include "target.h"
26 #include "target-dcache.h"
27 #include "gdbcmd.h"
28 #include "symtab.h"
29 #include "inferior.h"
30 #include "bfd.h"
31 #include "symfile.h"
32 #include "objfiles.h"
33 #include "dcache.h"
34 #include <signal.h>
35 #include "regcache.h"
36 #include "gdb_assert.h"
37 #include "gdbcore.h"
38 #include "exceptions.h"
39 #include "target-descriptions.h"
40 #include "gdbthread.h"
41 #include "solib.h"
42 #include "exec.h"
43 #include "inline-frame.h"
44 #include "tracepoint.h"
45 #include "gdb/fileio.h"
46 #include "agent.h"
47 #include "auxv.h"
48
49 static void target_info (char *, int);
50
51 static void default_terminal_info (struct target_ops *, const char *, int);
52
53 static int default_watchpoint_addr_within_range (struct target_ops *,
54                                                  CORE_ADDR, CORE_ADDR, int);
55
56 static int default_region_ok_for_hw_watchpoint (struct target_ops *,
57                                                 CORE_ADDR, int);
58
59 static void default_rcmd (struct target_ops *, char *, struct ui_file *);
60
61 static ptid_t default_get_ada_task_ptid (struct target_ops *self,
62                                          long lwp, long tid);
63
64 static int default_follow_fork (struct target_ops *self, int follow_child,
65                                 int detach_fork);
66
67 static void default_mourn_inferior (struct target_ops *self);
68
69 static int default_search_memory (struct target_ops *ops,
70                                   CORE_ADDR start_addr,
71                                   ULONGEST search_space_len,
72                                   const gdb_byte *pattern,
73                                   ULONGEST pattern_len,
74                                   CORE_ADDR *found_addrp);
75
76 static void tcomplain (void) ATTRIBUTE_NORETURN;
77
78 static int nomemory (CORE_ADDR, char *, int, int, struct target_ops *);
79
80 static int return_zero (void);
81
82 void target_ignore (void);
83
84 static void target_command (char *, int);
85
86 static struct target_ops *find_default_run_target (char *);
87
88 static target_xfer_partial_ftype default_xfer_partial;
89
90 static struct gdbarch *default_thread_architecture (struct target_ops *ops,
91                                                     ptid_t ptid);
92
93 static int dummy_find_memory_regions (struct target_ops *self,
94                                       find_memory_region_ftype ignore1,
95                                       void *ignore2);
96
97 static char *dummy_make_corefile_notes (struct target_ops *self,
98                                         bfd *ignore1, int *ignore2);
99
100 static char *default_pid_to_str (struct target_ops *ops, ptid_t ptid);
101
102 static int find_default_can_async_p (struct target_ops *ignore);
103
104 static int find_default_is_async_p (struct target_ops *ignore);
105
106 static enum exec_direction_kind default_execution_direction
107     (struct target_ops *self);
108
109 #include "target-delegates.c"
110
111 static void init_dummy_target (void);
112
113 static struct target_ops debug_target;
114
115 static void debug_to_open (char *, int);
116
117 static void debug_to_prepare_to_store (struct target_ops *self,
118                                        struct regcache *);
119
120 static void debug_to_files_info (struct target_ops *);
121
122 static int debug_to_insert_breakpoint (struct target_ops *, struct gdbarch *,
123                                        struct bp_target_info *);
124
125 static int debug_to_remove_breakpoint (struct target_ops *, struct gdbarch *,
126                                        struct bp_target_info *);
127
128 static int debug_to_can_use_hw_breakpoint (struct target_ops *self,
129                                            int, int, int);
130
131 static int debug_to_insert_hw_breakpoint (struct target_ops *self,
132                                           struct gdbarch *,
133                                           struct bp_target_info *);
134
135 static int debug_to_remove_hw_breakpoint (struct target_ops *self,
136                                           struct gdbarch *,
137                                           struct bp_target_info *);
138
139 static int debug_to_insert_watchpoint (struct target_ops *self,
140                                        CORE_ADDR, int, int,
141                                        struct expression *);
142
143 static int debug_to_remove_watchpoint (struct target_ops *self,
144                                        CORE_ADDR, int, int,
145                                        struct expression *);
146
147 static int debug_to_stopped_data_address (struct target_ops *, CORE_ADDR *);
148
149 static int debug_to_watchpoint_addr_within_range (struct target_ops *,
150                                                   CORE_ADDR, CORE_ADDR, int);
151
152 static int debug_to_region_ok_for_hw_watchpoint (struct target_ops *self,
153                                                  CORE_ADDR, int);
154
155 static int debug_to_can_accel_watchpoint_condition (struct target_ops *self,
156                                                     CORE_ADDR, int, int,
157                                                     struct expression *);
158
159 static void debug_to_terminal_init (struct target_ops *self);
160
161 static void debug_to_terminal_inferior (struct target_ops *self);
162
163 static void debug_to_terminal_ours_for_output (struct target_ops *self);
164
165 static void debug_to_terminal_save_ours (struct target_ops *self);
166
167 static void debug_to_terminal_ours (struct target_ops *self);
168
169 static void debug_to_load (struct target_ops *self, char *, int);
170
171 static int debug_to_can_run (struct target_ops *self);
172
173 static void debug_to_stop (struct target_ops *self, ptid_t);
174
175 /* Pointer to array of target architecture structures; the size of the
176    array; the current index into the array; the allocated size of the
177    array.  */
178 struct target_ops **target_structs;
179 unsigned target_struct_size;
180 unsigned target_struct_allocsize;
181 #define DEFAULT_ALLOCSIZE       10
182
183 /* The initial current target, so that there is always a semi-valid
184    current target.  */
185
186 static struct target_ops dummy_target;
187
188 /* Top of target stack.  */
189
190 static struct target_ops *target_stack;
191
192 /* The target structure we are currently using to talk to a process
193    or file or whatever "inferior" we have.  */
194
195 struct target_ops current_target;
196
197 /* Command list for target.  */
198
199 static struct cmd_list_element *targetlist = NULL;
200
201 /* Nonzero if we should trust readonly sections from the
202    executable when reading memory.  */
203
204 static int trust_readonly = 0;
205
206 /* Nonzero if we should show true memory content including
207    memory breakpoint inserted by gdb.  */
208
209 static int show_memory_breakpoints = 0;
210
211 /* These globals control whether GDB attempts to perform these
212    operations; they are useful for targets that need to prevent
213    inadvertant disruption, such as in non-stop mode.  */
214
215 int may_write_registers = 1;
216
217 int may_write_memory = 1;
218
219 int may_insert_breakpoints = 1;
220
221 int may_insert_tracepoints = 1;
222
223 int may_insert_fast_tracepoints = 1;
224
225 int may_stop = 1;
226
227 /* Non-zero if we want to see trace of target level stuff.  */
228
229 static unsigned int targetdebug = 0;
230 static void
231 show_targetdebug (struct ui_file *file, int from_tty,
232                   struct cmd_list_element *c, const char *value)
233 {
234   fprintf_filtered (file, _("Target debugging is %s.\n"), value);
235 }
236
237 static void setup_target_debug (void);
238
239 /* The user just typed 'target' without the name of a target.  */
240
241 static void
242 target_command (char *arg, int from_tty)
243 {
244   fputs_filtered ("Argument required (target name).  Try `help target'\n",
245                   gdb_stdout);
246 }
247
248 /* Default target_has_* methods for process_stratum targets.  */
249
250 int
251 default_child_has_all_memory (struct target_ops *ops)
252 {
253   /* If no inferior selected, then we can't read memory here.  */
254   if (ptid_equal (inferior_ptid, null_ptid))
255     return 0;
256
257   return 1;
258 }
259
260 int
261 default_child_has_memory (struct target_ops *ops)
262 {
263   /* If no inferior selected, then we can't read memory here.  */
264   if (ptid_equal (inferior_ptid, null_ptid))
265     return 0;
266
267   return 1;
268 }
269
270 int
271 default_child_has_stack (struct target_ops *ops)
272 {
273   /* If no inferior selected, there's no stack.  */
274   if (ptid_equal (inferior_ptid, null_ptid))
275     return 0;
276
277   return 1;
278 }
279
280 int
281 default_child_has_registers (struct target_ops *ops)
282 {
283   /* Can't read registers from no inferior.  */
284   if (ptid_equal (inferior_ptid, null_ptid))
285     return 0;
286
287   return 1;
288 }
289
290 int
291 default_child_has_execution (struct target_ops *ops, ptid_t the_ptid)
292 {
293   /* If there's no thread selected, then we can't make it run through
294      hoops.  */
295   if (ptid_equal (the_ptid, null_ptid))
296     return 0;
297
298   return 1;
299 }
300
301
302 int
303 target_has_all_memory_1 (void)
304 {
305   struct target_ops *t;
306
307   for (t = current_target.beneath; t != NULL; t = t->beneath)
308     if (t->to_has_all_memory (t))
309       return 1;
310
311   return 0;
312 }
313
314 int
315 target_has_memory_1 (void)
316 {
317   struct target_ops *t;
318
319   for (t = current_target.beneath; t != NULL; t = t->beneath)
320     if (t->to_has_memory (t))
321       return 1;
322
323   return 0;
324 }
325
326 int
327 target_has_stack_1 (void)
328 {
329   struct target_ops *t;
330
331   for (t = current_target.beneath; t != NULL; t = t->beneath)
332     if (t->to_has_stack (t))
333       return 1;
334
335   return 0;
336 }
337
338 int
339 target_has_registers_1 (void)
340 {
341   struct target_ops *t;
342
343   for (t = current_target.beneath; t != NULL; t = t->beneath)
344     if (t->to_has_registers (t))
345       return 1;
346
347   return 0;
348 }
349
350 int
351 target_has_execution_1 (ptid_t the_ptid)
352 {
353   struct target_ops *t;
354
355   for (t = current_target.beneath; t != NULL; t = t->beneath)
356     if (t->to_has_execution (t, the_ptid))
357       return 1;
358
359   return 0;
360 }
361
362 int
363 target_has_execution_current (void)
364 {
365   return target_has_execution_1 (inferior_ptid);
366 }
367
368 /* Complete initialization of T.  This ensures that various fields in
369    T are set, if needed by the target implementation.  */
370
371 void
372 complete_target_initialization (struct target_ops *t)
373 {
374   /* Provide default values for all "must have" methods.  */
375   if (t->to_xfer_partial == NULL)
376     t->to_xfer_partial = default_xfer_partial;
377
378   if (t->to_has_all_memory == NULL)
379     t->to_has_all_memory = (int (*) (struct target_ops *)) return_zero;
380
381   if (t->to_has_memory == NULL)
382     t->to_has_memory = (int (*) (struct target_ops *)) return_zero;
383
384   if (t->to_has_stack == NULL)
385     t->to_has_stack = (int (*) (struct target_ops *)) return_zero;
386
387   if (t->to_has_registers == NULL)
388     t->to_has_registers = (int (*) (struct target_ops *)) return_zero;
389
390   if (t->to_has_execution == NULL)
391     t->to_has_execution = (int (*) (struct target_ops *, ptid_t)) return_zero;
392
393   install_delegators (t);
394 }
395
396 /* Add possible target architecture T to the list and add a new
397    command 'target T->to_shortname'.  Set COMPLETER as the command's
398    completer if not NULL.  */
399
400 void
401 add_target_with_completer (struct target_ops *t,
402                            completer_ftype *completer)
403 {
404   struct cmd_list_element *c;
405
406   complete_target_initialization (t);
407
408   if (!target_structs)
409     {
410       target_struct_allocsize = DEFAULT_ALLOCSIZE;
411       target_structs = (struct target_ops **) xmalloc
412         (target_struct_allocsize * sizeof (*target_structs));
413     }
414   if (target_struct_size >= target_struct_allocsize)
415     {
416       target_struct_allocsize *= 2;
417       target_structs = (struct target_ops **)
418         xrealloc ((char *) target_structs,
419                   target_struct_allocsize * sizeof (*target_structs));
420     }
421   target_structs[target_struct_size++] = t;
422
423   if (targetlist == NULL)
424     add_prefix_cmd ("target", class_run, target_command, _("\
425 Connect to a target machine or process.\n\
426 The first argument is the type or protocol of the target machine.\n\
427 Remaining arguments are interpreted by the target protocol.  For more\n\
428 information on the arguments for a particular protocol, type\n\
429 `help target ' followed by the protocol name."),
430                     &targetlist, "target ", 0, &cmdlist);
431   c = add_cmd (t->to_shortname, no_class, t->to_open, t->to_doc,
432                &targetlist);
433   if (completer != NULL)
434     set_cmd_completer (c, completer);
435 }
436
437 /* Add a possible target architecture to the list.  */
438
439 void
440 add_target (struct target_ops *t)
441 {
442   add_target_with_completer (t, NULL);
443 }
444
445 /* See target.h.  */
446
447 void
448 add_deprecated_target_alias (struct target_ops *t, char *alias)
449 {
450   struct cmd_list_element *c;
451   char *alt;
452
453   /* If we use add_alias_cmd, here, we do not get the deprecated warning,
454      see PR cli/15104.  */
455   c = add_cmd (alias, no_class, t->to_open, t->to_doc, &targetlist);
456   alt = xstrprintf ("target %s", t->to_shortname);
457   deprecate_cmd (c, alt);
458 }
459
460 /* Stub functions */
461
462 void
463 target_ignore (void)
464 {
465 }
466
467 void
468 target_kill (void)
469 {
470   if (targetdebug)
471     fprintf_unfiltered (gdb_stdlog, "target_kill ()\n");
472
473   current_target.to_kill (&current_target);
474 }
475
476 void
477 target_load (char *arg, int from_tty)
478 {
479   target_dcache_invalidate ();
480   (*current_target.to_load) (&current_target, arg, from_tty);
481 }
482
483 void
484 target_create_inferior (char *exec_file, char *args,
485                         char **env, int from_tty)
486 {
487   struct target_ops *t;
488
489   for (t = current_target.beneath; t != NULL; t = t->beneath)
490     {
491       if (t->to_create_inferior != NULL)        
492         {
493           t->to_create_inferior (t, exec_file, args, env, from_tty);
494           if (targetdebug)
495             fprintf_unfiltered (gdb_stdlog,
496                                 "target_create_inferior (%s, %s, xxx, %d)\n",
497                                 exec_file, args, from_tty);
498           return;
499         }
500     }
501
502   internal_error (__FILE__, __LINE__,
503                   _("could not find a target to create inferior"));
504 }
505
506 void
507 target_terminal_inferior (void)
508 {
509   /* A background resume (``run&'') should leave GDB in control of the
510      terminal.  Use target_can_async_p, not target_is_async_p, since at
511      this point the target is not async yet.  However, if sync_execution
512      is not set, we know it will become async prior to resume.  */
513   if (target_can_async_p () && !sync_execution)
514     return;
515
516   /* If GDB is resuming the inferior in the foreground, install
517      inferior's terminal modes.  */
518   (*current_target.to_terminal_inferior) (&current_target);
519 }
520
521 static int
522 nomemory (CORE_ADDR memaddr, char *myaddr, int len, int write,
523           struct target_ops *t)
524 {
525   errno = EIO;                  /* Can't read/write this location.  */
526   return 0;                     /* No bytes handled.  */
527 }
528
529 static void
530 tcomplain (void)
531 {
532   error (_("You can't do that when your target is `%s'"),
533          current_target.to_shortname);
534 }
535
536 void
537 noprocess (void)
538 {
539   error (_("You can't do that without a process to debug."));
540 }
541
542 static void
543 default_terminal_info (struct target_ops *self, const char *args, int from_tty)
544 {
545   printf_unfiltered (_("No saved terminal information.\n"));
546 }
547
548 /* A default implementation for the to_get_ada_task_ptid target method.
549
550    This function builds the PTID by using both LWP and TID as part of
551    the PTID lwp and tid elements.  The pid used is the pid of the
552    inferior_ptid.  */
553
554 static ptid_t
555 default_get_ada_task_ptid (struct target_ops *self, long lwp, long tid)
556 {
557   return ptid_build (ptid_get_pid (inferior_ptid), lwp, tid);
558 }
559
560 static enum exec_direction_kind
561 default_execution_direction (struct target_ops *self)
562 {
563   if (!target_can_execute_reverse)
564     return EXEC_FORWARD;
565   else if (!target_can_async_p ())
566     return EXEC_FORWARD;
567   else
568     gdb_assert_not_reached ("\
569 to_execution_direction must be implemented for reverse async");
570 }
571
572 /* Go through the target stack from top to bottom, copying over zero
573    entries in current_target, then filling in still empty entries.  In
574    effect, we are doing class inheritance through the pushed target
575    vectors.
576
577    NOTE: cagney/2003-10-17: The problem with this inheritance, as it
578    is currently implemented, is that it discards any knowledge of
579    which target an inherited method originally belonged to.
580    Consequently, new new target methods should instead explicitly and
581    locally search the target stack for the target that can handle the
582    request.  */
583
584 static void
585 update_current_target (void)
586 {
587   struct target_ops *t;
588
589   /* First, reset current's contents.  */
590   memset (&current_target, 0, sizeof (current_target));
591
592   /* Install the delegators.  */
593   install_delegators (&current_target);
594
595 #define INHERIT(FIELD, TARGET) \
596       if (!current_target.FIELD) \
597         current_target.FIELD = (TARGET)->FIELD
598
599   for (t = target_stack; t; t = t->beneath)
600     {
601       INHERIT (to_shortname, t);
602       INHERIT (to_longname, t);
603       INHERIT (to_doc, t);
604       /* Do not inherit to_open.  */
605       /* Do not inherit to_close.  */
606       /* Do not inherit to_attach.  */
607       /* Do not inherit to_post_attach.  */
608       INHERIT (to_attach_no_wait, t);
609       /* Do not inherit to_detach.  */
610       /* Do not inherit to_disconnect.  */
611       /* Do not inherit to_resume.  */
612       /* Do not inherit to_wait.  */
613       /* Do not inherit to_fetch_registers.  */
614       /* Do not inherit to_store_registers.  */
615       /* Do not inherit to_prepare_to_store.  */
616       INHERIT (deprecated_xfer_memory, t);
617       /* Do not inherit to_files_info.  */
618       /* Do not inherit to_insert_breakpoint.  */
619       /* Do not inherit to_remove_breakpoint.  */
620       /* Do not inherit to_can_use_hw_breakpoint.  */
621       /* Do not inherit to_insert_hw_breakpoint.  */
622       /* Do not inherit to_remove_hw_breakpoint.  */
623       /* Do not inherit to_ranged_break_num_registers.  */
624       /* Do not inherit to_insert_watchpoint.  */
625       /* Do not inherit to_remove_watchpoint.  */
626       /* Do not inherit to_insert_mask_watchpoint.  */
627       /* Do not inherit to_remove_mask_watchpoint.  */
628       /* Do not inherit to_stopped_data_address.  */
629       INHERIT (to_have_steppable_watchpoint, t);
630       INHERIT (to_have_continuable_watchpoint, t);
631       /* Do not inherit to_stopped_by_watchpoint.  */
632       /* Do not inherit to_watchpoint_addr_within_range.  */
633       /* Do not inherit to_region_ok_for_hw_watchpoint.  */
634       /* Do not inherit to_can_accel_watchpoint_condition.  */
635       /* Do not inherit to_masked_watch_num_registers.  */
636       /* Do not inherit to_terminal_init.  */
637       /* Do not inherit to_terminal_inferior.  */
638       /* Do not inherit to_terminal_ours_for_output.  */
639       /* Do not inherit to_terminal_ours.  */
640       /* Do not inherit to_terminal_save_ours.  */
641       /* Do not inherit to_terminal_info.  */
642       /* Do not inherit to_kill.  */
643       /* Do not inherit to_load.  */
644       /* Do no inherit to_create_inferior.  */
645       /* Do not inherit to_post_startup_inferior.  */
646       /* Do not inherit to_insert_fork_catchpoint.  */
647       /* Do not inherit to_remove_fork_catchpoint.  */
648       /* Do not inherit to_insert_vfork_catchpoint.  */
649       /* Do not inherit to_remove_vfork_catchpoint.  */
650       /* Do not inherit to_follow_fork.  */
651       /* Do not inherit to_insert_exec_catchpoint.  */
652       /* Do not inherit to_remove_exec_catchpoint.  */
653       /* Do not inherit to_set_syscall_catchpoint.  */
654       /* Do not inherit to_has_exited.  */
655       /* Do not inherit to_mourn_inferior.  */
656       /* Do not inherit to_can_run.  */
657       /* Do not inherit to_pass_signals.  */
658       /* Do not inherit to_program_signals.  */
659       /* Do not inherit to_thread_alive.  */
660       /* Do not inherit to_find_new_threads.  */
661       /* Do not inherit to_pid_to_str.  */
662       /* Do not inherit to_extra_thread_info.  */
663       /* Do not inherit to_thread_name.  */
664       /* Do not inherit to_stop.  */
665       /* Do not inherit to_xfer_partial.  */
666       /* Do not inherit to_rcmd.  */
667       /* Do not inherit to_pid_to_exec_file.  */
668       /* Do not inherit to_log_command.  */
669       INHERIT (to_stratum, t);
670       /* Do not inherit to_has_all_memory.  */
671       /* Do not inherit to_has_memory.  */
672       /* Do not inherit to_has_stack.  */
673       /* Do not inherit to_has_registers.  */
674       /* Do not inherit to_has_execution.  */
675       INHERIT (to_has_thread_control, t);
676       /* Do not inherit to_can_async_p.  */
677       /* Do not inherit to_is_async_p.  */
678       /* Do not inherit to_async.  */
679       /* Do not inherit to_find_memory_regions.  */
680       /* Do not inherit to_make_corefile_notes.  */
681       /* Do not inherit to_get_bookmark.  */
682       /* Do not inherit to_goto_bookmark.  */
683       /* Do not inherit to_get_thread_local_address.  */
684       /* Do not inherit to_can_execute_reverse.  */
685       /* Do not inherit to_execution_direction.  */
686       /* Do not inherit to_thread_architecture.  */
687       /* Do not inherit to_read_description.  */
688       /* Do not inherit to_get_ada_task_ptid.  */
689       /* Do not inherit to_search_memory.  */
690       /* Do not inherit to_supports_multi_process.  */
691       /* Do not inherit to_supports_enable_disable_tracepoint.  */
692       /* Do not inherit to_supports_string_tracing.  */
693       /* Do not inherit to_trace_init.  */
694       /* Do not inherit to_download_tracepoint.  */
695       /* Do not inherit to_can_download_tracepoint.  */
696       /* Do not inherit to_download_trace_state_variable.  */
697       /* Do not inherit to_enable_tracepoint.  */
698       /* Do not inherit to_disable_tracepoint.  */
699       /* Do not inherit to_trace_set_readonly_regions.  */
700       /* Do not inherit to_trace_start.  */
701       /* Do not inherit to_get_trace_status.  */
702       /* Do not inherit to_get_tracepoint_status.  */
703       /* Do not inherit to_trace_stop.  */
704       /* Do not inherit to_trace_find.  */
705       /* Do not inherit to_get_trace_state_variable_value.  */
706       /* Do not inherit to_save_trace_data.  */
707       /* Do not inherit to_upload_tracepoints.  */
708       /* Do not inherit to_upload_trace_state_variables.  */
709       /* Do not inherit to_get_raw_trace_data.  */
710       /* Do not inherit to_get_min_fast_tracepoint_insn_len.  */
711       /* Do not inherit to_set_disconnected_tracing.  */
712       /* Do not inherit to_set_circular_trace_buffer.  */
713       /* Do not inherit to_set_trace_buffer_size.  */
714       /* Do not inherit to_set_trace_notes.  */
715       /* Do not inherit to_get_tib_address.  */
716       /* Do not inherit to_set_permissions.  */
717       /* Do not inherit to_static_tracepoint_marker_at.  */
718       /* Do not inherit to_static_tracepoint_markers_by_strid.  */
719       /* Do not inherit to_traceframe_info.  */
720       /* Do not inherit to_use_agent.  */
721       /* Do not inherit to_can_use_agent.  */
722       /* Do not inherit to_augmented_libraries_svr4_read.  */
723       INHERIT (to_magic, t);
724       /* Do not inherit
725          to_supports_evaluation_of_breakpoint_conditions.  */
726       /* Do not inherit to_can_run_breakpoint_commands.  */
727       /* Do not inherit to_memory_map.  */
728       /* Do not inherit to_flash_erase.  */
729       /* Do not inherit to_flash_done.  */
730     }
731 #undef INHERIT
732
733   /* Clean up a target struct so it no longer has any zero pointers in
734      it.  Some entries are defaulted to a method that print an error,
735      others are hard-wired to a standard recursive default.  */
736
737 #define de_fault(field, value) \
738   if (!current_target.field)               \
739     current_target.field = value
740
741   de_fault (to_open,
742             (void (*) (char *, int))
743             tcomplain);
744   de_fault (to_close,
745             (void (*) (struct target_ops *))
746             target_ignore);
747   de_fault (deprecated_xfer_memory,
748             (int (*) (CORE_ADDR, gdb_byte *, int, int,
749                       struct mem_attrib *, struct target_ops *))
750             nomemory);
751
752 #undef de_fault
753
754   /* Finally, position the target-stack beneath the squashed
755      "current_target".  That way code looking for a non-inherited
756      target method can quickly and simply find it.  */
757   current_target.beneath = target_stack;
758
759   if (targetdebug)
760     setup_target_debug ();
761 }
762
763 /* Push a new target type into the stack of the existing target accessors,
764    possibly superseding some of the existing accessors.
765
766    Rather than allow an empty stack, we always have the dummy target at
767    the bottom stratum, so we can call the function vectors without
768    checking them.  */
769
770 void
771 push_target (struct target_ops *t)
772 {
773   struct target_ops **cur;
774
775   /* Check magic number.  If wrong, it probably means someone changed
776      the struct definition, but not all the places that initialize one.  */
777   if (t->to_magic != OPS_MAGIC)
778     {
779       fprintf_unfiltered (gdb_stderr,
780                           "Magic number of %s target struct wrong\n",
781                           t->to_shortname);
782       internal_error (__FILE__, __LINE__,
783                       _("failed internal consistency check"));
784     }
785
786   /* Find the proper stratum to install this target in.  */
787   for (cur = &target_stack; (*cur) != NULL; cur = &(*cur)->beneath)
788     {
789       if ((int) (t->to_stratum) >= (int) (*cur)->to_stratum)
790         break;
791     }
792
793   /* If there's already targets at this stratum, remove them.  */
794   /* FIXME: cagney/2003-10-15: I think this should be popping all
795      targets to CUR, and not just those at this stratum level.  */
796   while ((*cur) != NULL && t->to_stratum == (*cur)->to_stratum)
797     {
798       /* There's already something at this stratum level.  Close it,
799          and un-hook it from the stack.  */
800       struct target_ops *tmp = (*cur);
801
802       (*cur) = (*cur)->beneath;
803       tmp->beneath = NULL;
804       target_close (tmp);
805     }
806
807   /* We have removed all targets in our stratum, now add the new one.  */
808   t->beneath = (*cur);
809   (*cur) = t;
810
811   update_current_target ();
812 }
813
814 /* Remove a target_ops vector from the stack, wherever it may be.
815    Return how many times it was removed (0 or 1).  */
816
817 int
818 unpush_target (struct target_ops *t)
819 {
820   struct target_ops **cur;
821   struct target_ops *tmp;
822
823   if (t->to_stratum == dummy_stratum)
824     internal_error (__FILE__, __LINE__,
825                     _("Attempt to unpush the dummy target"));
826
827   /* Look for the specified target.  Note that we assume that a target
828      can only occur once in the target stack.  */
829
830   for (cur = &target_stack; (*cur) != NULL; cur = &(*cur)->beneath)
831     {
832       if ((*cur) == t)
833         break;
834     }
835
836   /* If we don't find target_ops, quit.  Only open targets should be
837      closed.  */
838   if ((*cur) == NULL)
839     return 0;                   
840
841   /* Unchain the target.  */
842   tmp = (*cur);
843   (*cur) = (*cur)->beneath;
844   tmp->beneath = NULL;
845
846   update_current_target ();
847
848   /* Finally close the target.  Note we do this after unchaining, so
849      any target method calls from within the target_close
850      implementation don't end up in T anymore.  */
851   target_close (t);
852
853   return 1;
854 }
855
856 void
857 pop_all_targets_above (enum strata above_stratum)
858 {
859   while ((int) (current_target.to_stratum) > (int) above_stratum)
860     {
861       if (!unpush_target (target_stack))
862         {
863           fprintf_unfiltered (gdb_stderr,
864                               "pop_all_targets couldn't find target %s\n",
865                               target_stack->to_shortname);
866           internal_error (__FILE__, __LINE__,
867                           _("failed internal consistency check"));
868           break;
869         }
870     }
871 }
872
873 void
874 pop_all_targets (void)
875 {
876   pop_all_targets_above (dummy_stratum);
877 }
878
879 /* Return 1 if T is now pushed in the target stack.  Return 0 otherwise.  */
880
881 int
882 target_is_pushed (struct target_ops *t)
883 {
884   struct target_ops **cur;
885
886   /* Check magic number.  If wrong, it probably means someone changed
887      the struct definition, but not all the places that initialize one.  */
888   if (t->to_magic != OPS_MAGIC)
889     {
890       fprintf_unfiltered (gdb_stderr,
891                           "Magic number of %s target struct wrong\n",
892                           t->to_shortname);
893       internal_error (__FILE__, __LINE__,
894                       _("failed internal consistency check"));
895     }
896
897   for (cur = &target_stack; (*cur) != NULL; cur = &(*cur)->beneath)
898     if (*cur == t)
899       return 1;
900
901   return 0;
902 }
903
904 /* Using the objfile specified in OBJFILE, find the address for the
905    current thread's thread-local storage with offset OFFSET.  */
906 CORE_ADDR
907 target_translate_tls_address (struct objfile *objfile, CORE_ADDR offset)
908 {
909   volatile CORE_ADDR addr = 0;
910   struct target_ops *target;
911
912   for (target = current_target.beneath;
913        target != NULL;
914        target = target->beneath)
915     {
916       if (target->to_get_thread_local_address != NULL)
917         break;
918     }
919
920   if (target != NULL
921       && gdbarch_fetch_tls_load_module_address_p (target_gdbarch ()))
922     {
923       ptid_t ptid = inferior_ptid;
924       volatile struct gdb_exception ex;
925
926       TRY_CATCH (ex, RETURN_MASK_ALL)
927         {
928           CORE_ADDR lm_addr;
929           
930           /* Fetch the load module address for this objfile.  */
931           lm_addr = gdbarch_fetch_tls_load_module_address (target_gdbarch (),
932                                                            objfile);
933           /* If it's 0, throw the appropriate exception.  */
934           if (lm_addr == 0)
935             throw_error (TLS_LOAD_MODULE_NOT_FOUND_ERROR,
936                          _("TLS load module not found"));
937
938           addr = target->to_get_thread_local_address (target, ptid,
939                                                       lm_addr, offset);
940         }
941       /* If an error occurred, print TLS related messages here.  Otherwise,
942          throw the error to some higher catcher.  */
943       if (ex.reason < 0)
944         {
945           int objfile_is_library = (objfile->flags & OBJF_SHARED);
946
947           switch (ex.error)
948             {
949             case TLS_NO_LIBRARY_SUPPORT_ERROR:
950               error (_("Cannot find thread-local variables "
951                        "in this thread library."));
952               break;
953             case TLS_LOAD_MODULE_NOT_FOUND_ERROR:
954               if (objfile_is_library)
955                 error (_("Cannot find shared library `%s' in dynamic"
956                          " linker's load module list"), objfile_name (objfile));
957               else
958                 error (_("Cannot find executable file `%s' in dynamic"
959                          " linker's load module list"), objfile_name (objfile));
960               break;
961             case TLS_NOT_ALLOCATED_YET_ERROR:
962               if (objfile_is_library)
963                 error (_("The inferior has not yet allocated storage for"
964                          " thread-local variables in\n"
965                          "the shared library `%s'\n"
966                          "for %s"),
967                        objfile_name (objfile), target_pid_to_str (ptid));
968               else
969                 error (_("The inferior has not yet allocated storage for"
970                          " thread-local variables in\n"
971                          "the executable `%s'\n"
972                          "for %s"),
973                        objfile_name (objfile), target_pid_to_str (ptid));
974               break;
975             case TLS_GENERIC_ERROR:
976               if (objfile_is_library)
977                 error (_("Cannot find thread-local storage for %s, "
978                          "shared library %s:\n%s"),
979                        target_pid_to_str (ptid),
980                        objfile_name (objfile), ex.message);
981               else
982                 error (_("Cannot find thread-local storage for %s, "
983                          "executable file %s:\n%s"),
984                        target_pid_to_str (ptid),
985                        objfile_name (objfile), ex.message);
986               break;
987             default:
988               throw_exception (ex);
989               break;
990             }
991         }
992     }
993   /* It wouldn't be wrong here to try a gdbarch method, too; finding
994      TLS is an ABI-specific thing.  But we don't do that yet.  */
995   else
996     error (_("Cannot find thread-local variables on this target"));
997
998   return addr;
999 }
1000
1001 const char *
1002 target_xfer_status_to_string (enum target_xfer_status err)
1003 {
1004 #define CASE(X) case X: return #X
1005   switch (err)
1006     {
1007       CASE(TARGET_XFER_E_IO);
1008       CASE(TARGET_XFER_E_UNAVAILABLE);
1009     default:
1010       return "<unknown>";
1011     }
1012 #undef CASE
1013 };
1014
1015
1016 #undef  MIN
1017 #define MIN(A, B) (((A) <= (B)) ? (A) : (B))
1018
1019 /* target_read_string -- read a null terminated string, up to LEN bytes,
1020    from MEMADDR in target.  Set *ERRNOP to the errno code, or 0 if successful.
1021    Set *STRING to a pointer to malloc'd memory containing the data; the caller
1022    is responsible for freeing it.  Return the number of bytes successfully
1023    read.  */
1024
1025 int
1026 target_read_string (CORE_ADDR memaddr, char **string, int len, int *errnop)
1027 {
1028   int tlen, offset, i;
1029   gdb_byte buf[4];
1030   int errcode = 0;
1031   char *buffer;
1032   int buffer_allocated;
1033   char *bufptr;
1034   unsigned int nbytes_read = 0;
1035
1036   gdb_assert (string);
1037
1038   /* Small for testing.  */
1039   buffer_allocated = 4;
1040   buffer = xmalloc (buffer_allocated);
1041   bufptr = buffer;
1042
1043   while (len > 0)
1044     {
1045       tlen = MIN (len, 4 - (memaddr & 3));
1046       offset = memaddr & 3;
1047
1048       errcode = target_read_memory (memaddr & ~3, buf, sizeof buf);
1049       if (errcode != 0)
1050         {
1051           /* The transfer request might have crossed the boundary to an
1052              unallocated region of memory.  Retry the transfer, requesting
1053              a single byte.  */
1054           tlen = 1;
1055           offset = 0;
1056           errcode = target_read_memory (memaddr, buf, 1);
1057           if (errcode != 0)
1058             goto done;
1059         }
1060
1061       if (bufptr - buffer + tlen > buffer_allocated)
1062         {
1063           unsigned int bytes;
1064
1065           bytes = bufptr - buffer;
1066           buffer_allocated *= 2;
1067           buffer = xrealloc (buffer, buffer_allocated);
1068           bufptr = buffer + bytes;
1069         }
1070
1071       for (i = 0; i < tlen; i++)
1072         {
1073           *bufptr++ = buf[i + offset];
1074           if (buf[i + offset] == '\000')
1075             {
1076               nbytes_read += i + 1;
1077               goto done;
1078             }
1079         }
1080
1081       memaddr += tlen;
1082       len -= tlen;
1083       nbytes_read += tlen;
1084     }
1085 done:
1086   *string = buffer;
1087   if (errnop != NULL)
1088     *errnop = errcode;
1089   return nbytes_read;
1090 }
1091
1092 struct target_section_table *
1093 target_get_section_table (struct target_ops *target)
1094 {
1095   if (targetdebug)
1096     fprintf_unfiltered (gdb_stdlog, "target_get_section_table ()\n");
1097
1098   return (*target->to_get_section_table) (target);
1099 }
1100
1101 /* Find a section containing ADDR.  */
1102
1103 struct target_section *
1104 target_section_by_addr (struct target_ops *target, CORE_ADDR addr)
1105 {
1106   struct target_section_table *table = target_get_section_table (target);
1107   struct target_section *secp;
1108
1109   if (table == NULL)
1110     return NULL;
1111
1112   for (secp = table->sections; secp < table->sections_end; secp++)
1113     {
1114       if (addr >= secp->addr && addr < secp->endaddr)
1115         return secp;
1116     }
1117   return NULL;
1118 }
1119
1120 /* Read memory from the live target, even if currently inspecting a
1121    traceframe.  The return is the same as that of target_read.  */
1122
1123 static enum target_xfer_status
1124 target_read_live_memory (enum target_object object,
1125                          ULONGEST memaddr, gdb_byte *myaddr, ULONGEST len,
1126                          ULONGEST *xfered_len)
1127 {
1128   enum target_xfer_status ret;
1129   struct cleanup *cleanup;
1130
1131   /* Switch momentarily out of tfind mode so to access live memory.
1132      Note that this must not clear global state, such as the frame
1133      cache, which must still remain valid for the previous traceframe.
1134      We may be _building_ the frame cache at this point.  */
1135   cleanup = make_cleanup_restore_traceframe_number ();
1136   set_traceframe_number (-1);
1137
1138   ret = target_xfer_partial (current_target.beneath, object, NULL,
1139                              myaddr, NULL, memaddr, len, xfered_len);
1140
1141   do_cleanups (cleanup);
1142   return ret;
1143 }
1144
1145 /* Using the set of read-only target sections of OPS, read live
1146    read-only memory.  Note that the actual reads start from the
1147    top-most target again.
1148
1149    For interface/parameters/return description see target.h,
1150    to_xfer_partial.  */
1151
1152 static enum target_xfer_status
1153 memory_xfer_live_readonly_partial (struct target_ops *ops,
1154                                    enum target_object object,
1155                                    gdb_byte *readbuf, ULONGEST memaddr,
1156                                    ULONGEST len, ULONGEST *xfered_len)
1157 {
1158   struct target_section *secp;
1159   struct target_section_table *table;
1160
1161   secp = target_section_by_addr (ops, memaddr);
1162   if (secp != NULL
1163       && (bfd_get_section_flags (secp->the_bfd_section->owner,
1164                                  secp->the_bfd_section)
1165           & SEC_READONLY))
1166     {
1167       struct target_section *p;
1168       ULONGEST memend = memaddr + len;
1169
1170       table = target_get_section_table (ops);
1171
1172       for (p = table->sections; p < table->sections_end; p++)
1173         {
1174           if (memaddr >= p->addr)
1175             {
1176               if (memend <= p->endaddr)
1177                 {
1178                   /* Entire transfer is within this section.  */
1179                   return target_read_live_memory (object, memaddr,
1180                                                   readbuf, len, xfered_len);
1181                 }
1182               else if (memaddr >= p->endaddr)
1183                 {
1184                   /* This section ends before the transfer starts.  */
1185                   continue;
1186                 }
1187               else
1188                 {
1189                   /* This section overlaps the transfer.  Just do half.  */
1190                   len = p->endaddr - memaddr;
1191                   return target_read_live_memory (object, memaddr,
1192                                                   readbuf, len, xfered_len);
1193                 }
1194             }
1195         }
1196     }
1197
1198   return TARGET_XFER_EOF;
1199 }
1200
1201 /* Read memory from more than one valid target.  A core file, for
1202    instance, could have some of memory but delegate other bits to
1203    the target below it.  So, we must manually try all targets.  */
1204
1205 static enum target_xfer_status
1206 raw_memory_xfer_partial (struct target_ops *ops, gdb_byte *readbuf,
1207                          const gdb_byte *writebuf, ULONGEST memaddr, LONGEST len,
1208                          ULONGEST *xfered_len)
1209 {
1210   enum target_xfer_status res;
1211
1212   do
1213     {
1214       res = ops->to_xfer_partial (ops, TARGET_OBJECT_MEMORY, NULL,
1215                                   readbuf, writebuf, memaddr, len,
1216                                   xfered_len);
1217       if (res == TARGET_XFER_OK)
1218         break;
1219
1220       /* Stop if the target reports that the memory is not available.  */
1221       if (res == TARGET_XFER_E_UNAVAILABLE)
1222         break;
1223
1224       /* We want to continue past core files to executables, but not
1225          past a running target's memory.  */
1226       if (ops->to_has_all_memory (ops))
1227         break;
1228
1229       ops = ops->beneath;
1230     }
1231   while (ops != NULL);
1232
1233   return res;
1234 }
1235
1236 /* Perform a partial memory transfer.
1237    For docs see target.h, to_xfer_partial.  */
1238
1239 static enum target_xfer_status
1240 memory_xfer_partial_1 (struct target_ops *ops, enum target_object object,
1241                        gdb_byte *readbuf, const gdb_byte *writebuf, ULONGEST memaddr,
1242                        ULONGEST len, ULONGEST *xfered_len)
1243 {
1244   enum target_xfer_status res;
1245   int reg_len;
1246   struct mem_region *region;
1247   struct inferior *inf;
1248
1249   /* For accesses to unmapped overlay sections, read directly from
1250      files.  Must do this first, as MEMADDR may need adjustment.  */
1251   if (readbuf != NULL && overlay_debugging)
1252     {
1253       struct obj_section *section = find_pc_overlay (memaddr);
1254
1255       if (pc_in_unmapped_range (memaddr, section))
1256         {
1257           struct target_section_table *table
1258             = target_get_section_table (ops);
1259           const char *section_name = section->the_bfd_section->name;
1260
1261           memaddr = overlay_mapped_address (memaddr, section);
1262           return section_table_xfer_memory_partial (readbuf, writebuf,
1263                                                     memaddr, len, xfered_len,
1264                                                     table->sections,
1265                                                     table->sections_end,
1266                                                     section_name);
1267         }
1268     }
1269
1270   /* Try the executable files, if "trust-readonly-sections" is set.  */
1271   if (readbuf != NULL && trust_readonly)
1272     {
1273       struct target_section *secp;
1274       struct target_section_table *table;
1275
1276       secp = target_section_by_addr (ops, memaddr);
1277       if (secp != NULL
1278           && (bfd_get_section_flags (secp->the_bfd_section->owner,
1279                                      secp->the_bfd_section)
1280               & SEC_READONLY))
1281         {
1282           table = target_get_section_table (ops);
1283           return section_table_xfer_memory_partial (readbuf, writebuf,
1284                                                     memaddr, len, xfered_len,
1285                                                     table->sections,
1286                                                     table->sections_end,
1287                                                     NULL);
1288         }
1289     }
1290
1291   /* If reading unavailable memory in the context of traceframes, and
1292      this address falls within a read-only section, fallback to
1293      reading from live memory.  */
1294   if (readbuf != NULL && get_traceframe_number () != -1)
1295     {
1296       VEC(mem_range_s) *available;
1297
1298       /* If we fail to get the set of available memory, then the
1299          target does not support querying traceframe info, and so we
1300          attempt reading from the traceframe anyway (assuming the
1301          target implements the old QTro packet then).  */
1302       if (traceframe_available_memory (&available, memaddr, len))
1303         {
1304           struct cleanup *old_chain;
1305
1306           old_chain = make_cleanup (VEC_cleanup(mem_range_s), &available);
1307
1308           if (VEC_empty (mem_range_s, available)
1309               || VEC_index (mem_range_s, available, 0)->start != memaddr)
1310             {
1311               /* Don't read into the traceframe's available
1312                  memory.  */
1313               if (!VEC_empty (mem_range_s, available))
1314                 {
1315                   LONGEST oldlen = len;
1316
1317                   len = VEC_index (mem_range_s, available, 0)->start - memaddr;
1318                   gdb_assert (len <= oldlen);
1319                 }
1320
1321               do_cleanups (old_chain);
1322
1323               /* This goes through the topmost target again.  */
1324               res = memory_xfer_live_readonly_partial (ops, object,
1325                                                        readbuf, memaddr,
1326                                                        len, xfered_len);
1327               if (res == TARGET_XFER_OK)
1328                 return TARGET_XFER_OK;
1329               else
1330                 {
1331                   /* No use trying further, we know some memory starting
1332                      at MEMADDR isn't available.  */
1333                   *xfered_len = len;
1334                   return TARGET_XFER_E_UNAVAILABLE;
1335                 }
1336             }
1337
1338           /* Don't try to read more than how much is available, in
1339              case the target implements the deprecated QTro packet to
1340              cater for older GDBs (the target's knowledge of read-only
1341              sections may be outdated by now).  */
1342           len = VEC_index (mem_range_s, available, 0)->length;
1343
1344           do_cleanups (old_chain);
1345         }
1346     }
1347
1348   /* Try GDB's internal data cache.  */
1349   region = lookup_mem_region (memaddr);
1350   /* region->hi == 0 means there's no upper bound.  */
1351   if (memaddr + len < region->hi || region->hi == 0)
1352     reg_len = len;
1353   else
1354     reg_len = region->hi - memaddr;
1355
1356   switch (region->attrib.mode)
1357     {
1358     case MEM_RO:
1359       if (writebuf != NULL)
1360         return TARGET_XFER_E_IO;
1361       break;
1362
1363     case MEM_WO:
1364       if (readbuf != NULL)
1365         return TARGET_XFER_E_IO;
1366       break;
1367
1368     case MEM_FLASH:
1369       /* We only support writing to flash during "load" for now.  */
1370       if (writebuf != NULL)
1371         error (_("Writing to flash memory forbidden in this context"));
1372       break;
1373
1374     case MEM_NONE:
1375       return TARGET_XFER_E_IO;
1376     }
1377
1378   if (!ptid_equal (inferior_ptid, null_ptid))
1379     inf = find_inferior_pid (ptid_get_pid (inferior_ptid));
1380   else
1381     inf = NULL;
1382
1383   if (inf != NULL
1384       /* The dcache reads whole cache lines; that doesn't play well
1385          with reading from a trace buffer, because reading outside of
1386          the collected memory range fails.  */
1387       && get_traceframe_number () == -1
1388       && (region->attrib.cache
1389           || (stack_cache_enabled_p () && object == TARGET_OBJECT_STACK_MEMORY)
1390           || (code_cache_enabled_p () && object == TARGET_OBJECT_CODE_MEMORY)))
1391     {
1392       DCACHE *dcache = target_dcache_get_or_init ();
1393       int l;
1394
1395       if (readbuf != NULL)
1396         l = dcache_xfer_memory (ops, dcache, memaddr, readbuf, reg_len, 0);
1397       else
1398         /* FIXME drow/2006-08-09: If we're going to preserve const
1399            correctness dcache_xfer_memory should take readbuf and
1400            writebuf.  */
1401         l = dcache_xfer_memory (ops, dcache, memaddr, (void *) writebuf,
1402                                   reg_len, 1);
1403       if (l <= 0)
1404         return TARGET_XFER_E_IO;
1405       else
1406         {
1407           *xfered_len = (ULONGEST) l;
1408           return TARGET_XFER_OK;
1409         }
1410     }
1411
1412   /* If none of those methods found the memory we wanted, fall back
1413      to a target partial transfer.  Normally a single call to
1414      to_xfer_partial is enough; if it doesn't recognize an object
1415      it will call the to_xfer_partial of the next target down.
1416      But for memory this won't do.  Memory is the only target
1417      object which can be read from more than one valid target.
1418      A core file, for instance, could have some of memory but
1419      delegate other bits to the target below it.  So, we must
1420      manually try all targets.  */
1421
1422   res = raw_memory_xfer_partial (ops, readbuf, writebuf, memaddr, reg_len,
1423                                  xfered_len);
1424
1425   /* Make sure the cache gets updated no matter what - if we are writing
1426      to the stack.  Even if this write is not tagged as such, we still need
1427      to update the cache.  */
1428
1429   if (res == TARGET_XFER_OK
1430       && inf != NULL
1431       && writebuf != NULL
1432       && target_dcache_init_p ()
1433       && !region->attrib.cache
1434       && ((stack_cache_enabled_p () && object != TARGET_OBJECT_STACK_MEMORY)
1435           || (code_cache_enabled_p () && object != TARGET_OBJECT_CODE_MEMORY)))
1436     {
1437       DCACHE *dcache = target_dcache_get ();
1438
1439       dcache_update (dcache, memaddr, (void *) writebuf, reg_len);
1440     }
1441
1442   /* If we still haven't got anything, return the last error.  We
1443      give up.  */
1444   return res;
1445 }
1446
1447 /* Perform a partial memory transfer.  For docs see target.h,
1448    to_xfer_partial.  */
1449
1450 static enum target_xfer_status
1451 memory_xfer_partial (struct target_ops *ops, enum target_object object,
1452                      gdb_byte *readbuf, const gdb_byte *writebuf,
1453                      ULONGEST memaddr, ULONGEST len, ULONGEST *xfered_len)
1454 {
1455   enum target_xfer_status res;
1456
1457   /* Zero length requests are ok and require no work.  */
1458   if (len == 0)
1459     return TARGET_XFER_EOF;
1460
1461   /* Fill in READBUF with breakpoint shadows, or WRITEBUF with
1462      breakpoint insns, thus hiding out from higher layers whether
1463      there are software breakpoints inserted in the code stream.  */
1464   if (readbuf != NULL)
1465     {
1466       res = memory_xfer_partial_1 (ops, object, readbuf, NULL, memaddr, len,
1467                                    xfered_len);
1468
1469       if (res == TARGET_XFER_OK && !show_memory_breakpoints)
1470         breakpoint_xfer_memory (readbuf, NULL, NULL, memaddr, res);
1471     }
1472   else
1473     {
1474       void *buf;
1475       struct cleanup *old_chain;
1476
1477       /* A large write request is likely to be partially satisfied
1478          by memory_xfer_partial_1.  We will continually malloc
1479          and free a copy of the entire write request for breakpoint
1480          shadow handling even though we only end up writing a small
1481          subset of it.  Cap writes to 4KB to mitigate this.  */
1482       len = min (4096, len);
1483
1484       buf = xmalloc (len);
1485       old_chain = make_cleanup (xfree, buf);
1486       memcpy (buf, writebuf, len);
1487
1488       breakpoint_xfer_memory (NULL, buf, writebuf, memaddr, len);
1489       res = memory_xfer_partial_1 (ops, object, NULL, buf, memaddr, len,
1490                                    xfered_len);
1491
1492       do_cleanups (old_chain);
1493     }
1494
1495   return res;
1496 }
1497
1498 static void
1499 restore_show_memory_breakpoints (void *arg)
1500 {
1501   show_memory_breakpoints = (uintptr_t) arg;
1502 }
1503
1504 struct cleanup *
1505 make_show_memory_breakpoints_cleanup (int show)
1506 {
1507   int current = show_memory_breakpoints;
1508
1509   show_memory_breakpoints = show;
1510   return make_cleanup (restore_show_memory_breakpoints,
1511                        (void *) (uintptr_t) current);
1512 }
1513
1514 /* For docs see target.h, to_xfer_partial.  */
1515
1516 enum target_xfer_status
1517 target_xfer_partial (struct target_ops *ops,
1518                      enum target_object object, const char *annex,
1519                      gdb_byte *readbuf, const gdb_byte *writebuf,
1520                      ULONGEST offset, ULONGEST len,
1521                      ULONGEST *xfered_len)
1522 {
1523   enum target_xfer_status retval;
1524
1525   gdb_assert (ops->to_xfer_partial != NULL);
1526
1527   /* Transfer is done when LEN is zero.  */
1528   if (len == 0)
1529     return TARGET_XFER_EOF;
1530
1531   if (writebuf && !may_write_memory)
1532     error (_("Writing to memory is not allowed (addr %s, len %s)"),
1533            core_addr_to_string_nz (offset), plongest (len));
1534
1535   *xfered_len = 0;
1536
1537   /* If this is a memory transfer, let the memory-specific code
1538      have a look at it instead.  Memory transfers are more
1539      complicated.  */
1540   if (object == TARGET_OBJECT_MEMORY || object == TARGET_OBJECT_STACK_MEMORY
1541       || object == TARGET_OBJECT_CODE_MEMORY)
1542     retval = memory_xfer_partial (ops, object, readbuf,
1543                                   writebuf, offset, len, xfered_len);
1544   else if (object == TARGET_OBJECT_RAW_MEMORY)
1545     {
1546       /* Request the normal memory object from other layers.  */
1547       retval = raw_memory_xfer_partial (ops, readbuf, writebuf, offset, len,
1548                                         xfered_len);
1549     }
1550   else
1551     retval = ops->to_xfer_partial (ops, object, annex, readbuf,
1552                                    writebuf, offset, len, xfered_len);
1553
1554   if (targetdebug)
1555     {
1556       const unsigned char *myaddr = NULL;
1557
1558       fprintf_unfiltered (gdb_stdlog,
1559                           "%s:target_xfer_partial "
1560                           "(%d, %s, %s, %s, %s, %s) = %d, %s",
1561                           ops->to_shortname,
1562                           (int) object,
1563                           (annex ? annex : "(null)"),
1564                           host_address_to_string (readbuf),
1565                           host_address_to_string (writebuf),
1566                           core_addr_to_string_nz (offset),
1567                           pulongest (len), retval,
1568                           pulongest (*xfered_len));
1569
1570       if (readbuf)
1571         myaddr = readbuf;
1572       if (writebuf)
1573         myaddr = writebuf;
1574       if (retval == TARGET_XFER_OK && myaddr != NULL)
1575         {
1576           int i;
1577
1578           fputs_unfiltered (", bytes =", gdb_stdlog);
1579           for (i = 0; i < *xfered_len; i++)
1580             {
1581               if ((((intptr_t) &(myaddr[i])) & 0xf) == 0)
1582                 {
1583                   if (targetdebug < 2 && i > 0)
1584                     {
1585                       fprintf_unfiltered (gdb_stdlog, " ...");
1586                       break;
1587                     }
1588                   fprintf_unfiltered (gdb_stdlog, "\n");
1589                 }
1590
1591               fprintf_unfiltered (gdb_stdlog, " %02x", myaddr[i] & 0xff);
1592             }
1593         }
1594
1595       fputc_unfiltered ('\n', gdb_stdlog);
1596     }
1597
1598   /* Check implementations of to_xfer_partial update *XFERED_LEN
1599      properly.  Do assertion after printing debug messages, so that we
1600      can find more clues on assertion failure from debugging messages.  */
1601   if (retval == TARGET_XFER_OK || retval == TARGET_XFER_E_UNAVAILABLE)
1602     gdb_assert (*xfered_len > 0);
1603
1604   return retval;
1605 }
1606
1607 /* Read LEN bytes of target memory at address MEMADDR, placing the
1608    results in GDB's memory at MYADDR.  Returns either 0 for success or
1609    TARGET_XFER_E_IO if any error occurs.
1610
1611    If an error occurs, no guarantee is made about the contents of the data at
1612    MYADDR.  In particular, the caller should not depend upon partial reads
1613    filling the buffer with good data.  There is no way for the caller to know
1614    how much good data might have been transfered anyway.  Callers that can
1615    deal with partial reads should call target_read (which will retry until
1616    it makes no progress, and then return how much was transferred).  */
1617
1618 int
1619 target_read_memory (CORE_ADDR memaddr, gdb_byte *myaddr, ssize_t len)
1620 {
1621   /* Dispatch to the topmost target, not the flattened current_target.
1622      Memory accesses check target->to_has_(all_)memory, and the
1623      flattened target doesn't inherit those.  */
1624   if (target_read (current_target.beneath, TARGET_OBJECT_MEMORY, NULL,
1625                    myaddr, memaddr, len) == len)
1626     return 0;
1627   else
1628     return TARGET_XFER_E_IO;
1629 }
1630
1631 /* Like target_read_memory, but specify explicitly that this is a read
1632    from the target's raw memory.  That is, this read bypasses the
1633    dcache, breakpoint shadowing, etc.  */
1634
1635 int
1636 target_read_raw_memory (CORE_ADDR memaddr, gdb_byte *myaddr, ssize_t len)
1637 {
1638   /* See comment in target_read_memory about why the request starts at
1639      current_target.beneath.  */
1640   if (target_read (current_target.beneath, TARGET_OBJECT_RAW_MEMORY, NULL,
1641                    myaddr, memaddr, len) == len)
1642     return 0;
1643   else
1644     return TARGET_XFER_E_IO;
1645 }
1646
1647 /* Like target_read_memory, but specify explicitly that this is a read from
1648    the target's stack.  This may trigger different cache behavior.  */
1649
1650 int
1651 target_read_stack (CORE_ADDR memaddr, gdb_byte *myaddr, ssize_t len)
1652 {
1653   /* See comment in target_read_memory about why the request starts at
1654      current_target.beneath.  */
1655   if (target_read (current_target.beneath, TARGET_OBJECT_STACK_MEMORY, NULL,
1656                    myaddr, memaddr, len) == len)
1657     return 0;
1658   else
1659     return TARGET_XFER_E_IO;
1660 }
1661
1662 /* Like target_read_memory, but specify explicitly that this is a read from
1663    the target's code.  This may trigger different cache behavior.  */
1664
1665 int
1666 target_read_code (CORE_ADDR memaddr, gdb_byte *myaddr, ssize_t len)
1667 {
1668   /* See comment in target_read_memory about why the request starts at
1669      current_target.beneath.  */
1670   if (target_read (current_target.beneath, TARGET_OBJECT_CODE_MEMORY, NULL,
1671                    myaddr, memaddr, len) == len)
1672     return 0;
1673   else
1674     return TARGET_XFER_E_IO;
1675 }
1676
1677 /* Write LEN bytes from MYADDR to target memory at address MEMADDR.
1678    Returns either 0 for success or TARGET_XFER_E_IO if any
1679    error occurs.  If an error occurs, no guarantee is made about how
1680    much data got written.  Callers that can deal with partial writes
1681    should call target_write.  */
1682
1683 int
1684 target_write_memory (CORE_ADDR memaddr, const gdb_byte *myaddr, ssize_t len)
1685 {
1686   /* See comment in target_read_memory about why the request starts at
1687      current_target.beneath.  */
1688   if (target_write (current_target.beneath, TARGET_OBJECT_MEMORY, NULL,
1689                     myaddr, memaddr, len) == len)
1690     return 0;
1691   else
1692     return TARGET_XFER_E_IO;
1693 }
1694
1695 /* Write LEN bytes from MYADDR to target raw memory at address
1696    MEMADDR.  Returns either 0 for success or TARGET_XFER_E_IO
1697    if any error occurs.  If an error occurs, no guarantee is made
1698    about how much data got written.  Callers that can deal with
1699    partial writes should call target_write.  */
1700
1701 int
1702 target_write_raw_memory (CORE_ADDR memaddr, const gdb_byte *myaddr, ssize_t len)
1703 {
1704   /* See comment in target_read_memory about why the request starts at
1705      current_target.beneath.  */
1706   if (target_write (current_target.beneath, TARGET_OBJECT_RAW_MEMORY, NULL,
1707                     myaddr, memaddr, len) == len)
1708     return 0;
1709   else
1710     return TARGET_XFER_E_IO;
1711 }
1712
1713 /* Fetch the target's memory map.  */
1714
1715 VEC(mem_region_s) *
1716 target_memory_map (void)
1717 {
1718   VEC(mem_region_s) *result;
1719   struct mem_region *last_one, *this_one;
1720   int ix;
1721   struct target_ops *t;
1722
1723   if (targetdebug)
1724     fprintf_unfiltered (gdb_stdlog, "target_memory_map ()\n");
1725
1726   result = current_target.to_memory_map (&current_target);
1727   if (result == NULL)
1728     return NULL;
1729
1730   qsort (VEC_address (mem_region_s, result),
1731          VEC_length (mem_region_s, result),
1732          sizeof (struct mem_region), mem_region_cmp);
1733
1734   /* Check that regions do not overlap.  Simultaneously assign
1735      a numbering for the "mem" commands to use to refer to
1736      each region.  */
1737   last_one = NULL;
1738   for (ix = 0; VEC_iterate (mem_region_s, result, ix, this_one); ix++)
1739     {
1740       this_one->number = ix;
1741
1742       if (last_one && last_one->hi > this_one->lo)
1743         {
1744           warning (_("Overlapping regions in memory map: ignoring"));
1745           VEC_free (mem_region_s, result);
1746           return NULL;
1747         }
1748       last_one = this_one;
1749     }
1750
1751   return result;
1752 }
1753
1754 void
1755 target_flash_erase (ULONGEST address, LONGEST length)
1756 {
1757   if (targetdebug)
1758     fprintf_unfiltered (gdb_stdlog, "target_flash_erase (%s, %s)\n",
1759                         hex_string (address), phex (length, 0));
1760   current_target.to_flash_erase (&current_target, address, length);
1761 }
1762
1763 void
1764 target_flash_done (void)
1765 {
1766   if (targetdebug)
1767     fprintf_unfiltered (gdb_stdlog, "target_flash_done\n");
1768   current_target.to_flash_done (&current_target);
1769 }
1770
1771 static void
1772 show_trust_readonly (struct ui_file *file, int from_tty,
1773                      struct cmd_list_element *c, const char *value)
1774 {
1775   fprintf_filtered (file,
1776                     _("Mode for reading from readonly sections is %s.\n"),
1777                     value);
1778 }
1779
1780 /* More generic transfers.  */
1781
1782 static enum target_xfer_status
1783 default_xfer_partial (struct target_ops *ops, enum target_object object,
1784                       const char *annex, gdb_byte *readbuf,
1785                       const gdb_byte *writebuf, ULONGEST offset, ULONGEST len,
1786                       ULONGEST *xfered_len)
1787 {
1788   if (object == TARGET_OBJECT_MEMORY
1789       && ops->deprecated_xfer_memory != NULL)
1790     /* If available, fall back to the target's
1791        "deprecated_xfer_memory" method.  */
1792     {
1793       int xfered = -1;
1794
1795       errno = 0;
1796       if (writebuf != NULL)
1797         {
1798           void *buffer = xmalloc (len);
1799           struct cleanup *cleanup = make_cleanup (xfree, buffer);
1800
1801           memcpy (buffer, writebuf, len);
1802           xfered = ops->deprecated_xfer_memory (offset, buffer, len,
1803                                                 1/*write*/, NULL, ops);
1804           do_cleanups (cleanup);
1805         }
1806       if (readbuf != NULL)
1807         xfered = ops->deprecated_xfer_memory (offset, readbuf, len, 
1808                                               0/*read*/, NULL, ops);
1809       if (xfered > 0)
1810         {
1811           *xfered_len = (ULONGEST) xfered;
1812           return TARGET_XFER_E_IO;
1813         }
1814       else if (xfered == 0 && errno == 0)
1815         /* "deprecated_xfer_memory" uses 0, cross checked against
1816            ERRNO as one indication of an error.  */
1817         return TARGET_XFER_EOF;
1818       else
1819         return TARGET_XFER_E_IO;
1820     }
1821   else
1822     {
1823       gdb_assert (ops->beneath != NULL);
1824       return ops->beneath->to_xfer_partial (ops->beneath, object, annex,
1825                                             readbuf, writebuf, offset, len,
1826                                             xfered_len);
1827     }
1828 }
1829
1830 /* Target vector read/write partial wrapper functions.  */
1831
1832 static enum target_xfer_status
1833 target_read_partial (struct target_ops *ops,
1834                      enum target_object object,
1835                      const char *annex, gdb_byte *buf,
1836                      ULONGEST offset, ULONGEST len,
1837                      ULONGEST *xfered_len)
1838 {
1839   return target_xfer_partial (ops, object, annex, buf, NULL, offset, len,
1840                               xfered_len);
1841 }
1842
1843 static enum target_xfer_status
1844 target_write_partial (struct target_ops *ops,
1845                       enum target_object object,
1846                       const char *annex, const gdb_byte *buf,
1847                       ULONGEST offset, LONGEST len, ULONGEST *xfered_len)
1848 {
1849   return target_xfer_partial (ops, object, annex, NULL, buf, offset, len,
1850                               xfered_len);
1851 }
1852
1853 /* Wrappers to perform the full transfer.  */
1854
1855 /* For docs on target_read see target.h.  */
1856
1857 LONGEST
1858 target_read (struct target_ops *ops,
1859              enum target_object object,
1860              const char *annex, gdb_byte *buf,
1861              ULONGEST offset, LONGEST len)
1862 {
1863   LONGEST xfered = 0;
1864
1865   while (xfered < len)
1866     {
1867       ULONGEST xfered_len;
1868       enum target_xfer_status status;
1869
1870       status = target_read_partial (ops, object, annex,
1871                                     (gdb_byte *) buf + xfered,
1872                                     offset + xfered, len - xfered,
1873                                     &xfered_len);
1874
1875       /* Call an observer, notifying them of the xfer progress?  */
1876       if (status == TARGET_XFER_EOF)
1877         return xfered;
1878       else if (status == TARGET_XFER_OK)
1879         {
1880           xfered += xfered_len;
1881           QUIT;
1882         }
1883       else
1884         return -1;
1885
1886     }
1887   return len;
1888 }
1889
1890 /* Assuming that the entire [begin, end) range of memory cannot be
1891    read, try to read whatever subrange is possible to read.
1892
1893    The function returns, in RESULT, either zero or one memory block.
1894    If there's a readable subrange at the beginning, it is completely
1895    read and returned.  Any further readable subrange will not be read.
1896    Otherwise, if there's a readable subrange at the end, it will be
1897    completely read and returned.  Any readable subranges before it
1898    (obviously, not starting at the beginning), will be ignored.  In
1899    other cases -- either no readable subrange, or readable subrange(s)
1900    that is neither at the beginning, or end, nothing is returned.
1901
1902    The purpose of this function is to handle a read across a boundary
1903    of accessible memory in a case when memory map is not available.
1904    The above restrictions are fine for this case, but will give
1905    incorrect results if the memory is 'patchy'.  However, supporting
1906    'patchy' memory would require trying to read every single byte,
1907    and it seems unacceptable solution.  Explicit memory map is
1908    recommended for this case -- and target_read_memory_robust will
1909    take care of reading multiple ranges then.  */
1910
1911 static void
1912 read_whatever_is_readable (struct target_ops *ops,
1913                            ULONGEST begin, ULONGEST end,
1914                            VEC(memory_read_result_s) **result)
1915 {
1916   gdb_byte *buf = xmalloc (end - begin);
1917   ULONGEST current_begin = begin;
1918   ULONGEST current_end = end;
1919   int forward;
1920   memory_read_result_s r;
1921   ULONGEST xfered_len;
1922
1923   /* If we previously failed to read 1 byte, nothing can be done here.  */
1924   if (end - begin <= 1)
1925     {
1926       xfree (buf);
1927       return;
1928     }
1929
1930   /* Check that either first or the last byte is readable, and give up
1931      if not.  This heuristic is meant to permit reading accessible memory
1932      at the boundary of accessible region.  */
1933   if (target_read_partial (ops, TARGET_OBJECT_MEMORY, NULL,
1934                            buf, begin, 1, &xfered_len) == TARGET_XFER_OK)
1935     {
1936       forward = 1;
1937       ++current_begin;
1938     }
1939   else if (target_read_partial (ops, TARGET_OBJECT_MEMORY, NULL,
1940                                 buf + (end-begin) - 1, end - 1, 1,
1941                                 &xfered_len) == TARGET_XFER_OK)
1942     {
1943       forward = 0;
1944       --current_end;
1945     }
1946   else
1947     {
1948       xfree (buf);
1949       return;
1950     }
1951
1952   /* Loop invariant is that the [current_begin, current_end) was previously
1953      found to be not readable as a whole.
1954
1955      Note loop condition -- if the range has 1 byte, we can't divide the range
1956      so there's no point trying further.  */
1957   while (current_end - current_begin > 1)
1958     {
1959       ULONGEST first_half_begin, first_half_end;
1960       ULONGEST second_half_begin, second_half_end;
1961       LONGEST xfer;
1962       ULONGEST middle = current_begin + (current_end - current_begin)/2;
1963
1964       if (forward)
1965         {
1966           first_half_begin = current_begin;
1967           first_half_end = middle;
1968           second_half_begin = middle;
1969           second_half_end = current_end;
1970         }
1971       else
1972         {
1973           first_half_begin = middle;
1974           first_half_end = current_end;
1975           second_half_begin = current_begin;
1976           second_half_end = middle;
1977         }
1978
1979       xfer = target_read (ops, TARGET_OBJECT_MEMORY, NULL,
1980                           buf + (first_half_begin - begin),
1981                           first_half_begin,
1982                           first_half_end - first_half_begin);
1983
1984       if (xfer == first_half_end - first_half_begin)
1985         {
1986           /* This half reads up fine.  So, the error must be in the
1987              other half.  */
1988           current_begin = second_half_begin;
1989           current_end = second_half_end;
1990         }
1991       else
1992         {
1993           /* This half is not readable.  Because we've tried one byte, we
1994              know some part of this half if actually redable.  Go to the next
1995              iteration to divide again and try to read.
1996
1997              We don't handle the other half, because this function only tries
1998              to read a single readable subrange.  */
1999           current_begin = first_half_begin;
2000           current_end = first_half_end;
2001         }
2002     }
2003
2004   if (forward)
2005     {
2006       /* The [begin, current_begin) range has been read.  */
2007       r.begin = begin;
2008       r.end = current_begin;
2009       r.data = buf;
2010     }
2011   else
2012     {
2013       /* The [current_end, end) range has been read.  */
2014       LONGEST rlen = end - current_end;
2015
2016       r.data = xmalloc (rlen);
2017       memcpy (r.data, buf + current_end - begin, rlen);
2018       r.begin = current_end;
2019       r.end = end;
2020       xfree (buf);
2021     }
2022   VEC_safe_push(memory_read_result_s, (*result), &r);
2023 }
2024
2025 void
2026 free_memory_read_result_vector (void *x)
2027 {
2028   VEC(memory_read_result_s) *v = x;
2029   memory_read_result_s *current;
2030   int ix;
2031
2032   for (ix = 0; VEC_iterate (memory_read_result_s, v, ix, current); ++ix)
2033     {
2034       xfree (current->data);
2035     }
2036   VEC_free (memory_read_result_s, v);
2037 }
2038
2039 VEC(memory_read_result_s) *
2040 read_memory_robust (struct target_ops *ops, ULONGEST offset, LONGEST len)
2041 {
2042   VEC(memory_read_result_s) *result = 0;
2043
2044   LONGEST xfered = 0;
2045   while (xfered < len)
2046     {
2047       struct mem_region *region = lookup_mem_region (offset + xfered);
2048       LONGEST rlen;
2049
2050       /* If there is no explicit region, a fake one should be created.  */
2051       gdb_assert (region);
2052
2053       if (region->hi == 0)
2054         rlen = len - xfered;
2055       else
2056         rlen = region->hi - offset;
2057
2058       if (region->attrib.mode == MEM_NONE || region->attrib.mode == MEM_WO)
2059         {
2060           /* Cannot read this region.  Note that we can end up here only
2061              if the region is explicitly marked inaccessible, or
2062              'inaccessible-by-default' is in effect.  */
2063           xfered += rlen;
2064         }
2065       else
2066         {
2067           LONGEST to_read = min (len - xfered, rlen);
2068           gdb_byte *buffer = (gdb_byte *)xmalloc (to_read);
2069
2070           LONGEST xfer = target_read (ops, TARGET_OBJECT_MEMORY, NULL,
2071                                       (gdb_byte *) buffer,
2072                                       offset + xfered, to_read);
2073           /* Call an observer, notifying them of the xfer progress?  */
2074           if (xfer <= 0)
2075             {
2076               /* Got an error reading full chunk.  See if maybe we can read
2077                  some subrange.  */
2078               xfree (buffer);
2079               read_whatever_is_readable (ops, offset + xfered,
2080                                          offset + xfered + to_read, &result);
2081               xfered += to_read;
2082             }
2083           else
2084             {
2085               struct memory_read_result r;
2086               r.data = buffer;
2087               r.begin = offset + xfered;
2088               r.end = r.begin + xfer;
2089               VEC_safe_push (memory_read_result_s, result, &r);
2090               xfered += xfer;
2091             }
2092           QUIT;
2093         }
2094     }
2095   return result;
2096 }
2097
2098
2099 /* An alternative to target_write with progress callbacks.  */
2100
2101 LONGEST
2102 target_write_with_progress (struct target_ops *ops,
2103                             enum target_object object,
2104                             const char *annex, const gdb_byte *buf,
2105                             ULONGEST offset, LONGEST len,
2106                             void (*progress) (ULONGEST, void *), void *baton)
2107 {
2108   LONGEST xfered = 0;
2109
2110   /* Give the progress callback a chance to set up.  */
2111   if (progress)
2112     (*progress) (0, baton);
2113
2114   while (xfered < len)
2115     {
2116       ULONGEST xfered_len;
2117       enum target_xfer_status status;
2118
2119       status = target_write_partial (ops, object, annex,
2120                                      (gdb_byte *) buf + xfered,
2121                                      offset + xfered, len - xfered,
2122                                      &xfered_len);
2123
2124       if (status == TARGET_XFER_EOF)
2125         return xfered;
2126       if (TARGET_XFER_STATUS_ERROR_P (status))
2127         return -1;
2128
2129       gdb_assert (status == TARGET_XFER_OK);
2130       if (progress)
2131         (*progress) (xfered_len, baton);
2132
2133       xfered += xfered_len;
2134       QUIT;
2135     }
2136   return len;
2137 }
2138
2139 /* For docs on target_write see target.h.  */
2140
2141 LONGEST
2142 target_write (struct target_ops *ops,
2143               enum target_object object,
2144               const char *annex, const gdb_byte *buf,
2145               ULONGEST offset, LONGEST len)
2146 {
2147   return target_write_with_progress (ops, object, annex, buf, offset, len,
2148                                      NULL, NULL);
2149 }
2150
2151 /* Read OBJECT/ANNEX using OPS.  Store the result in *BUF_P and return
2152    the size of the transferred data.  PADDING additional bytes are
2153    available in *BUF_P.  This is a helper function for
2154    target_read_alloc; see the declaration of that function for more
2155    information.  */
2156
2157 static LONGEST
2158 target_read_alloc_1 (struct target_ops *ops, enum target_object object,
2159                      const char *annex, gdb_byte **buf_p, int padding)
2160 {
2161   size_t buf_alloc, buf_pos;
2162   gdb_byte *buf;
2163
2164   /* This function does not have a length parameter; it reads the
2165      entire OBJECT).  Also, it doesn't support objects fetched partly
2166      from one target and partly from another (in a different stratum,
2167      e.g. a core file and an executable).  Both reasons make it
2168      unsuitable for reading memory.  */
2169   gdb_assert (object != TARGET_OBJECT_MEMORY);
2170
2171   /* Start by reading up to 4K at a time.  The target will throttle
2172      this number down if necessary.  */
2173   buf_alloc = 4096;
2174   buf = xmalloc (buf_alloc);
2175   buf_pos = 0;
2176   while (1)
2177     {
2178       ULONGEST xfered_len;
2179       enum target_xfer_status status;
2180
2181       status = target_read_partial (ops, object, annex, &buf[buf_pos],
2182                                     buf_pos, buf_alloc - buf_pos - padding,
2183                                     &xfered_len);
2184
2185       if (status == TARGET_XFER_EOF)
2186         {
2187           /* Read all there was.  */
2188           if (buf_pos == 0)
2189             xfree (buf);
2190           else
2191             *buf_p = buf;
2192           return buf_pos;
2193         }
2194       else if (status != TARGET_XFER_OK)
2195         {
2196           /* An error occurred.  */
2197           xfree (buf);
2198           return TARGET_XFER_E_IO;
2199         }
2200
2201       buf_pos += xfered_len;
2202
2203       /* If the buffer is filling up, expand it.  */
2204       if (buf_alloc < buf_pos * 2)
2205         {
2206           buf_alloc *= 2;
2207           buf = xrealloc (buf, buf_alloc);
2208         }
2209
2210       QUIT;
2211     }
2212 }
2213
2214 /* Read OBJECT/ANNEX using OPS.  Store the result in *BUF_P and return
2215    the size of the transferred data.  See the declaration in "target.h"
2216    function for more information about the return value.  */
2217
2218 LONGEST
2219 target_read_alloc (struct target_ops *ops, enum target_object object,
2220                    const char *annex, gdb_byte **buf_p)
2221 {
2222   return target_read_alloc_1 (ops, object, annex, buf_p, 0);
2223 }
2224
2225 /* Read OBJECT/ANNEX using OPS.  The result is NUL-terminated and
2226    returned as a string, allocated using xmalloc.  If an error occurs
2227    or the transfer is unsupported, NULL is returned.  Empty objects
2228    are returned as allocated but empty strings.  A warning is issued
2229    if the result contains any embedded NUL bytes.  */
2230
2231 char *
2232 target_read_stralloc (struct target_ops *ops, enum target_object object,
2233                       const char *annex)
2234 {
2235   gdb_byte *buffer;
2236   char *bufstr;
2237   LONGEST i, transferred;
2238
2239   transferred = target_read_alloc_1 (ops, object, annex, &buffer, 1);
2240   bufstr = (char *) buffer;
2241
2242   if (transferred < 0)
2243     return NULL;
2244
2245   if (transferred == 0)
2246     return xstrdup ("");
2247
2248   bufstr[transferred] = 0;
2249
2250   /* Check for embedded NUL bytes; but allow trailing NULs.  */
2251   for (i = strlen (bufstr); i < transferred; i++)
2252     if (bufstr[i] != 0)
2253       {
2254         warning (_("target object %d, annex %s, "
2255                    "contained unexpected null characters"),
2256                  (int) object, annex ? annex : "(none)");
2257         break;
2258       }
2259
2260   return bufstr;
2261 }
2262
2263 /* Memory transfer methods.  */
2264
2265 void
2266 get_target_memory (struct target_ops *ops, CORE_ADDR addr, gdb_byte *buf,
2267                    LONGEST len)
2268 {
2269   /* This method is used to read from an alternate, non-current
2270      target.  This read must bypass the overlay support (as symbols
2271      don't match this target), and GDB's internal cache (wrong cache
2272      for this target).  */
2273   if (target_read (ops, TARGET_OBJECT_RAW_MEMORY, NULL, buf, addr, len)
2274       != len)
2275     memory_error (TARGET_XFER_E_IO, addr);
2276 }
2277
2278 ULONGEST
2279 get_target_memory_unsigned (struct target_ops *ops, CORE_ADDR addr,
2280                             int len, enum bfd_endian byte_order)
2281 {
2282   gdb_byte buf[sizeof (ULONGEST)];
2283
2284   gdb_assert (len <= sizeof (buf));
2285   get_target_memory (ops, addr, buf, len);
2286   return extract_unsigned_integer (buf, len, byte_order);
2287 }
2288
2289 /* See target.h.  */
2290
2291 int
2292 target_insert_breakpoint (struct gdbarch *gdbarch,
2293                           struct bp_target_info *bp_tgt)
2294 {
2295   if (!may_insert_breakpoints)
2296     {
2297       warning (_("May not insert breakpoints"));
2298       return 1;
2299     }
2300
2301   return current_target.to_insert_breakpoint (&current_target,
2302                                               gdbarch, bp_tgt);
2303 }
2304
2305 /* See target.h.  */
2306
2307 int
2308 target_remove_breakpoint (struct gdbarch *gdbarch,
2309                           struct bp_target_info *bp_tgt)
2310 {
2311   /* This is kind of a weird case to handle, but the permission might
2312      have been changed after breakpoints were inserted - in which case
2313      we should just take the user literally and assume that any
2314      breakpoints should be left in place.  */
2315   if (!may_insert_breakpoints)
2316     {
2317       warning (_("May not remove breakpoints"));
2318       return 1;
2319     }
2320
2321   return current_target.to_remove_breakpoint (&current_target,
2322                                               gdbarch, bp_tgt);
2323 }
2324
2325 static void
2326 target_info (char *args, int from_tty)
2327 {
2328   struct target_ops *t;
2329   int has_all_mem = 0;
2330
2331   if (symfile_objfile != NULL)
2332     printf_unfiltered (_("Symbols from \"%s\".\n"),
2333                        objfile_name (symfile_objfile));
2334
2335   for (t = target_stack; t != NULL; t = t->beneath)
2336     {
2337       if (!(*t->to_has_memory) (t))
2338         continue;
2339
2340       if ((int) (t->to_stratum) <= (int) dummy_stratum)
2341         continue;
2342       if (has_all_mem)
2343         printf_unfiltered (_("\tWhile running this, "
2344                              "GDB does not access memory from...\n"));
2345       printf_unfiltered ("%s:\n", t->to_longname);
2346       (t->to_files_info) (t);
2347       has_all_mem = (*t->to_has_all_memory) (t);
2348     }
2349 }
2350
2351 /* This function is called before any new inferior is created, e.g.
2352    by running a program, attaching, or connecting to a target.
2353    It cleans up any state from previous invocations which might
2354    change between runs.  This is a subset of what target_preopen
2355    resets (things which might change between targets).  */
2356
2357 void
2358 target_pre_inferior (int from_tty)
2359 {
2360   /* Clear out solib state.  Otherwise the solib state of the previous
2361      inferior might have survived and is entirely wrong for the new
2362      target.  This has been observed on GNU/Linux using glibc 2.3.  How
2363      to reproduce:
2364
2365      bash$ ./foo&
2366      [1] 4711
2367      bash$ ./foo&
2368      [1] 4712
2369      bash$ gdb ./foo
2370      [...]
2371      (gdb) attach 4711
2372      (gdb) detach
2373      (gdb) attach 4712
2374      Cannot access memory at address 0xdeadbeef
2375   */
2376
2377   /* In some OSs, the shared library list is the same/global/shared
2378      across inferiors.  If code is shared between processes, so are
2379      memory regions and features.  */
2380   if (!gdbarch_has_global_solist (target_gdbarch ()))
2381     {
2382       no_shared_libraries (NULL, from_tty);
2383
2384       invalidate_target_mem_regions ();
2385
2386       target_clear_description ();
2387     }
2388
2389   agent_capability_invalidate ();
2390 }
2391
2392 /* Callback for iterate_over_inferiors.  Gets rid of the given
2393    inferior.  */
2394
2395 static int
2396 dispose_inferior (struct inferior *inf, void *args)
2397 {
2398   struct thread_info *thread;
2399
2400   thread = any_thread_of_process (inf->pid);
2401   if (thread)
2402     {
2403       switch_to_thread (thread->ptid);
2404
2405       /* Core inferiors actually should be detached, not killed.  */
2406       if (target_has_execution)
2407         target_kill ();
2408       else
2409         target_detach (NULL, 0);
2410     }
2411
2412   return 0;
2413 }
2414
2415 /* This is to be called by the open routine before it does
2416    anything.  */
2417
2418 void
2419 target_preopen (int from_tty)
2420 {
2421   dont_repeat ();
2422
2423   if (have_inferiors ())
2424     {
2425       if (!from_tty
2426           || !have_live_inferiors ()
2427           || query (_("A program is being debugged already.  Kill it? ")))
2428         iterate_over_inferiors (dispose_inferior, NULL);
2429       else
2430         error (_("Program not killed."));
2431     }
2432
2433   /* Calling target_kill may remove the target from the stack.  But if
2434      it doesn't (which seems like a win for UDI), remove it now.  */
2435   /* Leave the exec target, though.  The user may be switching from a
2436      live process to a core of the same program.  */
2437   pop_all_targets_above (file_stratum);
2438
2439   target_pre_inferior (from_tty);
2440 }
2441
2442 /* Detach a target after doing deferred register stores.  */
2443
2444 void
2445 target_detach (const char *args, int from_tty)
2446 {
2447   struct target_ops* t;
2448   
2449   if (gdbarch_has_global_breakpoints (target_gdbarch ()))
2450     /* Don't remove global breakpoints here.  They're removed on
2451        disconnection from the target.  */
2452     ;
2453   else
2454     /* If we're in breakpoints-always-inserted mode, have to remove
2455        them before detaching.  */
2456     remove_breakpoints_pid (ptid_get_pid (inferior_ptid));
2457
2458   prepare_for_detach ();
2459
2460   current_target.to_detach (&current_target, args, from_tty);
2461   if (targetdebug)
2462     fprintf_unfiltered (gdb_stdlog, "target_detach (%s, %d)\n",
2463                         args, from_tty);
2464 }
2465
2466 void
2467 target_disconnect (char *args, int from_tty)
2468 {
2469   /* If we're in breakpoints-always-inserted mode or if breakpoints
2470      are global across processes, we have to remove them before
2471      disconnecting.  */
2472   remove_breakpoints ();
2473
2474   if (targetdebug)
2475     fprintf_unfiltered (gdb_stdlog, "target_disconnect (%s, %d)\n",
2476                         args, from_tty);
2477   current_target.to_disconnect (&current_target, args, from_tty);
2478 }
2479
2480 ptid_t
2481 target_wait (ptid_t ptid, struct target_waitstatus *status, int options)
2482 {
2483   struct target_ops *t;
2484   ptid_t retval = (current_target.to_wait) (&current_target, ptid,
2485                                             status, options);
2486
2487   if (targetdebug)
2488     {
2489       char *status_string;
2490       char *options_string;
2491
2492       status_string = target_waitstatus_to_string (status);
2493       options_string = target_options_to_string (options);
2494       fprintf_unfiltered (gdb_stdlog,
2495                           "target_wait (%d, status, options={%s})"
2496                           " = %d,   %s\n",
2497                           ptid_get_pid (ptid), options_string,
2498                           ptid_get_pid (retval), status_string);
2499       xfree (status_string);
2500       xfree (options_string);
2501     }
2502
2503   return retval;
2504 }
2505
2506 char *
2507 target_pid_to_str (ptid_t ptid)
2508 {
2509   return (*current_target.to_pid_to_str) (&current_target, ptid);
2510 }
2511
2512 char *
2513 target_thread_name (struct thread_info *info)
2514 {
2515   return current_target.to_thread_name (&current_target, info);
2516 }
2517
2518 void
2519 target_resume (ptid_t ptid, int step, enum gdb_signal signal)
2520 {
2521   struct target_ops *t;
2522
2523   target_dcache_invalidate ();
2524
2525   current_target.to_resume (&current_target, ptid, step, signal);
2526   if (targetdebug)
2527     fprintf_unfiltered (gdb_stdlog, "target_resume (%d, %s, %s)\n",
2528                         ptid_get_pid (ptid),
2529                         step ? "step" : "continue",
2530                         gdb_signal_to_name (signal));
2531
2532   registers_changed_ptid (ptid);
2533   set_executing (ptid, 1);
2534   set_running (ptid, 1);
2535   clear_inline_frame_state (ptid);
2536 }
2537
2538 void
2539 target_pass_signals (int numsigs, unsigned char *pass_signals)
2540 {
2541   if (targetdebug)
2542     {
2543       int i;
2544
2545       fprintf_unfiltered (gdb_stdlog, "target_pass_signals (%d, {",
2546                           numsigs);
2547
2548       for (i = 0; i < numsigs; i++)
2549         if (pass_signals[i])
2550           fprintf_unfiltered (gdb_stdlog, " %s",
2551                               gdb_signal_to_name (i));
2552
2553       fprintf_unfiltered (gdb_stdlog, " })\n");
2554     }
2555
2556   (*current_target.to_pass_signals) (&current_target, numsigs, pass_signals);
2557 }
2558
2559 void
2560 target_program_signals (int numsigs, unsigned char *program_signals)
2561 {
2562   if (targetdebug)
2563     {
2564       int i;
2565
2566       fprintf_unfiltered (gdb_stdlog, "target_program_signals (%d, {",
2567                           numsigs);
2568
2569       for (i = 0; i < numsigs; i++)
2570         if (program_signals[i])
2571           fprintf_unfiltered (gdb_stdlog, " %s",
2572                               gdb_signal_to_name (i));
2573
2574       fprintf_unfiltered (gdb_stdlog, " })\n");
2575     }
2576
2577   (*current_target.to_program_signals) (&current_target,
2578                                         numsigs, program_signals);
2579 }
2580
2581 static int
2582 default_follow_fork (struct target_ops *self, int follow_child,
2583                      int detach_fork)
2584 {
2585   /* Some target returned a fork event, but did not know how to follow it.  */
2586   internal_error (__FILE__, __LINE__,
2587                   _("could not find a target to follow fork"));
2588 }
2589
2590 /* Look through the list of possible targets for a target that can
2591    follow forks.  */
2592
2593 int
2594 target_follow_fork (int follow_child, int detach_fork)
2595 {
2596   int retval = current_target.to_follow_fork (&current_target,
2597                                               follow_child, detach_fork);
2598
2599   if (targetdebug)
2600     fprintf_unfiltered (gdb_stdlog,
2601                         "target_follow_fork (%d, %d) = %d\n",
2602                         follow_child, detach_fork, retval);
2603   return retval;
2604 }
2605
2606 static void
2607 default_mourn_inferior (struct target_ops *self)
2608 {
2609   internal_error (__FILE__, __LINE__,
2610                   _("could not find a target to follow mourn inferior"));
2611 }
2612
2613 void
2614 target_mourn_inferior (void)
2615 {
2616   current_target.to_mourn_inferior (&current_target);
2617   if (targetdebug)
2618     fprintf_unfiltered (gdb_stdlog, "target_mourn_inferior ()\n");
2619
2620   /* We no longer need to keep handles on any of the object files.
2621      Make sure to release them to avoid unnecessarily locking any
2622      of them while we're not actually debugging.  */
2623   bfd_cache_close_all ();
2624 }
2625
2626 /* Look for a target which can describe architectural features, starting
2627    from TARGET.  If we find one, return its description.  */
2628
2629 const struct target_desc *
2630 target_read_description (struct target_ops *target)
2631 {
2632   return target->to_read_description (target);
2633 }
2634
2635 /* This implements a basic search of memory, reading target memory and
2636    performing the search here (as opposed to performing the search in on the
2637    target side with, for example, gdbserver).  */
2638
2639 int
2640 simple_search_memory (struct target_ops *ops,
2641                       CORE_ADDR start_addr, ULONGEST search_space_len,
2642                       const gdb_byte *pattern, ULONGEST pattern_len,
2643                       CORE_ADDR *found_addrp)
2644 {
2645   /* NOTE: also defined in find.c testcase.  */
2646 #define SEARCH_CHUNK_SIZE 16000
2647   const unsigned chunk_size = SEARCH_CHUNK_SIZE;
2648   /* Buffer to hold memory contents for searching.  */
2649   gdb_byte *search_buf;
2650   unsigned search_buf_size;
2651   struct cleanup *old_cleanups;
2652
2653   search_buf_size = chunk_size + pattern_len - 1;
2654
2655   /* No point in trying to allocate a buffer larger than the search space.  */
2656   if (search_space_len < search_buf_size)
2657     search_buf_size = search_space_len;
2658
2659   search_buf = malloc (search_buf_size);
2660   if (search_buf == NULL)
2661     error (_("Unable to allocate memory to perform the search."));
2662   old_cleanups = make_cleanup (free_current_contents, &search_buf);
2663
2664   /* Prime the search buffer.  */
2665
2666   if (target_read (ops, TARGET_OBJECT_MEMORY, NULL,
2667                    search_buf, start_addr, search_buf_size) != search_buf_size)
2668     {
2669       warning (_("Unable to access %s bytes of target "
2670                  "memory at %s, halting search."),
2671                pulongest (search_buf_size), hex_string (start_addr));
2672       do_cleanups (old_cleanups);
2673       return -1;
2674     }
2675
2676   /* Perform the search.
2677
2678      The loop is kept simple by allocating [N + pattern-length - 1] bytes.
2679      When we've scanned N bytes we copy the trailing bytes to the start and
2680      read in another N bytes.  */
2681
2682   while (search_space_len >= pattern_len)
2683     {
2684       gdb_byte *found_ptr;
2685       unsigned nr_search_bytes = min (search_space_len, search_buf_size);
2686
2687       found_ptr = memmem (search_buf, nr_search_bytes,
2688                           pattern, pattern_len);
2689
2690       if (found_ptr != NULL)
2691         {
2692           CORE_ADDR found_addr = start_addr + (found_ptr - search_buf);
2693
2694           *found_addrp = found_addr;
2695           do_cleanups (old_cleanups);
2696           return 1;
2697         }
2698
2699       /* Not found in this chunk, skip to next chunk.  */
2700
2701       /* Don't let search_space_len wrap here, it's unsigned.  */
2702       if (search_space_len >= chunk_size)
2703         search_space_len -= chunk_size;
2704       else
2705         search_space_len = 0;
2706
2707       if (search_space_len >= pattern_len)
2708         {
2709           unsigned keep_len = search_buf_size - chunk_size;
2710           CORE_ADDR read_addr = start_addr + chunk_size + keep_len;
2711           int nr_to_read;
2712
2713           /* Copy the trailing part of the previous iteration to the front
2714              of the buffer for the next iteration.  */
2715           gdb_assert (keep_len == pattern_len - 1);
2716           memcpy (search_buf, search_buf + chunk_size, keep_len);
2717
2718           nr_to_read = min (search_space_len - keep_len, chunk_size);
2719
2720           if (target_read (ops, TARGET_OBJECT_MEMORY, NULL,
2721                            search_buf + keep_len, read_addr,
2722                            nr_to_read) != nr_to_read)
2723             {
2724               warning (_("Unable to access %s bytes of target "
2725                          "memory at %s, halting search."),
2726                        plongest (nr_to_read),
2727                        hex_string (read_addr));
2728               do_cleanups (old_cleanups);
2729               return -1;
2730             }
2731
2732           start_addr += chunk_size;
2733         }
2734     }
2735
2736   /* Not found.  */
2737
2738   do_cleanups (old_cleanups);
2739   return 0;
2740 }
2741
2742 /* Default implementation of memory-searching.  */
2743
2744 static int
2745 default_search_memory (struct target_ops *self,
2746                        CORE_ADDR start_addr, ULONGEST search_space_len,
2747                        const gdb_byte *pattern, ULONGEST pattern_len,
2748                        CORE_ADDR *found_addrp)
2749 {
2750   /* Start over from the top of the target stack.  */
2751   return simple_search_memory (current_target.beneath,
2752                                start_addr, search_space_len,
2753                                pattern, pattern_len, found_addrp);
2754 }
2755
2756 /* Search SEARCH_SPACE_LEN bytes beginning at START_ADDR for the
2757    sequence of bytes in PATTERN with length PATTERN_LEN.
2758
2759    The result is 1 if found, 0 if not found, and -1 if there was an error
2760    requiring halting of the search (e.g. memory read error).
2761    If the pattern is found the address is recorded in FOUND_ADDRP.  */
2762
2763 int
2764 target_search_memory (CORE_ADDR start_addr, ULONGEST search_space_len,
2765                       const gdb_byte *pattern, ULONGEST pattern_len,
2766                       CORE_ADDR *found_addrp)
2767 {
2768   int found;
2769
2770   if (targetdebug)
2771     fprintf_unfiltered (gdb_stdlog, "target_search_memory (%s, ...)\n",
2772                         hex_string (start_addr));
2773
2774   found = current_target.to_search_memory (&current_target, start_addr,
2775                                            search_space_len,
2776                                            pattern, pattern_len, found_addrp);
2777
2778   if (targetdebug)
2779     fprintf_unfiltered (gdb_stdlog, "  = %d\n", found);
2780
2781   return found;
2782 }
2783
2784 /* Look through the currently pushed targets.  If none of them will
2785    be able to restart the currently running process, issue an error
2786    message.  */
2787
2788 void
2789 target_require_runnable (void)
2790 {
2791   struct target_ops *t;
2792
2793   for (t = target_stack; t != NULL; t = t->beneath)
2794     {
2795       /* If this target knows how to create a new program, then
2796          assume we will still be able to after killing the current
2797          one.  Either killing and mourning will not pop T, or else
2798          find_default_run_target will find it again.  */
2799       if (t->to_create_inferior != NULL)
2800         return;
2801
2802       /* Do not worry about thread_stratum targets that can not
2803          create inferiors.  Assume they will be pushed again if
2804          necessary, and continue to the process_stratum.  */
2805       if (t->to_stratum == thread_stratum
2806           || t->to_stratum == arch_stratum)
2807         continue;
2808
2809       error (_("The \"%s\" target does not support \"run\".  "
2810                "Try \"help target\" or \"continue\"."),
2811              t->to_shortname);
2812     }
2813
2814   /* This function is only called if the target is running.  In that
2815      case there should have been a process_stratum target and it
2816      should either know how to create inferiors, or not...  */
2817   internal_error (__FILE__, __LINE__, _("No targets found"));
2818 }
2819
2820 /* Look through the list of possible targets for a target that can
2821    execute a run or attach command without any other data.  This is
2822    used to locate the default process stratum.
2823
2824    If DO_MESG is not NULL, the result is always valid (error() is
2825    called for errors); else, return NULL on error.  */
2826
2827 static struct target_ops *
2828 find_default_run_target (char *do_mesg)
2829 {
2830   struct target_ops **t;
2831   struct target_ops *runable = NULL;
2832   int count;
2833
2834   count = 0;
2835
2836   for (t = target_structs; t < target_structs + target_struct_size;
2837        ++t)
2838     {
2839       if ((*t)->to_can_run != delegate_can_run && target_can_run (*t))
2840         {
2841           runable = *t;
2842           ++count;
2843         }
2844     }
2845
2846   if (count != 1)
2847     {
2848       if (do_mesg)
2849         error (_("Don't know how to %s.  Try \"help target\"."), do_mesg);
2850       else
2851         return NULL;
2852     }
2853
2854   return runable;
2855 }
2856
2857 void
2858 find_default_attach (struct target_ops *ops, char *args, int from_tty)
2859 {
2860   struct target_ops *t;
2861
2862   t = find_default_run_target ("attach");
2863   (t->to_attach) (t, args, from_tty);
2864   return;
2865 }
2866
2867 void
2868 find_default_create_inferior (struct target_ops *ops,
2869                               char *exec_file, char *allargs, char **env,
2870                               int from_tty)
2871 {
2872   struct target_ops *t;
2873
2874   t = find_default_run_target ("run");
2875   (t->to_create_inferior) (t, exec_file, allargs, env, from_tty);
2876   return;
2877 }
2878
2879 static int
2880 find_default_can_async_p (struct target_ops *ignore)
2881 {
2882   struct target_ops *t;
2883
2884   /* This may be called before the target is pushed on the stack;
2885      look for the default process stratum.  If there's none, gdb isn't
2886      configured with a native debugger, and target remote isn't
2887      connected yet.  */
2888   t = find_default_run_target (NULL);
2889   if (t && t->to_can_async_p != delegate_can_async_p)
2890     return (t->to_can_async_p) (t);
2891   return 0;
2892 }
2893
2894 static int
2895 find_default_is_async_p (struct target_ops *ignore)
2896 {
2897   struct target_ops *t;
2898
2899   /* This may be called before the target is pushed on the stack;
2900      look for the default process stratum.  If there's none, gdb isn't
2901      configured with a native debugger, and target remote isn't
2902      connected yet.  */
2903   t = find_default_run_target (NULL);
2904   if (t && t->to_is_async_p != delegate_is_async_p)
2905     return (t->to_is_async_p) (t);
2906   return 0;
2907 }
2908
2909 static int
2910 find_default_supports_non_stop (struct target_ops *self)
2911 {
2912   struct target_ops *t;
2913
2914   t = find_default_run_target (NULL);
2915   if (t && t->to_supports_non_stop)
2916     return (t->to_supports_non_stop) (t);
2917   return 0;
2918 }
2919
2920 int
2921 target_supports_non_stop (void)
2922 {
2923   struct target_ops *t;
2924
2925   for (t = &current_target; t != NULL; t = t->beneath)
2926     if (t->to_supports_non_stop)
2927       return t->to_supports_non_stop (t);
2928
2929   return 0;
2930 }
2931
2932 /* Implement the "info proc" command.  */
2933
2934 int
2935 target_info_proc (char *args, enum info_proc_what what)
2936 {
2937   struct target_ops *t;
2938
2939   /* If we're already connected to something that can get us OS
2940      related data, use it.  Otherwise, try using the native
2941      target.  */
2942   if (current_target.to_stratum >= process_stratum)
2943     t = current_target.beneath;
2944   else
2945     t = find_default_run_target (NULL);
2946
2947   for (; t != NULL; t = t->beneath)
2948     {
2949       if (t->to_info_proc != NULL)
2950         {
2951           t->to_info_proc (t, args, what);
2952
2953           if (targetdebug)
2954             fprintf_unfiltered (gdb_stdlog,
2955                                 "target_info_proc (\"%s\", %d)\n", args, what);
2956
2957           return 1;
2958         }
2959     }
2960
2961   return 0;
2962 }
2963
2964 static int
2965 find_default_supports_disable_randomization (struct target_ops *self)
2966 {
2967   struct target_ops *t;
2968
2969   t = find_default_run_target (NULL);
2970   if (t && t->to_supports_disable_randomization)
2971     return (t->to_supports_disable_randomization) (t);
2972   return 0;
2973 }
2974
2975 int
2976 target_supports_disable_randomization (void)
2977 {
2978   struct target_ops *t;
2979
2980   for (t = &current_target; t != NULL; t = t->beneath)
2981     if (t->to_supports_disable_randomization)
2982       return t->to_supports_disable_randomization (t);
2983
2984   return 0;
2985 }
2986
2987 char *
2988 target_get_osdata (const char *type)
2989 {
2990   struct target_ops *t;
2991
2992   /* If we're already connected to something that can get us OS
2993      related data, use it.  Otherwise, try using the native
2994      target.  */
2995   if (current_target.to_stratum >= process_stratum)
2996     t = current_target.beneath;
2997   else
2998     t = find_default_run_target ("get OS data");
2999
3000   if (!t)
3001     return NULL;
3002
3003   return target_read_stralloc (t, TARGET_OBJECT_OSDATA, type);
3004 }
3005
3006 /* Determine the current address space of thread PTID.  */
3007
3008 struct address_space *
3009 target_thread_address_space (ptid_t ptid)
3010 {
3011   struct address_space *aspace;
3012   struct inferior *inf;
3013   struct target_ops *t;
3014
3015   for (t = current_target.beneath; t != NULL; t = t->beneath)
3016     {
3017       if (t->to_thread_address_space != NULL)
3018         {
3019           aspace = t->to_thread_address_space (t, ptid);
3020           gdb_assert (aspace);
3021
3022           if (targetdebug)
3023             fprintf_unfiltered (gdb_stdlog,
3024                                 "target_thread_address_space (%s) = %d\n",
3025                                 target_pid_to_str (ptid),
3026                                 address_space_num (aspace));
3027           return aspace;
3028         }
3029     }
3030
3031   /* Fall-back to the "main" address space of the inferior.  */
3032   inf = find_inferior_pid (ptid_get_pid (ptid));
3033
3034   if (inf == NULL || inf->aspace == NULL)
3035     internal_error (__FILE__, __LINE__,
3036                     _("Can't determine the current "
3037                       "address space of thread %s\n"),
3038                     target_pid_to_str (ptid));
3039
3040   return inf->aspace;
3041 }
3042
3043
3044 /* Target file operations.  */
3045
3046 static struct target_ops *
3047 default_fileio_target (void)
3048 {
3049   /* If we're already connected to something that can perform
3050      file I/O, use it. Otherwise, try using the native target.  */
3051   if (current_target.to_stratum >= process_stratum)
3052     return current_target.beneath;
3053   else
3054     return find_default_run_target ("file I/O");
3055 }
3056
3057 /* Open FILENAME on the target, using FLAGS and MODE.  Return a
3058    target file descriptor, or -1 if an error occurs (and set
3059    *TARGET_ERRNO).  */
3060 int
3061 target_fileio_open (const char *filename, int flags, int mode,
3062                     int *target_errno)
3063 {
3064   struct target_ops *t;
3065
3066   for (t = default_fileio_target (); t != NULL; t = t->beneath)
3067     {
3068       if (t->to_fileio_open != NULL)
3069         {
3070           int fd = t->to_fileio_open (t, filename, flags, mode, target_errno);
3071
3072           if (targetdebug)
3073             fprintf_unfiltered (gdb_stdlog,
3074                                 "target_fileio_open (%s,0x%x,0%o) = %d (%d)\n",
3075                                 filename, flags, mode,
3076                                 fd, fd != -1 ? 0 : *target_errno);
3077           return fd;
3078         }
3079     }
3080
3081   *target_errno = FILEIO_ENOSYS;
3082   return -1;
3083 }
3084
3085 /* Write up to LEN bytes from WRITE_BUF to FD on the target.
3086    Return the number of bytes written, or -1 if an error occurs
3087    (and set *TARGET_ERRNO).  */
3088 int
3089 target_fileio_pwrite (int fd, const gdb_byte *write_buf, int len,
3090                       ULONGEST offset, int *target_errno)
3091 {
3092   struct target_ops *t;
3093
3094   for (t = default_fileio_target (); t != NULL; t = t->beneath)
3095     {
3096       if (t->to_fileio_pwrite != NULL)
3097         {
3098           int ret = t->to_fileio_pwrite (t, fd, write_buf, len, offset,
3099                                          target_errno);
3100
3101           if (targetdebug)
3102             fprintf_unfiltered (gdb_stdlog,
3103                                 "target_fileio_pwrite (%d,...,%d,%s) "
3104                                 "= %d (%d)\n",
3105                                 fd, len, pulongest (offset),
3106                                 ret, ret != -1 ? 0 : *target_errno);
3107           return ret;
3108         }
3109     }
3110
3111   *target_errno = FILEIO_ENOSYS;
3112   return -1;
3113 }
3114
3115 /* Read up to LEN bytes FD on the target into READ_BUF.
3116    Return the number of bytes read, or -1 if an error occurs
3117    (and set *TARGET_ERRNO).  */
3118 int
3119 target_fileio_pread (int fd, gdb_byte *read_buf, int len,
3120                      ULONGEST offset, int *target_errno)
3121 {
3122   struct target_ops *t;
3123
3124   for (t = default_fileio_target (); t != NULL; t = t->beneath)
3125     {
3126       if (t->to_fileio_pread != NULL)
3127         {
3128           int ret = t->to_fileio_pread (t, fd, read_buf, len, offset,
3129                                         target_errno);
3130
3131           if (targetdebug)
3132             fprintf_unfiltered (gdb_stdlog,
3133                                 "target_fileio_pread (%d,...,%d,%s) "
3134                                 "= %d (%d)\n",
3135                                 fd, len, pulongest (offset),
3136                                 ret, ret != -1 ? 0 : *target_errno);
3137           return ret;
3138         }
3139     }
3140
3141   *target_errno = FILEIO_ENOSYS;
3142   return -1;
3143 }
3144
3145 /* Close FD on the target.  Return 0, or -1 if an error occurs
3146    (and set *TARGET_ERRNO).  */
3147 int
3148 target_fileio_close (int fd, int *target_errno)
3149 {
3150   struct target_ops *t;
3151
3152   for (t = default_fileio_target (); t != NULL; t = t->beneath)
3153     {
3154       if (t->to_fileio_close != NULL)
3155         {
3156           int ret = t->to_fileio_close (t, fd, target_errno);
3157
3158           if (targetdebug)
3159             fprintf_unfiltered (gdb_stdlog,
3160                                 "target_fileio_close (%d) = %d (%d)\n",
3161                                 fd, ret, ret != -1 ? 0 : *target_errno);
3162           return ret;
3163         }
3164     }
3165
3166   *target_errno = FILEIO_ENOSYS;
3167   return -1;
3168 }
3169
3170 /* Unlink FILENAME on the target.  Return 0, or -1 if an error
3171    occurs (and set *TARGET_ERRNO).  */
3172 int
3173 target_fileio_unlink (const char *filename, int *target_errno)
3174 {
3175   struct target_ops *t;
3176
3177   for (t = default_fileio_target (); t != NULL; t = t->beneath)
3178     {
3179       if (t->to_fileio_unlink != NULL)
3180         {
3181           int ret = t->to_fileio_unlink (t, filename, target_errno);
3182
3183           if (targetdebug)
3184             fprintf_unfiltered (gdb_stdlog,
3185                                 "target_fileio_unlink (%s) = %d (%d)\n",
3186                                 filename, ret, ret != -1 ? 0 : *target_errno);
3187           return ret;
3188         }
3189     }
3190
3191   *target_errno = FILEIO_ENOSYS;
3192   return -1;
3193 }
3194
3195 /* Read value of symbolic link FILENAME on the target.  Return a
3196    null-terminated string allocated via xmalloc, or NULL if an error
3197    occurs (and set *TARGET_ERRNO).  */
3198 char *
3199 target_fileio_readlink (const char *filename, int *target_errno)
3200 {
3201   struct target_ops *t;
3202
3203   for (t = default_fileio_target (); t != NULL; t = t->beneath)
3204     {
3205       if (t->to_fileio_readlink != NULL)
3206         {
3207           char *ret = t->to_fileio_readlink (t, filename, target_errno);
3208
3209           if (targetdebug)
3210             fprintf_unfiltered (gdb_stdlog,
3211                                 "target_fileio_readlink (%s) = %s (%d)\n",
3212                                 filename, ret? ret : "(nil)",
3213                                 ret? 0 : *target_errno);
3214           return ret;
3215         }
3216     }
3217
3218   *target_errno = FILEIO_ENOSYS;
3219   return NULL;
3220 }
3221
3222 static void
3223 target_fileio_close_cleanup (void *opaque)
3224 {
3225   int fd = *(int *) opaque;
3226   int target_errno;
3227
3228   target_fileio_close (fd, &target_errno);
3229 }
3230
3231 /* Read target file FILENAME.  Store the result in *BUF_P and
3232    return the size of the transferred data.  PADDING additional bytes are
3233    available in *BUF_P.  This is a helper function for
3234    target_fileio_read_alloc; see the declaration of that function for more
3235    information.  */
3236
3237 static LONGEST
3238 target_fileio_read_alloc_1 (const char *filename,
3239                             gdb_byte **buf_p, int padding)
3240 {
3241   struct cleanup *close_cleanup;
3242   size_t buf_alloc, buf_pos;
3243   gdb_byte *buf;
3244   LONGEST n;
3245   int fd;
3246   int target_errno;
3247
3248   fd = target_fileio_open (filename, FILEIO_O_RDONLY, 0700, &target_errno);
3249   if (fd == -1)
3250     return -1;
3251
3252   close_cleanup = make_cleanup (target_fileio_close_cleanup, &fd);
3253
3254   /* Start by reading up to 4K at a time.  The target will throttle
3255      this number down if necessary.  */
3256   buf_alloc = 4096;
3257   buf = xmalloc (buf_alloc);
3258   buf_pos = 0;
3259   while (1)
3260     {
3261       n = target_fileio_pread (fd, &buf[buf_pos],
3262                                buf_alloc - buf_pos - padding, buf_pos,
3263                                &target_errno);
3264       if (n < 0)
3265         {
3266           /* An error occurred.  */
3267           do_cleanups (close_cleanup);
3268           xfree (buf);
3269           return -1;
3270         }
3271       else if (n == 0)
3272         {
3273           /* Read all there was.  */
3274           do_cleanups (close_cleanup);
3275           if (buf_pos == 0)
3276             xfree (buf);
3277           else
3278             *buf_p = buf;
3279           return buf_pos;
3280         }
3281
3282       buf_pos += n;
3283
3284       /* If the buffer is filling up, expand it.  */
3285       if (buf_alloc < buf_pos * 2)
3286         {
3287           buf_alloc *= 2;
3288           buf = xrealloc (buf, buf_alloc);
3289         }
3290
3291       QUIT;
3292     }
3293 }
3294
3295 /* Read target file FILENAME.  Store the result in *BUF_P and return
3296    the size of the transferred data.  See the declaration in "target.h"
3297    function for more information about the return value.  */
3298
3299 LONGEST
3300 target_fileio_read_alloc (const char *filename, gdb_byte **buf_p)
3301 {
3302   return target_fileio_read_alloc_1 (filename, buf_p, 0);
3303 }
3304
3305 /* Read target file FILENAME.  The result is NUL-terminated and
3306    returned as a string, allocated using xmalloc.  If an error occurs
3307    or the transfer is unsupported, NULL is returned.  Empty objects
3308    are returned as allocated but empty strings.  A warning is issued
3309    if the result contains any embedded NUL bytes.  */
3310
3311 char *
3312 target_fileio_read_stralloc (const char *filename)
3313 {
3314   gdb_byte *buffer;
3315   char *bufstr;
3316   LONGEST i, transferred;
3317
3318   transferred = target_fileio_read_alloc_1 (filename, &buffer, 1);
3319   bufstr = (char *) buffer;
3320
3321   if (transferred < 0)
3322     return NULL;
3323
3324   if (transferred == 0)
3325     return xstrdup ("");
3326
3327   bufstr[transferred] = 0;
3328
3329   /* Check for embedded NUL bytes; but allow trailing NULs.  */
3330   for (i = strlen (bufstr); i < transferred; i++)
3331     if (bufstr[i] != 0)
3332       {
3333         warning (_("target file %s "
3334                    "contained unexpected null characters"),
3335                  filename);
3336         break;
3337       }
3338
3339   return bufstr;
3340 }
3341
3342
3343 static int
3344 default_region_ok_for_hw_watchpoint (struct target_ops *self,
3345                                      CORE_ADDR addr, int len)
3346 {
3347   return (len <= gdbarch_ptr_bit (target_gdbarch ()) / TARGET_CHAR_BIT);
3348 }
3349
3350 static int
3351 default_watchpoint_addr_within_range (struct target_ops *target,
3352                                       CORE_ADDR addr,
3353                                       CORE_ADDR start, int length)
3354 {
3355   return addr >= start && addr < start + length;
3356 }
3357
3358 static struct gdbarch *
3359 default_thread_architecture (struct target_ops *ops, ptid_t ptid)
3360 {
3361   return target_gdbarch ();
3362 }
3363
3364 static int
3365 return_zero (void)
3366 {
3367   return 0;
3368 }
3369
3370 /*
3371  * Find the next target down the stack from the specified target.
3372  */
3373
3374 struct target_ops *
3375 find_target_beneath (struct target_ops *t)
3376 {
3377   return t->beneath;
3378 }
3379
3380 /* See target.h.  */
3381
3382 struct target_ops *
3383 find_target_at (enum strata stratum)
3384 {
3385   struct target_ops *t;
3386
3387   for (t = current_target.beneath; t != NULL; t = t->beneath)
3388     if (t->to_stratum == stratum)
3389       return t;
3390
3391   return NULL;
3392 }
3393
3394 \f
3395 /* The inferior process has died.  Long live the inferior!  */
3396
3397 void
3398 generic_mourn_inferior (void)
3399 {
3400   ptid_t ptid;
3401
3402   ptid = inferior_ptid;
3403   inferior_ptid = null_ptid;
3404
3405   /* Mark breakpoints uninserted in case something tries to delete a
3406      breakpoint while we delete the inferior's threads (which would
3407      fail, since the inferior is long gone).  */
3408   mark_breakpoints_out ();
3409
3410   if (!ptid_equal (ptid, null_ptid))
3411     {
3412       int pid = ptid_get_pid (ptid);
3413       exit_inferior (pid);
3414     }
3415
3416   /* Note this wipes step-resume breakpoints, so needs to be done
3417      after exit_inferior, which ends up referencing the step-resume
3418      breakpoints through clear_thread_inferior_resources.  */
3419   breakpoint_init_inferior (inf_exited);
3420
3421   registers_changed ();
3422
3423   reopen_exec_file ();
3424   reinit_frame_cache ();
3425
3426   if (deprecated_detach_hook)
3427     deprecated_detach_hook ();
3428 }
3429 \f
3430 /* Convert a normal process ID to a string.  Returns the string in a
3431    static buffer.  */
3432
3433 char *
3434 normal_pid_to_str (ptid_t ptid)
3435 {
3436   static char buf[32];
3437
3438   xsnprintf (buf, sizeof buf, "process %d", ptid_get_pid (ptid));
3439   return buf;
3440 }
3441
3442 static char *
3443 default_pid_to_str (struct target_ops *ops, ptid_t ptid)
3444 {
3445   return normal_pid_to_str (ptid);
3446 }
3447
3448 /* Error-catcher for target_find_memory_regions.  */
3449 static int
3450 dummy_find_memory_regions (struct target_ops *self,
3451                            find_memory_region_ftype ignore1, void *ignore2)
3452 {
3453   error (_("Command not implemented for this target."));
3454   return 0;
3455 }
3456
3457 /* Error-catcher for target_make_corefile_notes.  */
3458 static char *
3459 dummy_make_corefile_notes (struct target_ops *self,
3460                            bfd *ignore1, int *ignore2)
3461 {
3462   error (_("Command not implemented for this target."));
3463   return NULL;
3464 }
3465
3466 /* Set up the handful of non-empty slots needed by the dummy target
3467    vector.  */
3468
3469 static void
3470 init_dummy_target (void)
3471 {
3472   dummy_target.to_shortname = "None";
3473   dummy_target.to_longname = "None";
3474   dummy_target.to_doc = "";
3475   dummy_target.to_create_inferior = find_default_create_inferior;
3476   dummy_target.to_supports_non_stop = find_default_supports_non_stop;
3477   dummy_target.to_supports_disable_randomization
3478     = find_default_supports_disable_randomization;
3479   dummy_target.to_stratum = dummy_stratum;
3480   dummy_target.to_has_all_memory = (int (*) (struct target_ops *)) return_zero;
3481   dummy_target.to_has_memory = (int (*) (struct target_ops *)) return_zero;
3482   dummy_target.to_has_stack = (int (*) (struct target_ops *)) return_zero;
3483   dummy_target.to_has_registers = (int (*) (struct target_ops *)) return_zero;
3484   dummy_target.to_has_execution
3485     = (int (*) (struct target_ops *, ptid_t)) return_zero;
3486   dummy_target.to_magic = OPS_MAGIC;
3487
3488   install_dummy_methods (&dummy_target);
3489 }
3490 \f
3491 static void
3492 debug_to_open (char *args, int from_tty)
3493 {
3494   debug_target.to_open (args, from_tty);
3495
3496   fprintf_unfiltered (gdb_stdlog, "target_open (%s, %d)\n", args, from_tty);
3497 }
3498
3499 void
3500 target_close (struct target_ops *targ)
3501 {
3502   gdb_assert (!target_is_pushed (targ));
3503
3504   if (targ->to_xclose != NULL)
3505     targ->to_xclose (targ);
3506   else if (targ->to_close != NULL)
3507     targ->to_close (targ);
3508
3509   if (targetdebug)
3510     fprintf_unfiltered (gdb_stdlog, "target_close ()\n");
3511 }
3512
3513 void
3514 target_attach (char *args, int from_tty)
3515 {
3516   current_target.to_attach (&current_target, args, from_tty);
3517   if (targetdebug)
3518     fprintf_unfiltered (gdb_stdlog, "target_attach (%s, %d)\n",
3519                         args, from_tty);
3520 }
3521
3522 int
3523 target_thread_alive (ptid_t ptid)
3524 {
3525   int retval;
3526
3527   retval = current_target.to_thread_alive (&current_target, ptid);
3528   if (targetdebug)
3529     fprintf_unfiltered (gdb_stdlog, "target_thread_alive (%d) = %d\n",
3530                         ptid_get_pid (ptid), retval);
3531
3532   return retval;
3533 }
3534
3535 void
3536 target_find_new_threads (void)
3537 {
3538   current_target.to_find_new_threads (&current_target);
3539   if (targetdebug)
3540     fprintf_unfiltered (gdb_stdlog, "target_find_new_threads ()\n");
3541 }
3542
3543 void
3544 target_stop (ptid_t ptid)
3545 {
3546   if (!may_stop)
3547     {
3548       warning (_("May not interrupt or stop the target, ignoring attempt"));
3549       return;
3550     }
3551
3552   (*current_target.to_stop) (&current_target, ptid);
3553 }
3554
3555 static void
3556 debug_to_post_attach (struct target_ops *self, int pid)
3557 {
3558   debug_target.to_post_attach (&debug_target, pid);
3559
3560   fprintf_unfiltered (gdb_stdlog, "target_post_attach (%d)\n", pid);
3561 }
3562
3563 /* Concatenate ELEM to LIST, a comma separate list, and return the
3564    result.  The LIST incoming argument is released.  */
3565
3566 static char *
3567 str_comma_list_concat_elem (char *list, const char *elem)
3568 {
3569   if (list == NULL)
3570     return xstrdup (elem);
3571   else
3572     return reconcat (list, list, ", ", elem, (char *) NULL);
3573 }
3574
3575 /* Helper for target_options_to_string.  If OPT is present in
3576    TARGET_OPTIONS, append the OPT_STR (string version of OPT) in RET.
3577    Returns the new resulting string.  OPT is removed from
3578    TARGET_OPTIONS.  */
3579
3580 static char *
3581 do_option (int *target_options, char *ret,
3582            int opt, char *opt_str)
3583 {
3584   if ((*target_options & opt) != 0)
3585     {
3586       ret = str_comma_list_concat_elem (ret, opt_str);
3587       *target_options &= ~opt;
3588     }
3589
3590   return ret;
3591 }
3592
3593 char *
3594 target_options_to_string (int target_options)
3595 {
3596   char *ret = NULL;
3597
3598 #define DO_TARG_OPTION(OPT) \
3599   ret = do_option (&target_options, ret, OPT, #OPT)
3600
3601   DO_TARG_OPTION (TARGET_WNOHANG);
3602
3603   if (target_options != 0)
3604     ret = str_comma_list_concat_elem (ret, "unknown???");
3605
3606   if (ret == NULL)
3607     ret = xstrdup ("");
3608   return ret;
3609 }
3610
3611 static void
3612 debug_print_register (const char * func,
3613                       struct regcache *regcache, int regno)
3614 {
3615   struct gdbarch *gdbarch = get_regcache_arch (regcache);
3616
3617   fprintf_unfiltered (gdb_stdlog, "%s ", func);
3618   if (regno >= 0 && regno < gdbarch_num_regs (gdbarch)
3619       && gdbarch_register_name (gdbarch, regno) != NULL
3620       && gdbarch_register_name (gdbarch, regno)[0] != '\0')
3621     fprintf_unfiltered (gdb_stdlog, "(%s)",
3622                         gdbarch_register_name (gdbarch, regno));
3623   else
3624     fprintf_unfiltered (gdb_stdlog, "(%d)", regno);
3625   if (regno >= 0 && regno < gdbarch_num_regs (gdbarch))
3626     {
3627       enum bfd_endian byte_order = gdbarch_byte_order (gdbarch);
3628       int i, size = register_size (gdbarch, regno);
3629       gdb_byte buf[MAX_REGISTER_SIZE];
3630
3631       regcache_raw_collect (regcache, regno, buf);
3632       fprintf_unfiltered (gdb_stdlog, " = ");
3633       for (i = 0; i < size; i++)
3634         {
3635           fprintf_unfiltered (gdb_stdlog, "%02x", buf[i]);
3636         }
3637       if (size <= sizeof (LONGEST))
3638         {
3639           ULONGEST val = extract_unsigned_integer (buf, size, byte_order);
3640
3641           fprintf_unfiltered (gdb_stdlog, " %s %s",
3642                               core_addr_to_string_nz (val), plongest (val));
3643         }
3644     }
3645   fprintf_unfiltered (gdb_stdlog, "\n");
3646 }
3647
3648 void
3649 target_fetch_registers (struct regcache *regcache, int regno)
3650 {
3651   current_target.to_fetch_registers (&current_target, regcache, regno);
3652   if (targetdebug)
3653     debug_print_register ("target_fetch_registers", regcache, regno);
3654 }
3655
3656 void
3657 target_store_registers (struct regcache *regcache, int regno)
3658 {
3659   struct target_ops *t;
3660
3661   if (!may_write_registers)
3662     error (_("Writing to registers is not allowed (regno %d)"), regno);
3663
3664   current_target.to_store_registers (&current_target, regcache, regno);
3665   if (targetdebug)
3666     {
3667       debug_print_register ("target_store_registers", regcache, regno);
3668     }
3669 }
3670
3671 int
3672 target_core_of_thread (ptid_t ptid)
3673 {
3674   int retval = current_target.to_core_of_thread (&current_target, ptid);
3675
3676   if (targetdebug)
3677     fprintf_unfiltered (gdb_stdlog,
3678                         "target_core_of_thread (%d) = %d\n",
3679                         ptid_get_pid (ptid), retval);
3680   return retval;
3681 }
3682
3683 int
3684 target_verify_memory (const gdb_byte *data, CORE_ADDR memaddr, ULONGEST size)
3685 {
3686   int retval = current_target.to_verify_memory (&current_target,
3687                                                 data, memaddr, size);
3688
3689   if (targetdebug)
3690     fprintf_unfiltered (gdb_stdlog,
3691                         "target_verify_memory (%s, %s) = %d\n",
3692                         paddress (target_gdbarch (), memaddr),
3693                         pulongest (size),
3694                         retval);
3695   return retval;
3696 }
3697
3698 /* The documentation for this function is in its prototype declaration in
3699    target.h.  */
3700
3701 int
3702 target_insert_mask_watchpoint (CORE_ADDR addr, CORE_ADDR mask, int rw)
3703 {
3704   int ret;
3705
3706   ret = current_target.to_insert_mask_watchpoint (&current_target,
3707                                                   addr, mask, rw);
3708
3709   if (targetdebug)
3710     fprintf_unfiltered (gdb_stdlog, "\
3711 target_insert_mask_watchpoint (%s, %s, %d) = %d\n",
3712                         core_addr_to_string (addr),
3713                         core_addr_to_string (mask), rw, ret);
3714   
3715   return ret;
3716 }
3717
3718 /* The documentation for this function is in its prototype declaration in
3719    target.h.  */
3720
3721 int
3722 target_remove_mask_watchpoint (CORE_ADDR addr, CORE_ADDR mask, int rw)
3723 {
3724   int ret;
3725
3726   ret = current_target.to_remove_mask_watchpoint (&current_target,
3727                                                   addr, mask, rw);
3728
3729   if (targetdebug)
3730     fprintf_unfiltered (gdb_stdlog, "\
3731 target_remove_mask_watchpoint (%s, %s, %d) = %d\n",
3732                         core_addr_to_string (addr),
3733                         core_addr_to_string (mask), rw, ret);
3734
3735   return ret;
3736 }
3737
3738 /* The documentation for this function is in its prototype declaration
3739    in target.h.  */
3740
3741 int
3742 target_masked_watch_num_registers (CORE_ADDR addr, CORE_ADDR mask)
3743 {
3744   return current_target.to_masked_watch_num_registers (&current_target,
3745                                                        addr, mask);
3746 }
3747
3748 /* The documentation for this function is in its prototype declaration
3749    in target.h.  */
3750
3751 int
3752 target_ranged_break_num_registers (void)
3753 {
3754   return current_target.to_ranged_break_num_registers (&current_target);
3755 }
3756
3757 /* See target.h.  */
3758
3759 struct btrace_target_info *
3760 target_enable_btrace (ptid_t ptid)
3761 {
3762   return current_target.to_enable_btrace (&current_target, ptid);
3763 }
3764
3765 /* See target.h.  */
3766
3767 void
3768 target_disable_btrace (struct btrace_target_info *btinfo)
3769 {
3770   current_target.to_disable_btrace (&current_target, btinfo);
3771 }
3772
3773 /* See target.h.  */
3774
3775 void
3776 target_teardown_btrace (struct btrace_target_info *btinfo)
3777 {
3778   current_target.to_teardown_btrace (&current_target, btinfo);
3779 }
3780
3781 /* See target.h.  */
3782
3783 enum btrace_error
3784 target_read_btrace (VEC (btrace_block_s) **btrace,
3785                     struct btrace_target_info *btinfo,
3786                     enum btrace_read_type type)
3787 {
3788   return current_target.to_read_btrace (&current_target, btrace, btinfo, type);
3789 }
3790
3791 /* See target.h.  */
3792
3793 void
3794 target_stop_recording (void)
3795 {
3796   current_target.to_stop_recording (&current_target);
3797 }
3798
3799 /* See target.h.  */
3800
3801 void
3802 target_info_record (void)
3803 {
3804   struct target_ops *t;
3805
3806   for (t = current_target.beneath; t != NULL; t = t->beneath)
3807     if (t->to_info_record != NULL)
3808       {
3809         t->to_info_record (t);
3810         return;
3811       }
3812
3813   tcomplain ();
3814 }
3815
3816 /* See target.h.  */
3817
3818 void
3819 target_save_record (const char *filename)
3820 {
3821   current_target.to_save_record (&current_target, filename);
3822 }
3823
3824 /* See target.h.  */
3825
3826 int
3827 target_supports_delete_record (void)
3828 {
3829   struct target_ops *t;
3830
3831   for (t = current_target.beneath; t != NULL; t = t->beneath)
3832     if (t->to_delete_record != NULL)
3833       return 1;
3834
3835   return 0;
3836 }
3837
3838 /* See target.h.  */
3839
3840 void
3841 target_delete_record (void)
3842 {
3843   current_target.to_delete_record (&current_target);
3844 }
3845
3846 /* See target.h.  */
3847
3848 int
3849 target_record_is_replaying (void)
3850 {
3851   return current_target.to_record_is_replaying (&current_target);
3852 }
3853
3854 /* See target.h.  */
3855
3856 void
3857 target_goto_record_begin (void)
3858 {
3859   current_target.to_goto_record_begin (&current_target);
3860 }
3861
3862 /* See target.h.  */
3863
3864 void
3865 target_goto_record_end (void)
3866 {
3867   current_target.to_goto_record_end (&current_target);
3868 }
3869
3870 /* See target.h.  */
3871
3872 void
3873 target_goto_record (ULONGEST insn)
3874 {
3875   current_target.to_goto_record (&current_target, insn);
3876 }
3877
3878 /* See target.h.  */
3879
3880 void
3881 target_insn_history (int size, int flags)
3882 {
3883   current_target.to_insn_history (&current_target, size, flags);
3884 }
3885
3886 /* See target.h.  */
3887
3888 void
3889 target_insn_history_from (ULONGEST from, int size, int flags)
3890 {
3891   current_target.to_insn_history_from (&current_target, from, size, flags);
3892 }
3893
3894 /* See target.h.  */
3895
3896 void
3897 target_insn_history_range (ULONGEST begin, ULONGEST end, int flags)
3898 {
3899   current_target.to_insn_history_range (&current_target, begin, end, flags);
3900 }
3901
3902 /* See target.h.  */
3903
3904 void
3905 target_call_history (int size, int flags)
3906 {
3907   current_target.to_call_history (&current_target, size, flags);
3908 }
3909
3910 /* See target.h.  */
3911
3912 void
3913 target_call_history_from (ULONGEST begin, int size, int flags)
3914 {
3915   current_target.to_call_history_from (&current_target, begin, size, flags);
3916 }
3917
3918 /* See target.h.  */
3919
3920 void
3921 target_call_history_range (ULONGEST begin, ULONGEST end, int flags)
3922 {
3923   current_target.to_call_history_range (&current_target, begin, end, flags);
3924 }
3925
3926 static void
3927 debug_to_prepare_to_store (struct target_ops *self, struct regcache *regcache)
3928 {
3929   debug_target.to_prepare_to_store (&debug_target, regcache);
3930
3931   fprintf_unfiltered (gdb_stdlog, "target_prepare_to_store ()\n");
3932 }
3933
3934 /* See target.h.  */
3935
3936 const struct frame_unwind *
3937 target_get_unwinder (void)
3938 {
3939   struct target_ops *t;
3940
3941   for (t = current_target.beneath; t != NULL; t = t->beneath)
3942     if (t->to_get_unwinder != NULL)
3943       return t->to_get_unwinder;
3944
3945   return NULL;
3946 }
3947
3948 /* See target.h.  */
3949
3950 const struct frame_unwind *
3951 target_get_tailcall_unwinder (void)
3952 {
3953   struct target_ops *t;
3954
3955   for (t = current_target.beneath; t != NULL; t = t->beneath)
3956     if (t->to_get_tailcall_unwinder != NULL)
3957       return t->to_get_tailcall_unwinder;
3958
3959   return NULL;
3960 }
3961
3962 /* See target.h.  */
3963
3964 CORE_ADDR
3965 forward_target_decr_pc_after_break (struct target_ops *ops,
3966                                     struct gdbarch *gdbarch)
3967 {
3968   for (; ops != NULL; ops = ops->beneath)
3969     if (ops->to_decr_pc_after_break != NULL)
3970       return ops->to_decr_pc_after_break (ops, gdbarch);
3971
3972   return gdbarch_decr_pc_after_break (gdbarch);
3973 }
3974
3975 /* See target.h.  */
3976
3977 CORE_ADDR
3978 target_decr_pc_after_break (struct gdbarch *gdbarch)
3979 {
3980   return forward_target_decr_pc_after_break (current_target.beneath, gdbarch);
3981 }
3982
3983 static int
3984 deprecated_debug_xfer_memory (CORE_ADDR memaddr, bfd_byte *myaddr, int len,
3985                               int write, struct mem_attrib *attrib,
3986                               struct target_ops *target)
3987 {
3988   int retval;
3989
3990   retval = debug_target.deprecated_xfer_memory (memaddr, myaddr, len, write,
3991                                                 attrib, target);
3992
3993   fprintf_unfiltered (gdb_stdlog,
3994                       "target_xfer_memory (%s, xxx, %d, %s, xxx) = %d",
3995                       paddress (target_gdbarch (), memaddr), len,
3996                       write ? "write" : "read", retval);
3997
3998   if (retval > 0)
3999     {
4000       int i;
4001
4002       fputs_unfiltered (", bytes =", gdb_stdlog);
4003       for (i = 0; i < retval; i++)
4004         {
4005           if ((((intptr_t) &(myaddr[i])) & 0xf) == 0)
4006             {
4007               if (targetdebug < 2 && i > 0)
4008                 {
4009                   fprintf_unfiltered (gdb_stdlog, " ...");
4010                   break;
4011                 }
4012               fprintf_unfiltered (gdb_stdlog, "\n");
4013             }
4014
4015           fprintf_unfiltered (gdb_stdlog, " %02x", myaddr[i] & 0xff);
4016         }
4017     }
4018
4019   fputc_unfiltered ('\n', gdb_stdlog);
4020
4021   return retval;
4022 }
4023
4024 static void
4025 debug_to_files_info (struct target_ops *target)
4026 {
4027   debug_target.to_files_info (target);
4028
4029   fprintf_unfiltered (gdb_stdlog, "target_files_info (xxx)\n");
4030 }
4031
4032 static int
4033 debug_to_insert_breakpoint (struct target_ops *ops, struct gdbarch *gdbarch,
4034                             struct bp_target_info *bp_tgt)
4035 {
4036   int retval;
4037
4038   retval = debug_target.to_insert_breakpoint (&debug_target, gdbarch, bp_tgt);
4039
4040   fprintf_unfiltered (gdb_stdlog,
4041                       "target_insert_breakpoint (%s, xxx) = %ld\n",
4042                       core_addr_to_string (bp_tgt->placed_address),
4043                       (unsigned long) retval);
4044   return retval;
4045 }
4046
4047 static int
4048 debug_to_remove_breakpoint (struct target_ops *ops, struct gdbarch *gdbarch,
4049                             struct bp_target_info *bp_tgt)
4050 {
4051   int retval;
4052
4053   retval = debug_target.to_remove_breakpoint (&debug_target, gdbarch, bp_tgt);
4054
4055   fprintf_unfiltered (gdb_stdlog,
4056                       "target_remove_breakpoint (%s, xxx) = %ld\n",
4057                       core_addr_to_string (bp_tgt->placed_address),
4058                       (unsigned long) retval);
4059   return retval;
4060 }
4061
4062 static int
4063 debug_to_can_use_hw_breakpoint (struct target_ops *self,
4064                                 int type, int cnt, int from_tty)
4065 {
4066   int retval;
4067
4068   retval = debug_target.to_can_use_hw_breakpoint (&debug_target,
4069                                                   type, cnt, from_tty);
4070
4071   fprintf_unfiltered (gdb_stdlog,
4072                       "target_can_use_hw_breakpoint (%ld, %ld, %ld) = %ld\n",
4073                       (unsigned long) type,
4074                       (unsigned long) cnt,
4075                       (unsigned long) from_tty,
4076                       (unsigned long) retval);
4077   return retval;
4078 }
4079
4080 static int
4081 debug_to_region_ok_for_hw_watchpoint (struct target_ops *self,
4082                                       CORE_ADDR addr, int len)
4083 {
4084   CORE_ADDR retval;
4085
4086   retval = debug_target.to_region_ok_for_hw_watchpoint (&debug_target,
4087                                                         addr, len);
4088
4089   fprintf_unfiltered (gdb_stdlog,
4090                       "target_region_ok_for_hw_watchpoint (%s, %ld) = %s\n",
4091                       core_addr_to_string (addr), (unsigned long) len,
4092                       core_addr_to_string (retval));
4093   return retval;
4094 }
4095
4096 static int
4097 debug_to_can_accel_watchpoint_condition (struct target_ops *self,
4098                                          CORE_ADDR addr, int len, int rw,
4099                                          struct expression *cond)
4100 {
4101   int retval;
4102
4103   retval = debug_target.to_can_accel_watchpoint_condition (&debug_target,
4104                                                            addr, len,
4105                                                            rw, cond);
4106
4107   fprintf_unfiltered (gdb_stdlog,
4108                       "target_can_accel_watchpoint_condition "
4109                       "(%s, %d, %d, %s) = %ld\n",
4110                       core_addr_to_string (addr), len, rw,
4111                       host_address_to_string (cond), (unsigned long) retval);
4112   return retval;
4113 }
4114
4115 static int
4116 debug_to_stopped_by_watchpoint (struct target_ops *ops)
4117 {
4118   int retval;
4119
4120   retval = debug_target.to_stopped_by_watchpoint (&debug_target);
4121
4122   fprintf_unfiltered (gdb_stdlog,
4123                       "target_stopped_by_watchpoint () = %ld\n",
4124                       (unsigned long) retval);
4125   return retval;
4126 }
4127
4128 static int
4129 debug_to_stopped_data_address (struct target_ops *target, CORE_ADDR *addr)
4130 {
4131   int retval;
4132
4133   retval = debug_target.to_stopped_data_address (target, addr);
4134
4135   fprintf_unfiltered (gdb_stdlog,
4136                       "target_stopped_data_address ([%s]) = %ld\n",
4137                       core_addr_to_string (*addr),
4138                       (unsigned long)retval);
4139   return retval;
4140 }
4141
4142 static int
4143 debug_to_watchpoint_addr_within_range (struct target_ops *target,
4144                                        CORE_ADDR addr,
4145                                        CORE_ADDR start, int length)
4146 {
4147   int retval;
4148
4149   retval = debug_target.to_watchpoint_addr_within_range (target, addr,
4150                                                          start, length);
4151
4152   fprintf_filtered (gdb_stdlog,
4153                     "target_watchpoint_addr_within_range (%s, %s, %d) = %d\n",
4154                     core_addr_to_string (addr), core_addr_to_string (start),
4155                     length, retval);
4156   return retval;
4157 }
4158
4159 static int
4160 debug_to_insert_hw_breakpoint (struct target_ops *self,
4161                                struct gdbarch *gdbarch,
4162                                struct bp_target_info *bp_tgt)
4163 {
4164   int retval;
4165
4166   retval = debug_target.to_insert_hw_breakpoint (&debug_target,
4167                                                  gdbarch, bp_tgt);
4168
4169   fprintf_unfiltered (gdb_stdlog,
4170                       "target_insert_hw_breakpoint (%s, xxx) = %ld\n",
4171                       core_addr_to_string (bp_tgt->placed_address),
4172                       (unsigned long) retval);
4173   return retval;
4174 }
4175
4176 static int
4177 debug_to_remove_hw_breakpoint (struct target_ops *self,
4178                                struct gdbarch *gdbarch,
4179                                struct bp_target_info *bp_tgt)
4180 {
4181   int retval;
4182
4183   retval = debug_target.to_remove_hw_breakpoint (&debug_target,
4184                                                  gdbarch, bp_tgt);
4185
4186   fprintf_unfiltered (gdb_stdlog,
4187                       "target_remove_hw_breakpoint (%s, xxx) = %ld\n",
4188                       core_addr_to_string (bp_tgt->placed_address),
4189                       (unsigned long) retval);
4190   return retval;
4191 }
4192
4193 static int
4194 debug_to_insert_watchpoint (struct target_ops *self,
4195                             CORE_ADDR addr, int len, int type,
4196                             struct expression *cond)
4197 {
4198   int retval;
4199
4200   retval = debug_target.to_insert_watchpoint (&debug_target,
4201                                               addr, len, type, cond);
4202
4203   fprintf_unfiltered (gdb_stdlog,
4204                       "target_insert_watchpoint (%s, %d, %d, %s) = %ld\n",
4205                       core_addr_to_string (addr), len, type,
4206                       host_address_to_string (cond), (unsigned long) retval);
4207   return retval;
4208 }
4209
4210 static int
4211 debug_to_remove_watchpoint (struct target_ops *self,
4212                             CORE_ADDR addr, int len, int type,
4213                             struct expression *cond)
4214 {
4215   int retval;
4216
4217   retval = debug_target.to_remove_watchpoint (&debug_target,
4218                                               addr, len, type, cond);
4219
4220   fprintf_unfiltered (gdb_stdlog,
4221                       "target_remove_watchpoint (%s, %d, %d, %s) = %ld\n",
4222                       core_addr_to_string (addr), len, type,
4223                       host_address_to_string (cond), (unsigned long) retval);
4224   return retval;
4225 }
4226
4227 static void
4228 debug_to_terminal_init (struct target_ops *self)
4229 {
4230   debug_target.to_terminal_init (&debug_target);
4231
4232   fprintf_unfiltered (gdb_stdlog, "target_terminal_init ()\n");
4233 }
4234
4235 static void
4236 debug_to_terminal_inferior (struct target_ops *self)
4237 {
4238   debug_target.to_terminal_inferior (&debug_target);
4239
4240   fprintf_unfiltered (gdb_stdlog, "target_terminal_inferior ()\n");
4241 }
4242
4243 static void
4244 debug_to_terminal_ours_for_output (struct target_ops *self)
4245 {
4246   debug_target.to_terminal_ours_for_output (&debug_target);
4247
4248   fprintf_unfiltered (gdb_stdlog, "target_terminal_ours_for_output ()\n");
4249 }
4250
4251 static void
4252 debug_to_terminal_ours (struct target_ops *self)
4253 {
4254   debug_target.to_terminal_ours (&debug_target);
4255
4256   fprintf_unfiltered (gdb_stdlog, "target_terminal_ours ()\n");
4257 }
4258
4259 static void
4260 debug_to_terminal_save_ours (struct target_ops *self)
4261 {
4262   debug_target.to_terminal_save_ours (&debug_target);
4263
4264   fprintf_unfiltered (gdb_stdlog, "target_terminal_save_ours ()\n");
4265 }
4266
4267 static void
4268 debug_to_terminal_info (struct target_ops *self,
4269                         const char *arg, int from_tty)
4270 {
4271   debug_target.to_terminal_info (&debug_target, arg, from_tty);
4272
4273   fprintf_unfiltered (gdb_stdlog, "target_terminal_info (%s, %d)\n", arg,
4274                       from_tty);
4275 }
4276
4277 static void
4278 debug_to_load (struct target_ops *self, char *args, int from_tty)
4279 {
4280   debug_target.to_load (&debug_target, args, from_tty);
4281
4282   fprintf_unfiltered (gdb_stdlog, "target_load (%s, %d)\n", args, from_tty);
4283 }
4284
4285 static void
4286 debug_to_post_startup_inferior (struct target_ops *self, ptid_t ptid)
4287 {
4288   debug_target.to_post_startup_inferior (&debug_target, ptid);
4289
4290   fprintf_unfiltered (gdb_stdlog, "target_post_startup_inferior (%d)\n",
4291                       ptid_get_pid (ptid));
4292 }
4293
4294 static int
4295 debug_to_insert_fork_catchpoint (struct target_ops *self, int pid)
4296 {
4297   int retval;
4298
4299   retval = debug_target.to_insert_fork_catchpoint (&debug_target, pid);
4300
4301   fprintf_unfiltered (gdb_stdlog, "target_insert_fork_catchpoint (%d) = %d\n",
4302                       pid, retval);
4303
4304   return retval;
4305 }
4306
4307 static int
4308 debug_to_remove_fork_catchpoint (struct target_ops *self, int pid)
4309 {
4310   int retval;
4311
4312   retval = debug_target.to_remove_fork_catchpoint (&debug_target, pid);
4313
4314   fprintf_unfiltered (gdb_stdlog, "target_remove_fork_catchpoint (%d) = %d\n",
4315                       pid, retval);
4316
4317   return retval;
4318 }
4319
4320 static int
4321 debug_to_insert_vfork_catchpoint (struct target_ops *self, int pid)
4322 {
4323   int retval;
4324
4325   retval = debug_target.to_insert_vfork_catchpoint (&debug_target, pid);
4326
4327   fprintf_unfiltered (gdb_stdlog, "target_insert_vfork_catchpoint (%d) = %d\n",
4328                       pid, retval);
4329
4330   return retval;
4331 }
4332
4333 static int
4334 debug_to_remove_vfork_catchpoint (struct target_ops *self, int pid)
4335 {
4336   int retval;
4337
4338   retval = debug_target.to_remove_vfork_catchpoint (&debug_target, pid);
4339
4340   fprintf_unfiltered (gdb_stdlog, "target_remove_vfork_catchpoint (%d) = %d\n",
4341                       pid, retval);
4342
4343   return retval;
4344 }
4345
4346 static int
4347 debug_to_insert_exec_catchpoint (struct target_ops *self, int pid)
4348 {
4349   int retval;
4350
4351   retval = debug_target.to_insert_exec_catchpoint (&debug_target, pid);
4352
4353   fprintf_unfiltered (gdb_stdlog, "target_insert_exec_catchpoint (%d) = %d\n",
4354                       pid, retval);
4355
4356   return retval;
4357 }
4358
4359 static int
4360 debug_to_remove_exec_catchpoint (struct target_ops *self, int pid)
4361 {
4362   int retval;
4363
4364   retval = debug_target.to_remove_exec_catchpoint (&debug_target, pid);
4365
4366   fprintf_unfiltered (gdb_stdlog, "target_remove_exec_catchpoint (%d) = %d\n",
4367                       pid, retval);
4368
4369   return retval;
4370 }
4371
4372 static int
4373 debug_to_has_exited (struct target_ops *self,
4374                      int pid, int wait_status, int *exit_status)
4375 {
4376   int has_exited;
4377
4378   has_exited = debug_target.to_has_exited (&debug_target,
4379                                            pid, wait_status, exit_status);
4380
4381   fprintf_unfiltered (gdb_stdlog, "target_has_exited (%d, %d, %d) = %d\n",
4382                       pid, wait_status, *exit_status, has_exited);
4383
4384   return has_exited;
4385 }
4386
4387 static int
4388 debug_to_can_run (struct target_ops *self)
4389 {
4390   int retval;
4391
4392   retval = debug_target.to_can_run (&debug_target);
4393
4394   fprintf_unfiltered (gdb_stdlog, "target_can_run () = %d\n", retval);
4395
4396   return retval;
4397 }
4398
4399 static struct gdbarch *
4400 debug_to_thread_architecture (struct target_ops *ops, ptid_t ptid)
4401 {
4402   struct gdbarch *retval;
4403
4404   retval = debug_target.to_thread_architecture (ops, ptid);
4405
4406   fprintf_unfiltered (gdb_stdlog, 
4407                       "target_thread_architecture (%s) = %s [%s]\n",
4408                       target_pid_to_str (ptid),
4409                       host_address_to_string (retval),
4410                       gdbarch_bfd_arch_info (retval)->printable_name);
4411   return retval;
4412 }
4413
4414 static void
4415 debug_to_stop (struct target_ops *self, ptid_t ptid)
4416 {
4417   debug_target.to_stop (&debug_target, ptid);
4418
4419   fprintf_unfiltered (gdb_stdlog, "target_stop (%s)\n",
4420                       target_pid_to_str (ptid));
4421 }
4422
4423 static void
4424 debug_to_rcmd (struct target_ops *self, char *command,
4425                struct ui_file *outbuf)
4426 {
4427   debug_target.to_rcmd (&debug_target, command, outbuf);
4428   fprintf_unfiltered (gdb_stdlog, "target_rcmd (%s, ...)\n", command);
4429 }
4430
4431 static char *
4432 debug_to_pid_to_exec_file (struct target_ops *self, int pid)
4433 {
4434   char *exec_file;
4435
4436   exec_file = debug_target.to_pid_to_exec_file (&debug_target, pid);
4437
4438   fprintf_unfiltered (gdb_stdlog, "target_pid_to_exec_file (%d) = %s\n",
4439                       pid, exec_file);
4440
4441   return exec_file;
4442 }
4443
4444 static void
4445 setup_target_debug (void)
4446 {
4447   memcpy (&debug_target, &current_target, sizeof debug_target);
4448
4449   current_target.to_open = debug_to_open;
4450   current_target.to_post_attach = debug_to_post_attach;
4451   current_target.to_prepare_to_store = debug_to_prepare_to_store;
4452   current_target.deprecated_xfer_memory = deprecated_debug_xfer_memory;
4453   current_target.to_files_info = debug_to_files_info;
4454   current_target.to_insert_breakpoint = debug_to_insert_breakpoint;
4455   current_target.to_remove_breakpoint = debug_to_remove_breakpoint;
4456   current_target.to_can_use_hw_breakpoint = debug_to_can_use_hw_breakpoint;
4457   current_target.to_insert_hw_breakpoint = debug_to_insert_hw_breakpoint;
4458   current_target.to_remove_hw_breakpoint = debug_to_remove_hw_breakpoint;
4459   current_target.to_insert_watchpoint = debug_to_insert_watchpoint;
4460   current_target.to_remove_watchpoint = debug_to_remove_watchpoint;
4461   current_target.to_stopped_by_watchpoint = debug_to_stopped_by_watchpoint;
4462   current_target.to_stopped_data_address = debug_to_stopped_data_address;
4463   current_target.to_watchpoint_addr_within_range
4464     = debug_to_watchpoint_addr_within_range;
4465   current_target.to_region_ok_for_hw_watchpoint
4466     = debug_to_region_ok_for_hw_watchpoint;
4467   current_target.to_can_accel_watchpoint_condition
4468     = debug_to_can_accel_watchpoint_condition;
4469   current_target.to_terminal_init = debug_to_terminal_init;
4470   current_target.to_terminal_inferior = debug_to_terminal_inferior;
4471   current_target.to_terminal_ours_for_output
4472     = debug_to_terminal_ours_for_output;
4473   current_target.to_terminal_ours = debug_to_terminal_ours;
4474   current_target.to_terminal_save_ours = debug_to_terminal_save_ours;
4475   current_target.to_terminal_info = debug_to_terminal_info;
4476   current_target.to_load = debug_to_load;
4477   current_target.to_post_startup_inferior = debug_to_post_startup_inferior;
4478   current_target.to_insert_fork_catchpoint = debug_to_insert_fork_catchpoint;
4479   current_target.to_remove_fork_catchpoint = debug_to_remove_fork_catchpoint;
4480   current_target.to_insert_vfork_catchpoint = debug_to_insert_vfork_catchpoint;
4481   current_target.to_remove_vfork_catchpoint = debug_to_remove_vfork_catchpoint;
4482   current_target.to_insert_exec_catchpoint = debug_to_insert_exec_catchpoint;
4483   current_target.to_remove_exec_catchpoint = debug_to_remove_exec_catchpoint;
4484   current_target.to_has_exited = debug_to_has_exited;
4485   current_target.to_can_run = debug_to_can_run;
4486   current_target.to_stop = debug_to_stop;
4487   current_target.to_rcmd = debug_to_rcmd;
4488   current_target.to_pid_to_exec_file = debug_to_pid_to_exec_file;
4489   current_target.to_thread_architecture = debug_to_thread_architecture;
4490 }
4491 \f
4492
4493 static char targ_desc[] =
4494 "Names of targets and files being debugged.\nShows the entire \
4495 stack of targets currently in use (including the exec-file,\n\
4496 core-file, and process, if any), as well as the symbol file name.";
4497
4498 static void
4499 default_rcmd (struct target_ops *self, char *command, struct ui_file *output)
4500 {
4501   error (_("\"monitor\" command not supported by this target."));
4502 }
4503
4504 static void
4505 do_monitor_command (char *cmd,
4506                  int from_tty)
4507 {
4508   target_rcmd (cmd, gdb_stdtarg);
4509 }
4510
4511 /* Print the name of each layers of our target stack.  */
4512
4513 static void
4514 maintenance_print_target_stack (char *cmd, int from_tty)
4515 {
4516   struct target_ops *t;
4517
4518   printf_filtered (_("The current target stack is:\n"));
4519
4520   for (t = target_stack; t != NULL; t = t->beneath)
4521     {
4522       printf_filtered ("  - %s (%s)\n", t->to_shortname, t->to_longname);
4523     }
4524 }
4525
4526 /* Controls if async mode is permitted.  */
4527 int target_async_permitted = 0;
4528
4529 /* The set command writes to this variable.  If the inferior is
4530    executing, target_async_permitted is *not* updated.  */
4531 static int target_async_permitted_1 = 0;
4532
4533 static void
4534 set_target_async_command (char *args, int from_tty,
4535                           struct cmd_list_element *c)
4536 {
4537   if (have_live_inferiors ())
4538     {
4539       target_async_permitted_1 = target_async_permitted;
4540       error (_("Cannot change this setting while the inferior is running."));
4541     }
4542
4543   target_async_permitted = target_async_permitted_1;
4544 }
4545
4546 static void
4547 show_target_async_command (struct ui_file *file, int from_tty,
4548                            struct cmd_list_element *c,
4549                            const char *value)
4550 {
4551   fprintf_filtered (file,
4552                     _("Controlling the inferior in "
4553                       "asynchronous mode is %s.\n"), value);
4554 }
4555
4556 /* Temporary copies of permission settings.  */
4557
4558 static int may_write_registers_1 = 1;
4559 static int may_write_memory_1 = 1;
4560 static int may_insert_breakpoints_1 = 1;
4561 static int may_insert_tracepoints_1 = 1;
4562 static int may_insert_fast_tracepoints_1 = 1;
4563 static int may_stop_1 = 1;
4564
4565 /* Make the user-set values match the real values again.  */
4566
4567 void
4568 update_target_permissions (void)
4569 {
4570   may_write_registers_1 = may_write_registers;
4571   may_write_memory_1 = may_write_memory;
4572   may_insert_breakpoints_1 = may_insert_breakpoints;
4573   may_insert_tracepoints_1 = may_insert_tracepoints;
4574   may_insert_fast_tracepoints_1 = may_insert_fast_tracepoints;
4575   may_stop_1 = may_stop;
4576 }
4577
4578 /* The one function handles (most of) the permission flags in the same
4579    way.  */
4580
4581 static void
4582 set_target_permissions (char *args, int from_tty,
4583                         struct cmd_list_element *c)
4584 {
4585   if (target_has_execution)
4586     {
4587       update_target_permissions ();
4588       error (_("Cannot change this setting while the inferior is running."));
4589     }
4590
4591   /* Make the real values match the user-changed values.  */
4592   may_write_registers = may_write_registers_1;
4593   may_insert_breakpoints = may_insert_breakpoints_1;
4594   may_insert_tracepoints = may_insert_tracepoints_1;
4595   may_insert_fast_tracepoints = may_insert_fast_tracepoints_1;
4596   may_stop = may_stop_1;
4597   update_observer_mode ();
4598 }
4599
4600 /* Set memory write permission independently of observer mode.  */
4601
4602 static void
4603 set_write_memory_permission (char *args, int from_tty,
4604                         struct cmd_list_element *c)
4605 {
4606   /* Make the real values match the user-changed values.  */
4607   may_write_memory = may_write_memory_1;
4608   update_observer_mode ();
4609 }
4610
4611
4612 void
4613 initialize_targets (void)
4614 {
4615   init_dummy_target ();
4616   push_target (&dummy_target);
4617
4618   add_info ("target", target_info, targ_desc);
4619   add_info ("files", target_info, targ_desc);
4620
4621   add_setshow_zuinteger_cmd ("target", class_maintenance, &targetdebug, _("\
4622 Set target debugging."), _("\
4623 Show target debugging."), _("\
4624 When non-zero, target debugging is enabled.  Higher numbers are more\n\
4625 verbose.  Changes do not take effect until the next \"run\" or \"target\"\n\
4626 command."),
4627                              NULL,
4628                              show_targetdebug,
4629                              &setdebuglist, &showdebuglist);
4630
4631   add_setshow_boolean_cmd ("trust-readonly-sections", class_support,
4632                            &trust_readonly, _("\
4633 Set mode for reading from readonly sections."), _("\
4634 Show mode for reading from readonly sections."), _("\
4635 When this mode is on, memory reads from readonly sections (such as .text)\n\
4636 will be read from the object file instead of from the target.  This will\n\
4637 result in significant performance improvement for remote targets."),
4638                            NULL,
4639                            show_trust_readonly,
4640                            &setlist, &showlist);
4641
4642   add_com ("monitor", class_obscure, do_monitor_command,
4643            _("Send a command to the remote monitor (remote targets only)."));
4644
4645   add_cmd ("target-stack", class_maintenance, maintenance_print_target_stack,
4646            _("Print the name of each layer of the internal target stack."),
4647            &maintenanceprintlist);
4648
4649   add_setshow_boolean_cmd ("target-async", no_class,
4650                            &target_async_permitted_1, _("\
4651 Set whether gdb controls the inferior in asynchronous mode."), _("\
4652 Show whether gdb controls the inferior in asynchronous mode."), _("\
4653 Tells gdb whether to control the inferior in asynchronous mode."),
4654                            set_target_async_command,
4655                            show_target_async_command,
4656                            &setlist,
4657                            &showlist);
4658
4659   add_setshow_boolean_cmd ("may-write-registers", class_support,
4660                            &may_write_registers_1, _("\
4661 Set permission to write into registers."), _("\
4662 Show permission to write into registers."), _("\
4663 When this permission is on, GDB may write into the target's registers.\n\
4664 Otherwise, any sort of write attempt will result in an error."),
4665                            set_target_permissions, NULL,
4666                            &setlist, &showlist);
4667
4668   add_setshow_boolean_cmd ("may-write-memory", class_support,
4669                            &may_write_memory_1, _("\
4670 Set permission to write into target memory."), _("\
4671 Show permission to write into target memory."), _("\
4672 When this permission is on, GDB may write into the target's memory.\n\
4673 Otherwise, any sort of write attempt will result in an error."),
4674                            set_write_memory_permission, NULL,
4675                            &setlist, &showlist);
4676
4677   add_setshow_boolean_cmd ("may-insert-breakpoints", class_support,
4678                            &may_insert_breakpoints_1, _("\
4679 Set permission to insert breakpoints in the target."), _("\
4680 Show permission to insert breakpoints in the target."), _("\
4681 When this permission is on, GDB may insert breakpoints in the program.\n\
4682 Otherwise, any sort of insertion attempt will result in an error."),
4683                            set_target_permissions, NULL,
4684                            &setlist, &showlist);
4685
4686   add_setshow_boolean_cmd ("may-insert-tracepoints", class_support,
4687                            &may_insert_tracepoints_1, _("\
4688 Set permission to insert tracepoints in the target."), _("\
4689 Show permission to insert tracepoints in the target."), _("\
4690 When this permission is on, GDB may insert tracepoints in the program.\n\
4691 Otherwise, any sort of insertion attempt will result in an error."),
4692                            set_target_permissions, NULL,
4693                            &setlist, &showlist);
4694
4695   add_setshow_boolean_cmd ("may-insert-fast-tracepoints", class_support,
4696                            &may_insert_fast_tracepoints_1, _("\
4697 Set permission to insert fast tracepoints in the target."), _("\
4698 Show permission to insert fast tracepoints in the target."), _("\
4699 When this permission is on, GDB may insert fast tracepoints.\n\
4700 Otherwise, any sort of insertion attempt will result in an error."),
4701                            set_target_permissions, NULL,
4702                            &setlist, &showlist);
4703
4704   add_setshow_boolean_cmd ("may-interrupt", class_support,
4705                            &may_stop_1, _("\
4706 Set permission to interrupt or signal the target."), _("\
4707 Show permission to interrupt or signal the target."), _("\
4708 When this permission is on, GDB may interrupt/stop the target's execution.\n\
4709 Otherwise, any attempt to interrupt or stop will be ignored."),
4710                            set_target_permissions, NULL,
4711                            &setlist, &showlist);
4712 }