Update help text in record-btrace.c
[external/binutils.git] / gdb / record-btrace.c
1 /* Branch trace support for GDB, the GNU debugger.
2
3    Copyright (C) 2013-2018 Free Software Foundation, Inc.
4
5    Contributed by Intel Corp. <markus.t.metzger@intel.com>
6
7    This file is part of GDB.
8
9    This program is free software; you can redistribute it and/or modify
10    it under the terms of the GNU General Public License as published by
11    the Free Software Foundation; either version 3 of the License, or
12    (at your option) any later version.
13
14    This program is distributed in the hope that it will be useful,
15    but WITHOUT ANY WARRANTY; without even the implied warranty of
16    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
17    GNU General Public License for more details.
18
19    You should have received a copy of the GNU General Public License
20    along with this program.  If not, see <http://www.gnu.org/licenses/>.  */
21
22 #include "defs.h"
23 #include "record.h"
24 #include "record-btrace.h"
25 #include "gdbthread.h"
26 #include "target.h"
27 #include "gdbcmd.h"
28 #include "disasm.h"
29 #include "observable.h"
30 #include "cli/cli-utils.h"
31 #include "source.h"
32 #include "ui-out.h"
33 #include "symtab.h"
34 #include "filenames.h"
35 #include "regcache.h"
36 #include "frame-unwind.h"
37 #include "hashtab.h"
38 #include "infrun.h"
39 #include "event-loop.h"
40 #include "inf-loop.h"
41 #include "vec.h"
42 #include <algorithm>
43
44 static const target_info record_btrace_target_info = {
45   "record-btrace",
46   N_("Branch tracing target"),
47   N_("Collect control-flow trace and provide the execution history.")
48 };
49
50 /* The target_ops of record-btrace.  */
51
52 class record_btrace_target final : public target_ops
53 {
54 public:
55   record_btrace_target ()
56   { to_stratum = record_stratum; }
57
58   const target_info &info () const override
59   { return record_btrace_target_info; }
60
61   void close () override;
62   void async (int) override;
63
64   void detach (inferior *inf, int from_tty) override
65   { record_detach (this, inf, from_tty); }
66
67   void disconnect (const char *, int) override;
68
69   void mourn_inferior () override
70   { record_mourn_inferior (this); }
71
72   void kill () override
73   { record_kill (this); }
74
75   enum record_method record_method (ptid_t ptid) override;
76
77   void stop_recording () override;
78   void info_record () override;
79
80   void insn_history (int size, gdb_disassembly_flags flags) override;
81   void insn_history_from (ULONGEST from, int size,
82                           gdb_disassembly_flags flags) override;
83   void insn_history_range (ULONGEST begin, ULONGEST end,
84                            gdb_disassembly_flags flags) override;
85   void call_history (int size, record_print_flags flags) override;
86   void call_history_from (ULONGEST begin, int size, record_print_flags flags)
87     override;
88   void call_history_range (ULONGEST begin, ULONGEST end, record_print_flags flags)
89     override;
90
91   bool record_is_replaying (ptid_t ptid) override;
92   bool record_will_replay (ptid_t ptid, int dir) override;
93   void record_stop_replaying () override;
94
95   enum target_xfer_status xfer_partial (enum target_object object,
96                                         const char *annex,
97                                         gdb_byte *readbuf,
98                                         const gdb_byte *writebuf,
99                                         ULONGEST offset, ULONGEST len,
100                                         ULONGEST *xfered_len) override;
101
102   int insert_breakpoint (struct gdbarch *,
103                          struct bp_target_info *) override;
104   int remove_breakpoint (struct gdbarch *, struct bp_target_info *,
105                          enum remove_bp_reason) override;
106
107   void fetch_registers (struct regcache *, int) override;
108
109   void store_registers (struct regcache *, int) override;
110   void prepare_to_store (struct regcache *) override;
111
112   const struct frame_unwind *get_unwinder () override;
113
114   const struct frame_unwind *get_tailcall_unwinder () override;
115
116   void commit_resume () override;
117   void resume (ptid_t, int, enum gdb_signal) override;
118   ptid_t wait (ptid_t, struct target_waitstatus *, int) override;
119
120   void stop (ptid_t) override;
121   void update_thread_list () override;
122   bool thread_alive (ptid_t ptid) override;
123   void goto_record_begin () override;
124   void goto_record_end () override;
125   void goto_record (ULONGEST insn) override;
126
127   bool can_execute_reverse () override;
128
129   bool stopped_by_sw_breakpoint () override;
130   bool supports_stopped_by_sw_breakpoint () override;
131
132   bool stopped_by_hw_breakpoint () override;
133   bool supports_stopped_by_hw_breakpoint () override;
134
135   enum exec_direction_kind execution_direction () override;
136   void prepare_to_generate_core () override;
137   void done_generating_core () override;
138 };
139
140 static record_btrace_target record_btrace_ops;
141
142 /* Initialize the record-btrace target ops.  */
143
144 /* Token associated with a new-thread observer enabling branch tracing
145    for the new thread.  */
146 static const gdb::observers::token record_btrace_thread_observer_token;
147
148 /* Memory access types used in set/show record btrace replay-memory-access.  */
149 static const char replay_memory_access_read_only[] = "read-only";
150 static const char replay_memory_access_read_write[] = "read-write";
151 static const char *const replay_memory_access_types[] =
152 {
153   replay_memory_access_read_only,
154   replay_memory_access_read_write,
155   NULL
156 };
157
158 /* The currently allowed replay memory access type.  */
159 static const char *replay_memory_access = replay_memory_access_read_only;
160
161 /* The cpu state kinds.  */
162 enum record_btrace_cpu_state_kind
163 {
164   CS_AUTO,
165   CS_NONE,
166   CS_CPU
167 };
168
169 /* The current cpu state.  */
170 static enum record_btrace_cpu_state_kind record_btrace_cpu_state = CS_AUTO;
171
172 /* The current cpu for trace decode.  */
173 static struct btrace_cpu record_btrace_cpu;
174
175 /* Command lists for "set/show record btrace".  */
176 static struct cmd_list_element *set_record_btrace_cmdlist;
177 static struct cmd_list_element *show_record_btrace_cmdlist;
178
179 /* The execution direction of the last resume we got.  See record-full.c.  */
180 static enum exec_direction_kind record_btrace_resume_exec_dir = EXEC_FORWARD;
181
182 /* The async event handler for reverse/replay execution.  */
183 static struct async_event_handler *record_btrace_async_inferior_event_handler;
184
185 /* A flag indicating that we are currently generating a core file.  */
186 static int record_btrace_generating_corefile;
187
188 /* The current branch trace configuration.  */
189 static struct btrace_config record_btrace_conf;
190
191 /* Command list for "record btrace".  */
192 static struct cmd_list_element *record_btrace_cmdlist;
193
194 /* Command lists for "set/show record btrace bts".  */
195 static struct cmd_list_element *set_record_btrace_bts_cmdlist;
196 static struct cmd_list_element *show_record_btrace_bts_cmdlist;
197
198 /* Command lists for "set/show record btrace pt".  */
199 static struct cmd_list_element *set_record_btrace_pt_cmdlist;
200 static struct cmd_list_element *show_record_btrace_pt_cmdlist;
201
202 /* Command list for "set record btrace cpu".  */
203 static struct cmd_list_element *set_record_btrace_cpu_cmdlist;
204
205 /* Print a record-btrace debug message.  Use do ... while (0) to avoid
206    ambiguities when used in if statements.  */
207
208 #define DEBUG(msg, args...)                                             \
209   do                                                                    \
210     {                                                                   \
211       if (record_debug != 0)                                            \
212         fprintf_unfiltered (gdb_stdlog,                                 \
213                             "[record-btrace] " msg "\n", ##args);       \
214     }                                                                   \
215   while (0)
216
217
218 /* Return the cpu configured by the user.  Returns NULL if the cpu was
219    configured as auto.  */
220 const struct btrace_cpu *
221 record_btrace_get_cpu (void)
222 {
223   switch (record_btrace_cpu_state)
224     {
225     case CS_AUTO:
226       return nullptr;
227
228     case CS_NONE:
229       record_btrace_cpu.vendor = CV_UNKNOWN;
230       /* Fall through.  */
231     case CS_CPU:
232       return &record_btrace_cpu;
233     }
234
235   error (_("Internal error: bad record btrace cpu state."));
236 }
237
238 /* Update the branch trace for the current thread and return a pointer to its
239    thread_info.
240
241    Throws an error if there is no thread or no trace.  This function never
242    returns NULL.  */
243
244 static struct thread_info *
245 require_btrace_thread (void)
246 {
247   struct thread_info *tp;
248
249   DEBUG ("require");
250
251   tp = find_thread_ptid (inferior_ptid);
252   if (tp == NULL)
253     error (_("No thread."));
254
255   validate_registers_access ();
256
257   btrace_fetch (tp, record_btrace_get_cpu ());
258
259   if (btrace_is_empty (tp))
260     error (_("No trace."));
261
262   return tp;
263 }
264
265 /* Update the branch trace for the current thread and return a pointer to its
266    branch trace information struct.
267
268    Throws an error if there is no thread or no trace.  This function never
269    returns NULL.  */
270
271 static struct btrace_thread_info *
272 require_btrace (void)
273 {
274   struct thread_info *tp;
275
276   tp = require_btrace_thread ();
277
278   return &tp->btrace;
279 }
280
281 /* Enable branch tracing for one thread.  Warn on errors.  */
282
283 static void
284 record_btrace_enable_warn (struct thread_info *tp)
285 {
286   TRY
287     {
288       btrace_enable (tp, &record_btrace_conf);
289     }
290   CATCH (error, RETURN_MASK_ERROR)
291     {
292       warning ("%s", error.message);
293     }
294   END_CATCH
295 }
296
297 /* Enable automatic tracing of new threads.  */
298
299 static void
300 record_btrace_auto_enable (void)
301 {
302   DEBUG ("attach thread observer");
303
304   gdb::observers::new_thread.attach (record_btrace_enable_warn,
305                                      record_btrace_thread_observer_token);
306 }
307
308 /* Disable automatic tracing of new threads.  */
309
310 static void
311 record_btrace_auto_disable (void)
312 {
313   DEBUG ("detach thread observer");
314
315   gdb::observers::new_thread.detach (record_btrace_thread_observer_token);
316 }
317
318 /* The record-btrace async event handler function.  */
319
320 static void
321 record_btrace_handle_async_inferior_event (gdb_client_data data)
322 {
323   inferior_event_handler (INF_REG_EVENT, NULL);
324 }
325
326 /* See record-btrace.h.  */
327
328 void
329 record_btrace_push_target (void)
330 {
331   const char *format;
332
333   record_btrace_auto_enable ();
334
335   push_target (&record_btrace_ops);
336
337   record_btrace_async_inferior_event_handler
338     = create_async_event_handler (record_btrace_handle_async_inferior_event,
339                                   NULL);
340   record_btrace_generating_corefile = 0;
341
342   format = btrace_format_short_string (record_btrace_conf.format);
343   gdb::observers::record_changed.notify (current_inferior (), 1, "btrace", format);
344 }
345
346 /* Disable btrace on a set of threads on scope exit.  */
347
348 struct scoped_btrace_disable
349 {
350   scoped_btrace_disable () = default;
351
352   DISABLE_COPY_AND_ASSIGN (scoped_btrace_disable);
353
354   ~scoped_btrace_disable ()
355   {
356     for (thread_info *tp : m_threads)
357       btrace_disable (tp);
358   }
359
360   void add_thread (thread_info *thread)
361   {
362     m_threads.push_front (thread);
363   }
364
365   void discard ()
366   {
367     m_threads.clear ();
368   }
369
370 private:
371   std::forward_list<thread_info *> m_threads;
372 };
373
374 /* Open target record-btrace.  */
375
376 static void
377 record_btrace_target_open (const char *args, int from_tty)
378 {
379   /* If we fail to enable btrace for one thread, disable it for the threads for
380      which it was successfully enabled.  */
381   scoped_btrace_disable btrace_disable;
382   struct thread_info *tp;
383
384   DEBUG ("open");
385
386   record_preopen ();
387
388   if (!target_has_execution)
389     error (_("The program is not being run."));
390
391   ALL_NON_EXITED_THREADS (tp)
392     if (args == NULL || *args == 0 || number_is_in_list (args, tp->global_num))
393       {
394         btrace_enable (tp, &record_btrace_conf);
395
396         btrace_disable.add_thread (tp);
397       }
398
399   record_btrace_push_target ();
400
401   btrace_disable.discard ();
402 }
403
404 /* The stop_recording method of target record-btrace.  */
405
406 void
407 record_btrace_target::stop_recording ()
408 {
409   struct thread_info *tp;
410
411   DEBUG ("stop recording");
412
413   record_btrace_auto_disable ();
414
415   ALL_NON_EXITED_THREADS (tp)
416     if (tp->btrace.target != NULL)
417       btrace_disable (tp);
418 }
419
420 /* The disconnect method of target record-btrace.  */
421
422 void
423 record_btrace_target::disconnect (const char *args,
424                                   int from_tty)
425 {
426   struct target_ops *beneath = this->beneath;
427
428   /* Do not stop recording, just clean up GDB side.  */
429   unpush_target (this);
430
431   /* Forward disconnect.  */
432   beneath->disconnect (args, from_tty);
433 }
434
435 /* The close method of target record-btrace.  */
436
437 void
438 record_btrace_target::close ()
439 {
440   struct thread_info *tp;
441
442   if (record_btrace_async_inferior_event_handler != NULL)
443     delete_async_event_handler (&record_btrace_async_inferior_event_handler);
444
445   /* Make sure automatic recording gets disabled even if we did not stop
446      recording before closing the record-btrace target.  */
447   record_btrace_auto_disable ();
448
449   /* We should have already stopped recording.
450      Tear down btrace in case we have not.  */
451   ALL_NON_EXITED_THREADS (tp)
452     btrace_teardown (tp);
453 }
454
455 /* The async method of target record-btrace.  */
456
457 void
458 record_btrace_target::async (int enable)
459 {
460   if (enable)
461     mark_async_event_handler (record_btrace_async_inferior_event_handler);
462   else
463     clear_async_event_handler (record_btrace_async_inferior_event_handler);
464
465   this->beneath->async (enable);
466 }
467
468 /* Adjusts the size and returns a human readable size suffix.  */
469
470 static const char *
471 record_btrace_adjust_size (unsigned int *size)
472 {
473   unsigned int sz;
474
475   sz = *size;
476
477   if ((sz & ((1u << 30) - 1)) == 0)
478     {
479       *size = sz >> 30;
480       return "GB";
481     }
482   else if ((sz & ((1u << 20) - 1)) == 0)
483     {
484       *size = sz >> 20;
485       return "MB";
486     }
487   else if ((sz & ((1u << 10) - 1)) == 0)
488     {
489       *size = sz >> 10;
490       return "kB";
491     }
492   else
493     return "";
494 }
495
496 /* Print a BTS configuration.  */
497
498 static void
499 record_btrace_print_bts_conf (const struct btrace_config_bts *conf)
500 {
501   const char *suffix;
502   unsigned int size;
503
504   size = conf->size;
505   if (size > 0)
506     {
507       suffix = record_btrace_adjust_size (&size);
508       printf_unfiltered (_("Buffer size: %u%s.\n"), size, suffix);
509     }
510 }
511
512 /* Print an Intel Processor Trace configuration.  */
513
514 static void
515 record_btrace_print_pt_conf (const struct btrace_config_pt *conf)
516 {
517   const char *suffix;
518   unsigned int size;
519
520   size = conf->size;
521   if (size > 0)
522     {
523       suffix = record_btrace_adjust_size (&size);
524       printf_unfiltered (_("Buffer size: %u%s.\n"), size, suffix);
525     }
526 }
527
528 /* Print a branch tracing configuration.  */
529
530 static void
531 record_btrace_print_conf (const struct btrace_config *conf)
532 {
533   printf_unfiltered (_("Recording format: %s.\n"),
534                      btrace_format_string (conf->format));
535
536   switch (conf->format)
537     {
538     case BTRACE_FORMAT_NONE:
539       return;
540
541     case BTRACE_FORMAT_BTS:
542       record_btrace_print_bts_conf (&conf->bts);
543       return;
544
545     case BTRACE_FORMAT_PT:
546       record_btrace_print_pt_conf (&conf->pt);
547       return;
548     }
549
550   internal_error (__FILE__, __LINE__, _("Unkown branch trace format."));
551 }
552
553 /* The info_record method of target record-btrace.  */
554
555 void
556 record_btrace_target::info_record ()
557 {
558   struct btrace_thread_info *btinfo;
559   const struct btrace_config *conf;
560   struct thread_info *tp;
561   unsigned int insns, calls, gaps;
562
563   DEBUG ("info");
564
565   tp = find_thread_ptid (inferior_ptid);
566   if (tp == NULL)
567     error (_("No thread."));
568
569   validate_registers_access ();
570
571   btinfo = &tp->btrace;
572
573   conf = ::btrace_conf (btinfo);
574   if (conf != NULL)
575     record_btrace_print_conf (conf);
576
577   btrace_fetch (tp, record_btrace_get_cpu ());
578
579   insns = 0;
580   calls = 0;
581   gaps = 0;
582
583   if (!btrace_is_empty (tp))
584     {
585       struct btrace_call_iterator call;
586       struct btrace_insn_iterator insn;
587
588       btrace_call_end (&call, btinfo);
589       btrace_call_prev (&call, 1);
590       calls = btrace_call_number (&call);
591
592       btrace_insn_end (&insn, btinfo);
593       insns = btrace_insn_number (&insn);
594
595       /* If the last instruction is not a gap, it is the current instruction
596          that is not actually part of the record.  */
597       if (btrace_insn_get (&insn) != NULL)
598         insns -= 1;
599
600       gaps = btinfo->ngaps;
601     }
602
603   printf_unfiltered (_("Recorded %u instructions in %u functions (%u gaps) "
604                        "for thread %s (%s).\n"), insns, calls, gaps,
605                      print_thread_id (tp), target_pid_to_str (tp->ptid));
606
607   if (btrace_is_replaying (tp))
608     printf_unfiltered (_("Replay in progress.  At instruction %u.\n"),
609                        btrace_insn_number (btinfo->replay));
610 }
611
612 /* Print a decode error.  */
613
614 static void
615 btrace_ui_out_decode_error (struct ui_out *uiout, int errcode,
616                             enum btrace_format format)
617 {
618   const char *errstr = btrace_decode_error (format, errcode);
619
620   uiout->text (_("["));
621   /* ERRCODE > 0 indicates notifications on BTRACE_FORMAT_PT.  */
622   if (!(format == BTRACE_FORMAT_PT && errcode > 0))
623     {
624       uiout->text (_("decode error ("));
625       uiout->field_int ("errcode", errcode);
626       uiout->text (_("): "));
627     }
628   uiout->text (errstr);
629   uiout->text (_("]\n"));
630 }
631
632 /* Print an unsigned int.  */
633
634 static void
635 ui_out_field_uint (struct ui_out *uiout, const char *fld, unsigned int val)
636 {
637   uiout->field_fmt (fld, "%u", val);
638 }
639
640 /* A range of source lines.  */
641
642 struct btrace_line_range
643 {
644   /* The symtab this line is from.  */
645   struct symtab *symtab;
646
647   /* The first line (inclusive).  */
648   int begin;
649
650   /* The last line (exclusive).  */
651   int end;
652 };
653
654 /* Construct a line range.  */
655
656 static struct btrace_line_range
657 btrace_mk_line_range (struct symtab *symtab, int begin, int end)
658 {
659   struct btrace_line_range range;
660
661   range.symtab = symtab;
662   range.begin = begin;
663   range.end = end;
664
665   return range;
666 }
667
668 /* Add a line to a line range.  */
669
670 static struct btrace_line_range
671 btrace_line_range_add (struct btrace_line_range range, int line)
672 {
673   if (range.end <= range.begin)
674     {
675       /* This is the first entry.  */
676       range.begin = line;
677       range.end = line + 1;
678     }
679   else if (line < range.begin)
680     range.begin = line;
681   else if (range.end < line)
682     range.end = line;
683
684   return range;
685 }
686
687 /* Return non-zero if RANGE is empty, zero otherwise.  */
688
689 static int
690 btrace_line_range_is_empty (struct btrace_line_range range)
691 {
692   return range.end <= range.begin;
693 }
694
695 /* Return non-zero if LHS contains RHS, zero otherwise.  */
696
697 static int
698 btrace_line_range_contains_range (struct btrace_line_range lhs,
699                                   struct btrace_line_range rhs)
700 {
701   return ((lhs.symtab == rhs.symtab)
702           && (lhs.begin <= rhs.begin)
703           && (rhs.end <= lhs.end));
704 }
705
706 /* Find the line range associated with PC.  */
707
708 static struct btrace_line_range
709 btrace_find_line_range (CORE_ADDR pc)
710 {
711   struct btrace_line_range range;
712   struct linetable_entry *lines;
713   struct linetable *ltable;
714   struct symtab *symtab;
715   int nlines, i;
716
717   symtab = find_pc_line_symtab (pc);
718   if (symtab == NULL)
719     return btrace_mk_line_range (NULL, 0, 0);
720
721   ltable = SYMTAB_LINETABLE (symtab);
722   if (ltable == NULL)
723     return btrace_mk_line_range (symtab, 0, 0);
724
725   nlines = ltable->nitems;
726   lines = ltable->item;
727   if (nlines <= 0)
728     return btrace_mk_line_range (symtab, 0, 0);
729
730   range = btrace_mk_line_range (symtab, 0, 0);
731   for (i = 0; i < nlines - 1; i++)
732     {
733       if ((lines[i].pc == pc) && (lines[i].line != 0))
734         range = btrace_line_range_add (range, lines[i].line);
735     }
736
737   return range;
738 }
739
740 /* Print source lines in LINES to UIOUT.
741
742    UI_ITEM_CHAIN is a cleanup chain for the last source line and the
743    instructions corresponding to that source line.  When printing a new source
744    line, we do the cleanups for the open chain and open a new cleanup chain for
745    the new source line.  If the source line range in LINES is not empty, this
746    function will leave the cleanup chain for the last printed source line open
747    so instructions can be added to it.  */
748
749 static void
750 btrace_print_lines (struct btrace_line_range lines, struct ui_out *uiout,
751                     gdb::optional<ui_out_emit_tuple> *src_and_asm_tuple,
752                     gdb::optional<ui_out_emit_list> *asm_list,
753                     gdb_disassembly_flags flags)
754 {
755   print_source_lines_flags psl_flags;
756
757   if (flags & DISASSEMBLY_FILENAME)
758     psl_flags |= PRINT_SOURCE_LINES_FILENAME;
759
760   for (int line = lines.begin; line < lines.end; ++line)
761     {
762       asm_list->reset ();
763
764       src_and_asm_tuple->emplace (uiout, "src_and_asm_line");
765
766       print_source_lines (lines.symtab, line, line + 1, psl_flags);
767
768       asm_list->emplace (uiout, "line_asm_insn");
769     }
770 }
771
772 /* Disassemble a section of the recorded instruction trace.  */
773
774 static void
775 btrace_insn_history (struct ui_out *uiout,
776                      const struct btrace_thread_info *btinfo,
777                      const struct btrace_insn_iterator *begin,
778                      const struct btrace_insn_iterator *end,
779                      gdb_disassembly_flags flags)
780 {
781   DEBUG ("itrace (0x%x): [%u; %u)", (unsigned) flags,
782          btrace_insn_number (begin), btrace_insn_number (end));
783
784   flags |= DISASSEMBLY_SPECULATIVE;
785
786   struct gdbarch *gdbarch = target_gdbarch ();
787   btrace_line_range last_lines = btrace_mk_line_range (NULL, 0, 0);
788
789   ui_out_emit_list list_emitter (uiout, "asm_insns");
790
791   gdb::optional<ui_out_emit_tuple> src_and_asm_tuple;
792   gdb::optional<ui_out_emit_list> asm_list;
793
794   gdb_pretty_print_disassembler disasm (gdbarch);
795
796   for (btrace_insn_iterator it = *begin; btrace_insn_cmp (&it, end) != 0;
797          btrace_insn_next (&it, 1))
798     {
799       const struct btrace_insn *insn;
800
801       insn = btrace_insn_get (&it);
802
803       /* A NULL instruction indicates a gap in the trace.  */
804       if (insn == NULL)
805         {
806           const struct btrace_config *conf;
807
808           conf = btrace_conf (btinfo);
809
810           /* We have trace so we must have a configuration.  */
811           gdb_assert (conf != NULL);
812
813           uiout->field_fmt ("insn-number", "%u",
814                             btrace_insn_number (&it));
815           uiout->text ("\t");
816
817           btrace_ui_out_decode_error (uiout, btrace_insn_get_error (&it),
818                                       conf->format);
819         }
820       else
821         {
822           struct disasm_insn dinsn;
823
824           if ((flags & DISASSEMBLY_SOURCE) != 0)
825             {
826               struct btrace_line_range lines;
827
828               lines = btrace_find_line_range (insn->pc);
829               if (!btrace_line_range_is_empty (lines)
830                   && !btrace_line_range_contains_range (last_lines, lines))
831                 {
832                   btrace_print_lines (lines, uiout, &src_and_asm_tuple, &asm_list,
833                                       flags);
834                   last_lines = lines;
835                 }
836               else if (!src_and_asm_tuple.has_value ())
837                 {
838                   gdb_assert (!asm_list.has_value ());
839
840                   src_and_asm_tuple.emplace (uiout, "src_and_asm_line");
841
842                   /* No source information.  */
843                   asm_list.emplace (uiout, "line_asm_insn");
844                 }
845
846               gdb_assert (src_and_asm_tuple.has_value ());
847               gdb_assert (asm_list.has_value ());
848             }
849
850           memset (&dinsn, 0, sizeof (dinsn));
851           dinsn.number = btrace_insn_number (&it);
852           dinsn.addr = insn->pc;
853
854           if ((insn->flags & BTRACE_INSN_FLAG_SPECULATIVE) != 0)
855             dinsn.is_speculative = 1;
856
857           disasm.pretty_print_insn (uiout, &dinsn, flags);
858         }
859     }
860 }
861
862 /* The insn_history method of target record-btrace.  */
863
864 void
865 record_btrace_target::insn_history (int size, gdb_disassembly_flags flags)
866 {
867   struct btrace_thread_info *btinfo;
868   struct btrace_insn_history *history;
869   struct btrace_insn_iterator begin, end;
870   struct ui_out *uiout;
871   unsigned int context, covered;
872
873   uiout = current_uiout;
874   ui_out_emit_tuple tuple_emitter (uiout, "insn history");
875   context = abs (size);
876   if (context == 0)
877     error (_("Bad record instruction-history-size."));
878
879   btinfo = require_btrace ();
880   history = btinfo->insn_history;
881   if (history == NULL)
882     {
883       struct btrace_insn_iterator *replay;
884
885       DEBUG ("insn-history (0x%x): %d", (unsigned) flags, size);
886
887       /* If we're replaying, we start at the replay position.  Otherwise, we
888          start at the tail of the trace.  */
889       replay = btinfo->replay;
890       if (replay != NULL)
891         begin = *replay;
892       else
893         btrace_insn_end (&begin, btinfo);
894
895       /* We start from here and expand in the requested direction.  Then we
896          expand in the other direction, as well, to fill up any remaining
897          context.  */
898       end = begin;
899       if (size < 0)
900         {
901           /* We want the current position covered, as well.  */
902           covered = btrace_insn_next (&end, 1);
903           covered += btrace_insn_prev (&begin, context - covered);
904           covered += btrace_insn_next (&end, context - covered);
905         }
906       else
907         {
908           covered = btrace_insn_next (&end, context);
909           covered += btrace_insn_prev (&begin, context - covered);
910         }
911     }
912   else
913     {
914       begin = history->begin;
915       end = history->end;
916
917       DEBUG ("insn-history (0x%x): %d, prev: [%u; %u)", (unsigned) flags, size,
918              btrace_insn_number (&begin), btrace_insn_number (&end));
919
920       if (size < 0)
921         {
922           end = begin;
923           covered = btrace_insn_prev (&begin, context);
924         }
925       else
926         {
927           begin = end;
928           covered = btrace_insn_next (&end, context);
929         }
930     }
931
932   if (covered > 0)
933     btrace_insn_history (uiout, btinfo, &begin, &end, flags);
934   else
935     {
936       if (size < 0)
937         printf_unfiltered (_("At the start of the branch trace record.\n"));
938       else
939         printf_unfiltered (_("At the end of the branch trace record.\n"));
940     }
941
942   btrace_set_insn_history (btinfo, &begin, &end);
943 }
944
945 /* The insn_history_range method of target record-btrace.  */
946
947 void
948 record_btrace_target::insn_history_range (ULONGEST from, ULONGEST to,
949                                           gdb_disassembly_flags flags)
950 {
951   struct btrace_thread_info *btinfo;
952   struct btrace_insn_iterator begin, end;
953   struct ui_out *uiout;
954   unsigned int low, high;
955   int found;
956
957   uiout = current_uiout;
958   ui_out_emit_tuple tuple_emitter (uiout, "insn history");
959   low = from;
960   high = to;
961
962   DEBUG ("insn-history (0x%x): [%u; %u)", (unsigned) flags, low, high);
963
964   /* Check for wrap-arounds.  */
965   if (low != from || high != to)
966     error (_("Bad range."));
967
968   if (high < low)
969     error (_("Bad range."));
970
971   btinfo = require_btrace ();
972
973   found = btrace_find_insn_by_number (&begin, btinfo, low);
974   if (found == 0)
975     error (_("Range out of bounds."));
976
977   found = btrace_find_insn_by_number (&end, btinfo, high);
978   if (found == 0)
979     {
980       /* Silently truncate the range.  */
981       btrace_insn_end (&end, btinfo);
982     }
983   else
984     {
985       /* We want both begin and end to be inclusive.  */
986       btrace_insn_next (&end, 1);
987     }
988
989   btrace_insn_history (uiout, btinfo, &begin, &end, flags);
990   btrace_set_insn_history (btinfo, &begin, &end);
991 }
992
993 /* The insn_history_from method of target record-btrace.  */
994
995 void
996 record_btrace_target::insn_history_from (ULONGEST from, int size,
997                                          gdb_disassembly_flags flags)
998 {
999   ULONGEST begin, end, context;
1000
1001   context = abs (size);
1002   if (context == 0)
1003     error (_("Bad record instruction-history-size."));
1004
1005   if (size < 0)
1006     {
1007       end = from;
1008
1009       if (from < context)
1010         begin = 0;
1011       else
1012         begin = from - context + 1;
1013     }
1014   else
1015     {
1016       begin = from;
1017       end = from + context - 1;
1018
1019       /* Check for wrap-around.  */
1020       if (end < begin)
1021         end = ULONGEST_MAX;
1022     }
1023
1024   insn_history_range (begin, end, flags);
1025 }
1026
1027 /* Print the instruction number range for a function call history line.  */
1028
1029 static void
1030 btrace_call_history_insn_range (struct ui_out *uiout,
1031                                 const struct btrace_function *bfun)
1032 {
1033   unsigned int begin, end, size;
1034
1035   size = bfun->insn.size ();
1036   gdb_assert (size > 0);
1037
1038   begin = bfun->insn_offset;
1039   end = begin + size - 1;
1040
1041   ui_out_field_uint (uiout, "insn begin", begin);
1042   uiout->text (",");
1043   ui_out_field_uint (uiout, "insn end", end);
1044 }
1045
1046 /* Compute the lowest and highest source line for the instructions in BFUN
1047    and return them in PBEGIN and PEND.
1048    Ignore instructions that can't be mapped to BFUN, e.g. instructions that
1049    result from inlining or macro expansion.  */
1050
1051 static void
1052 btrace_compute_src_line_range (const struct btrace_function *bfun,
1053                                int *pbegin, int *pend)
1054 {
1055   struct symtab *symtab;
1056   struct symbol *sym;
1057   int begin, end;
1058
1059   begin = INT_MAX;
1060   end = INT_MIN;
1061
1062   sym = bfun->sym;
1063   if (sym == NULL)
1064     goto out;
1065
1066   symtab = symbol_symtab (sym);
1067
1068   for (const btrace_insn &insn : bfun->insn)
1069     {
1070       struct symtab_and_line sal;
1071
1072       sal = find_pc_line (insn.pc, 0);
1073       if (sal.symtab != symtab || sal.line == 0)
1074         continue;
1075
1076       begin = std::min (begin, sal.line);
1077       end = std::max (end, sal.line);
1078     }
1079
1080  out:
1081   *pbegin = begin;
1082   *pend = end;
1083 }
1084
1085 /* Print the source line information for a function call history line.  */
1086
1087 static void
1088 btrace_call_history_src_line (struct ui_out *uiout,
1089                               const struct btrace_function *bfun)
1090 {
1091   struct symbol *sym;
1092   int begin, end;
1093
1094   sym = bfun->sym;
1095   if (sym == NULL)
1096     return;
1097
1098   uiout->field_string ("file",
1099                        symtab_to_filename_for_display (symbol_symtab (sym)));
1100
1101   btrace_compute_src_line_range (bfun, &begin, &end);
1102   if (end < begin)
1103     return;
1104
1105   uiout->text (":");
1106   uiout->field_int ("min line", begin);
1107
1108   if (end == begin)
1109     return;
1110
1111   uiout->text (",");
1112   uiout->field_int ("max line", end);
1113 }
1114
1115 /* Get the name of a branch trace function.  */
1116
1117 static const char *
1118 btrace_get_bfun_name (const struct btrace_function *bfun)
1119 {
1120   struct minimal_symbol *msym;
1121   struct symbol *sym;
1122
1123   if (bfun == NULL)
1124     return "??";
1125
1126   msym = bfun->msym;
1127   sym = bfun->sym;
1128
1129   if (sym != NULL)
1130     return SYMBOL_PRINT_NAME (sym);
1131   else if (msym != NULL)
1132     return MSYMBOL_PRINT_NAME (msym);
1133   else
1134     return "??";
1135 }
1136
1137 /* Disassemble a section of the recorded function trace.  */
1138
1139 static void
1140 btrace_call_history (struct ui_out *uiout,
1141                      const struct btrace_thread_info *btinfo,
1142                      const struct btrace_call_iterator *begin,
1143                      const struct btrace_call_iterator *end,
1144                      int int_flags)
1145 {
1146   struct btrace_call_iterator it;
1147   record_print_flags flags = (enum record_print_flag) int_flags;
1148
1149   DEBUG ("ftrace (0x%x): [%u; %u)", int_flags, btrace_call_number (begin),
1150          btrace_call_number (end));
1151
1152   for (it = *begin; btrace_call_cmp (&it, end) < 0; btrace_call_next (&it, 1))
1153     {
1154       const struct btrace_function *bfun;
1155       struct minimal_symbol *msym;
1156       struct symbol *sym;
1157
1158       bfun = btrace_call_get (&it);
1159       sym = bfun->sym;
1160       msym = bfun->msym;
1161
1162       /* Print the function index.  */
1163       ui_out_field_uint (uiout, "index", bfun->number);
1164       uiout->text ("\t");
1165
1166       /* Indicate gaps in the trace.  */
1167       if (bfun->errcode != 0)
1168         {
1169           const struct btrace_config *conf;
1170
1171           conf = btrace_conf (btinfo);
1172
1173           /* We have trace so we must have a configuration.  */
1174           gdb_assert (conf != NULL);
1175
1176           btrace_ui_out_decode_error (uiout, bfun->errcode, conf->format);
1177
1178           continue;
1179         }
1180
1181       if ((flags & RECORD_PRINT_INDENT_CALLS) != 0)
1182         {
1183           int level = bfun->level + btinfo->level, i;
1184
1185           for (i = 0; i < level; ++i)
1186             uiout->text ("  ");
1187         }
1188
1189       if (sym != NULL)
1190         uiout->field_string ("function", SYMBOL_PRINT_NAME (sym));
1191       else if (msym != NULL)
1192         uiout->field_string ("function", MSYMBOL_PRINT_NAME (msym));
1193       else if (!uiout->is_mi_like_p ())
1194         uiout->field_string ("function", "??");
1195
1196       if ((flags & RECORD_PRINT_INSN_RANGE) != 0)
1197         {
1198           uiout->text (_("\tinst "));
1199           btrace_call_history_insn_range (uiout, bfun);
1200         }
1201
1202       if ((flags & RECORD_PRINT_SRC_LINE) != 0)
1203         {
1204           uiout->text (_("\tat "));
1205           btrace_call_history_src_line (uiout, bfun);
1206         }
1207
1208       uiout->text ("\n");
1209     }
1210 }
1211
1212 /* The call_history method of target record-btrace.  */
1213
1214 void
1215 record_btrace_target::call_history (int size, record_print_flags flags)
1216 {
1217   struct btrace_thread_info *btinfo;
1218   struct btrace_call_history *history;
1219   struct btrace_call_iterator begin, end;
1220   struct ui_out *uiout;
1221   unsigned int context, covered;
1222
1223   uiout = current_uiout;
1224   ui_out_emit_tuple tuple_emitter (uiout, "insn history");
1225   context = abs (size);
1226   if (context == 0)
1227     error (_("Bad record function-call-history-size."));
1228
1229   btinfo = require_btrace ();
1230   history = btinfo->call_history;
1231   if (history == NULL)
1232     {
1233       struct btrace_insn_iterator *replay;
1234
1235       DEBUG ("call-history (0x%x): %d", (int) flags, size);
1236
1237       /* If we're replaying, we start at the replay position.  Otherwise, we
1238          start at the tail of the trace.  */
1239       replay = btinfo->replay;
1240       if (replay != NULL)
1241         {
1242           begin.btinfo = btinfo;
1243           begin.index = replay->call_index;
1244         }
1245       else
1246         btrace_call_end (&begin, btinfo);
1247
1248       /* We start from here and expand in the requested direction.  Then we
1249          expand in the other direction, as well, to fill up any remaining
1250          context.  */
1251       end = begin;
1252       if (size < 0)
1253         {
1254           /* We want the current position covered, as well.  */
1255           covered = btrace_call_next (&end, 1);
1256           covered += btrace_call_prev (&begin, context - covered);
1257           covered += btrace_call_next (&end, context - covered);
1258         }
1259       else
1260         {
1261           covered = btrace_call_next (&end, context);
1262           covered += btrace_call_prev (&begin, context- covered);
1263         }
1264     }
1265   else
1266     {
1267       begin = history->begin;
1268       end = history->end;
1269
1270       DEBUG ("call-history (0x%x): %d, prev: [%u; %u)", (int) flags, size,
1271              btrace_call_number (&begin), btrace_call_number (&end));
1272
1273       if (size < 0)
1274         {
1275           end = begin;
1276           covered = btrace_call_prev (&begin, context);
1277         }
1278       else
1279         {
1280           begin = end;
1281           covered = btrace_call_next (&end, context);
1282         }
1283     }
1284
1285   if (covered > 0)
1286     btrace_call_history (uiout, btinfo, &begin, &end, flags);
1287   else
1288     {
1289       if (size < 0)
1290         printf_unfiltered (_("At the start of the branch trace record.\n"));
1291       else
1292         printf_unfiltered (_("At the end of the branch trace record.\n"));
1293     }
1294
1295   btrace_set_call_history (btinfo, &begin, &end);
1296 }
1297
1298 /* The call_history_range method of target record-btrace.  */
1299
1300 void
1301 record_btrace_target::call_history_range (ULONGEST from, ULONGEST to,
1302                                           record_print_flags flags)
1303 {
1304   struct btrace_thread_info *btinfo;
1305   struct btrace_call_iterator begin, end;
1306   struct ui_out *uiout;
1307   unsigned int low, high;
1308   int found;
1309
1310   uiout = current_uiout;
1311   ui_out_emit_tuple tuple_emitter (uiout, "func history");
1312   low = from;
1313   high = to;
1314
1315   DEBUG ("call-history (0x%x): [%u; %u)", (int) flags, low, high);
1316
1317   /* Check for wrap-arounds.  */
1318   if (low != from || high != to)
1319     error (_("Bad range."));
1320
1321   if (high < low)
1322     error (_("Bad range."));
1323
1324   btinfo = require_btrace ();
1325
1326   found = btrace_find_call_by_number (&begin, btinfo, low);
1327   if (found == 0)
1328     error (_("Range out of bounds."));
1329
1330   found = btrace_find_call_by_number (&end, btinfo, high);
1331   if (found == 0)
1332     {
1333       /* Silently truncate the range.  */
1334       btrace_call_end (&end, btinfo);
1335     }
1336   else
1337     {
1338       /* We want both begin and end to be inclusive.  */
1339       btrace_call_next (&end, 1);
1340     }
1341
1342   btrace_call_history (uiout, btinfo, &begin, &end, flags);
1343   btrace_set_call_history (btinfo, &begin, &end);
1344 }
1345
1346 /* The call_history_from method of target record-btrace.  */
1347
1348 void
1349 record_btrace_target::call_history_from (ULONGEST from, int size,
1350                                          record_print_flags flags)
1351 {
1352   ULONGEST begin, end, context;
1353
1354   context = abs (size);
1355   if (context == 0)
1356     error (_("Bad record function-call-history-size."));
1357
1358   if (size < 0)
1359     {
1360       end = from;
1361
1362       if (from < context)
1363         begin = 0;
1364       else
1365         begin = from - context + 1;
1366     }
1367   else
1368     {
1369       begin = from;
1370       end = from + context - 1;
1371
1372       /* Check for wrap-around.  */
1373       if (end < begin)
1374         end = ULONGEST_MAX;
1375     }
1376
1377   call_history_range ( begin, end, flags);
1378 }
1379
1380 /* The record_method method of target record-btrace.  */
1381
1382 enum record_method
1383 record_btrace_target::record_method (ptid_t ptid)
1384 {
1385   struct thread_info * const tp = find_thread_ptid (ptid);
1386
1387   if (tp == NULL)
1388     error (_("No thread."));
1389
1390   if (tp->btrace.target == NULL)
1391     return RECORD_METHOD_NONE;
1392
1393   return RECORD_METHOD_BTRACE;
1394 }
1395
1396 /* The record_is_replaying method of target record-btrace.  */
1397
1398 bool
1399 record_btrace_target::record_is_replaying (ptid_t ptid)
1400 {
1401   struct thread_info *tp;
1402
1403   ALL_NON_EXITED_THREADS (tp)
1404     if (ptid_match (tp->ptid, ptid) && btrace_is_replaying (tp))
1405       return true;
1406
1407   return false;
1408 }
1409
1410 /* The record_will_replay method of target record-btrace.  */
1411
1412 bool
1413 record_btrace_target::record_will_replay (ptid_t ptid, int dir)
1414 {
1415   return dir == EXEC_REVERSE || record_is_replaying (ptid);
1416 }
1417
1418 /* The xfer_partial method of target record-btrace.  */
1419
1420 enum target_xfer_status
1421 record_btrace_target::xfer_partial (enum target_object object,
1422                                     const char *annex, gdb_byte *readbuf,
1423                                     const gdb_byte *writebuf, ULONGEST offset,
1424                                     ULONGEST len, ULONGEST *xfered_len)
1425 {
1426   /* Filter out requests that don't make sense during replay.  */
1427   if (replay_memory_access == replay_memory_access_read_only
1428       && !record_btrace_generating_corefile
1429       && record_is_replaying (inferior_ptid))
1430     {
1431       switch (object)
1432         {
1433         case TARGET_OBJECT_MEMORY:
1434           {
1435             struct target_section *section;
1436
1437             /* We do not allow writing memory in general.  */
1438             if (writebuf != NULL)
1439               {
1440                 *xfered_len = len;
1441                 return TARGET_XFER_UNAVAILABLE;
1442               }
1443
1444             /* We allow reading readonly memory.  */
1445             section = target_section_by_addr (this, offset);
1446             if (section != NULL)
1447               {
1448                 /* Check if the section we found is readonly.  */
1449                 if ((bfd_get_section_flags (section->the_bfd_section->owner,
1450                                             section->the_bfd_section)
1451                      & SEC_READONLY) != 0)
1452                   {
1453                     /* Truncate the request to fit into this section.  */
1454                     len = std::min (len, section->endaddr - offset);
1455                     break;
1456                   }
1457               }
1458
1459             *xfered_len = len;
1460             return TARGET_XFER_UNAVAILABLE;
1461           }
1462         }
1463     }
1464
1465   /* Forward the request.  */
1466   return this->beneath->xfer_partial (object, annex, readbuf, writebuf,
1467                                       offset, len, xfered_len);
1468 }
1469
1470 /* The insert_breakpoint method of target record-btrace.  */
1471
1472 int
1473 record_btrace_target::insert_breakpoint (struct gdbarch *gdbarch,
1474                                          struct bp_target_info *bp_tgt)
1475 {
1476   const char *old;
1477   int ret;
1478
1479   /* Inserting breakpoints requires accessing memory.  Allow it for the
1480      duration of this function.  */
1481   old = replay_memory_access;
1482   replay_memory_access = replay_memory_access_read_write;
1483
1484   ret = 0;
1485   TRY
1486     {
1487       ret = this->beneath->insert_breakpoint (gdbarch, bp_tgt);
1488     }
1489   CATCH (except, RETURN_MASK_ALL)
1490     {
1491       replay_memory_access = old;
1492       throw_exception (except);
1493     }
1494   END_CATCH
1495   replay_memory_access = old;
1496
1497   return ret;
1498 }
1499
1500 /* The remove_breakpoint method of target record-btrace.  */
1501
1502 int
1503 record_btrace_target::remove_breakpoint (struct gdbarch *gdbarch,
1504                                          struct bp_target_info *bp_tgt,
1505                                          enum remove_bp_reason reason)
1506 {
1507   const char *old;
1508   int ret;
1509
1510   /* Removing breakpoints requires accessing memory.  Allow it for the
1511      duration of this function.  */
1512   old = replay_memory_access;
1513   replay_memory_access = replay_memory_access_read_write;
1514
1515   ret = 0;
1516   TRY
1517     {
1518       ret = this->beneath->remove_breakpoint (gdbarch, bp_tgt, reason);
1519     }
1520   CATCH (except, RETURN_MASK_ALL)
1521     {
1522       replay_memory_access = old;
1523       throw_exception (except);
1524     }
1525   END_CATCH
1526   replay_memory_access = old;
1527
1528   return ret;
1529 }
1530
1531 /* The fetch_registers method of target record-btrace.  */
1532
1533 void
1534 record_btrace_target::fetch_registers (struct regcache *regcache, int regno)
1535 {
1536   struct btrace_insn_iterator *replay;
1537   struct thread_info *tp;
1538
1539   tp = find_thread_ptid (regcache_get_ptid (regcache));
1540   gdb_assert (tp != NULL);
1541
1542   replay = tp->btrace.replay;
1543   if (replay != NULL && !record_btrace_generating_corefile)
1544     {
1545       const struct btrace_insn *insn;
1546       struct gdbarch *gdbarch;
1547       int pcreg;
1548
1549       gdbarch = regcache->arch ();
1550       pcreg = gdbarch_pc_regnum (gdbarch);
1551       if (pcreg < 0)
1552         return;
1553
1554       /* We can only provide the PC register.  */
1555       if (regno >= 0 && regno != pcreg)
1556         return;
1557
1558       insn = btrace_insn_get (replay);
1559       gdb_assert (insn != NULL);
1560
1561       regcache_raw_supply (regcache, regno, &insn->pc);
1562     }
1563   else
1564     this->beneath->fetch_registers (regcache, regno);
1565 }
1566
1567 /* The store_registers method of target record-btrace.  */
1568
1569 void
1570 record_btrace_target::store_registers (struct regcache *regcache, int regno)
1571 {
1572   struct target_ops *t;
1573
1574   if (!record_btrace_generating_corefile
1575       && record_is_replaying (regcache_get_ptid (regcache)))
1576     error (_("Cannot write registers while replaying."));
1577
1578   gdb_assert (may_write_registers != 0);
1579
1580   this->beneath->store_registers (regcache, regno);
1581 }
1582
1583 /* The prepare_to_store method of target record-btrace.  */
1584
1585 void
1586 record_btrace_target::prepare_to_store (struct regcache *regcache)
1587 {
1588   if (!record_btrace_generating_corefile
1589       && record_is_replaying (regcache_get_ptid (regcache)))
1590     return;
1591
1592   this->beneath->prepare_to_store (regcache);
1593 }
1594
1595 /* The branch trace frame cache.  */
1596
1597 struct btrace_frame_cache
1598 {
1599   /* The thread.  */
1600   struct thread_info *tp;
1601
1602   /* The frame info.  */
1603   struct frame_info *frame;
1604
1605   /* The branch trace function segment.  */
1606   const struct btrace_function *bfun;
1607 };
1608
1609 /* A struct btrace_frame_cache hash table indexed by NEXT.  */
1610
1611 static htab_t bfcache;
1612
1613 /* hash_f for htab_create_alloc of bfcache.  */
1614
1615 static hashval_t
1616 bfcache_hash (const void *arg)
1617 {
1618   const struct btrace_frame_cache *cache
1619     = (const struct btrace_frame_cache *) arg;
1620
1621   return htab_hash_pointer (cache->frame);
1622 }
1623
1624 /* eq_f for htab_create_alloc of bfcache.  */
1625
1626 static int
1627 bfcache_eq (const void *arg1, const void *arg2)
1628 {
1629   const struct btrace_frame_cache *cache1
1630     = (const struct btrace_frame_cache *) arg1;
1631   const struct btrace_frame_cache *cache2
1632     = (const struct btrace_frame_cache *) arg2;
1633
1634   return cache1->frame == cache2->frame;
1635 }
1636
1637 /* Create a new btrace frame cache.  */
1638
1639 static struct btrace_frame_cache *
1640 bfcache_new (struct frame_info *frame)
1641 {
1642   struct btrace_frame_cache *cache;
1643   void **slot;
1644
1645   cache = FRAME_OBSTACK_ZALLOC (struct btrace_frame_cache);
1646   cache->frame = frame;
1647
1648   slot = htab_find_slot (bfcache, cache, INSERT);
1649   gdb_assert (*slot == NULL);
1650   *slot = cache;
1651
1652   return cache;
1653 }
1654
1655 /* Extract the branch trace function from a branch trace frame.  */
1656
1657 static const struct btrace_function *
1658 btrace_get_frame_function (struct frame_info *frame)
1659 {
1660   const struct btrace_frame_cache *cache;
1661   struct btrace_frame_cache pattern;
1662   void **slot;
1663
1664   pattern.frame = frame;
1665
1666   slot = htab_find_slot (bfcache, &pattern, NO_INSERT);
1667   if (slot == NULL)
1668     return NULL;
1669
1670   cache = (const struct btrace_frame_cache *) *slot;
1671   return cache->bfun;
1672 }
1673
1674 /* Implement stop_reason method for record_btrace_frame_unwind.  */
1675
1676 static enum unwind_stop_reason
1677 record_btrace_frame_unwind_stop_reason (struct frame_info *this_frame,
1678                                         void **this_cache)
1679 {
1680   const struct btrace_frame_cache *cache;
1681   const struct btrace_function *bfun;
1682
1683   cache = (const struct btrace_frame_cache *) *this_cache;
1684   bfun = cache->bfun;
1685   gdb_assert (bfun != NULL);
1686
1687   if (bfun->up == 0)
1688     return UNWIND_UNAVAILABLE;
1689
1690   return UNWIND_NO_REASON;
1691 }
1692
1693 /* Implement this_id method for record_btrace_frame_unwind.  */
1694
1695 static void
1696 record_btrace_frame_this_id (struct frame_info *this_frame, void **this_cache,
1697                              struct frame_id *this_id)
1698 {
1699   const struct btrace_frame_cache *cache;
1700   const struct btrace_function *bfun;
1701   struct btrace_call_iterator it;
1702   CORE_ADDR code, special;
1703
1704   cache = (const struct btrace_frame_cache *) *this_cache;
1705
1706   bfun = cache->bfun;
1707   gdb_assert (bfun != NULL);
1708
1709   while (btrace_find_call_by_number (&it, &cache->tp->btrace, bfun->prev) != 0)
1710     bfun = btrace_call_get (&it);
1711
1712   code = get_frame_func (this_frame);
1713   special = bfun->number;
1714
1715   *this_id = frame_id_build_unavailable_stack_special (code, special);
1716
1717   DEBUG ("[frame] %s id: (!stack, pc=%s, special=%s)",
1718          btrace_get_bfun_name (cache->bfun),
1719          core_addr_to_string_nz (this_id->code_addr),
1720          core_addr_to_string_nz (this_id->special_addr));
1721 }
1722
1723 /* Implement prev_register method for record_btrace_frame_unwind.  */
1724
1725 static struct value *
1726 record_btrace_frame_prev_register (struct frame_info *this_frame,
1727                                    void **this_cache,
1728                                    int regnum)
1729 {
1730   const struct btrace_frame_cache *cache;
1731   const struct btrace_function *bfun, *caller;
1732   struct btrace_call_iterator it;
1733   struct gdbarch *gdbarch;
1734   CORE_ADDR pc;
1735   int pcreg;
1736
1737   gdbarch = get_frame_arch (this_frame);
1738   pcreg = gdbarch_pc_regnum (gdbarch);
1739   if (pcreg < 0 || regnum != pcreg)
1740     throw_error (NOT_AVAILABLE_ERROR,
1741                  _("Registers are not available in btrace record history"));
1742
1743   cache = (const struct btrace_frame_cache *) *this_cache;
1744   bfun = cache->bfun;
1745   gdb_assert (bfun != NULL);
1746
1747   if (btrace_find_call_by_number (&it, &cache->tp->btrace, bfun->up) == 0)
1748     throw_error (NOT_AVAILABLE_ERROR,
1749                  _("No caller in btrace record history"));
1750
1751   caller = btrace_call_get (&it);
1752
1753   if ((bfun->flags & BFUN_UP_LINKS_TO_RET) != 0)
1754     pc = caller->insn.front ().pc;
1755   else
1756     {
1757       pc = caller->insn.back ().pc;
1758       pc += gdb_insn_length (gdbarch, pc);
1759     }
1760
1761   DEBUG ("[frame] unwound PC in %s on level %d: %s",
1762          btrace_get_bfun_name (bfun), bfun->level,
1763          core_addr_to_string_nz (pc));
1764
1765   return frame_unwind_got_address (this_frame, regnum, pc);
1766 }
1767
1768 /* Implement sniffer method for record_btrace_frame_unwind.  */
1769
1770 static int
1771 record_btrace_frame_sniffer (const struct frame_unwind *self,
1772                              struct frame_info *this_frame,
1773                              void **this_cache)
1774 {
1775   const struct btrace_function *bfun;
1776   struct btrace_frame_cache *cache;
1777   struct thread_info *tp;
1778   struct frame_info *next;
1779
1780   /* THIS_FRAME does not contain a reference to its thread.  */
1781   tp = find_thread_ptid (inferior_ptid);
1782   gdb_assert (tp != NULL);
1783
1784   bfun = NULL;
1785   next = get_next_frame (this_frame);
1786   if (next == NULL)
1787     {
1788       const struct btrace_insn_iterator *replay;
1789
1790       replay = tp->btrace.replay;
1791       if (replay != NULL)
1792         bfun = &replay->btinfo->functions[replay->call_index];
1793     }
1794   else
1795     {
1796       const struct btrace_function *callee;
1797       struct btrace_call_iterator it;
1798
1799       callee = btrace_get_frame_function (next);
1800       if (callee == NULL || (callee->flags & BFUN_UP_LINKS_TO_TAILCALL) != 0)
1801         return 0;
1802
1803       if (btrace_find_call_by_number (&it, &tp->btrace, callee->up) == 0)
1804         return 0;
1805
1806       bfun = btrace_call_get (&it);
1807     }
1808
1809   if (bfun == NULL)
1810     return 0;
1811
1812   DEBUG ("[frame] sniffed frame for %s on level %d",
1813          btrace_get_bfun_name (bfun), bfun->level);
1814
1815   /* This is our frame.  Initialize the frame cache.  */
1816   cache = bfcache_new (this_frame);
1817   cache->tp = tp;
1818   cache->bfun = bfun;
1819
1820   *this_cache = cache;
1821   return 1;
1822 }
1823
1824 /* Implement sniffer method for record_btrace_tailcall_frame_unwind.  */
1825
1826 static int
1827 record_btrace_tailcall_frame_sniffer (const struct frame_unwind *self,
1828                                       struct frame_info *this_frame,
1829                                       void **this_cache)
1830 {
1831   const struct btrace_function *bfun, *callee;
1832   struct btrace_frame_cache *cache;
1833   struct btrace_call_iterator it;
1834   struct frame_info *next;
1835   struct thread_info *tinfo;
1836
1837   next = get_next_frame (this_frame);
1838   if (next == NULL)
1839     return 0;
1840
1841   callee = btrace_get_frame_function (next);
1842   if (callee == NULL)
1843     return 0;
1844
1845   if ((callee->flags & BFUN_UP_LINKS_TO_TAILCALL) == 0)
1846     return 0;
1847
1848   tinfo = find_thread_ptid (inferior_ptid);
1849   if (btrace_find_call_by_number (&it, &tinfo->btrace, callee->up) == 0)
1850     return 0;
1851
1852   bfun = btrace_call_get (&it);
1853
1854   DEBUG ("[frame] sniffed tailcall frame for %s on level %d",
1855          btrace_get_bfun_name (bfun), bfun->level);
1856
1857   /* This is our frame.  Initialize the frame cache.  */
1858   cache = bfcache_new (this_frame);
1859   cache->tp = tinfo;
1860   cache->bfun = bfun;
1861
1862   *this_cache = cache;
1863   return 1;
1864 }
1865
1866 static void
1867 record_btrace_frame_dealloc_cache (struct frame_info *self, void *this_cache)
1868 {
1869   struct btrace_frame_cache *cache;
1870   void **slot;
1871
1872   cache = (struct btrace_frame_cache *) this_cache;
1873
1874   slot = htab_find_slot (bfcache, cache, NO_INSERT);
1875   gdb_assert (slot != NULL);
1876
1877   htab_remove_elt (bfcache, cache);
1878 }
1879
1880 /* btrace recording does not store previous memory content, neither the stack
1881    frames content.  Any unwinding would return errorneous results as the stack
1882    contents no longer matches the changed PC value restored from history.
1883    Therefore this unwinder reports any possibly unwound registers as
1884    <unavailable>.  */
1885
1886 const struct frame_unwind record_btrace_frame_unwind =
1887 {
1888   NORMAL_FRAME,
1889   record_btrace_frame_unwind_stop_reason,
1890   record_btrace_frame_this_id,
1891   record_btrace_frame_prev_register,
1892   NULL,
1893   record_btrace_frame_sniffer,
1894   record_btrace_frame_dealloc_cache
1895 };
1896
1897 const struct frame_unwind record_btrace_tailcall_frame_unwind =
1898 {
1899   TAILCALL_FRAME,
1900   record_btrace_frame_unwind_stop_reason,
1901   record_btrace_frame_this_id,
1902   record_btrace_frame_prev_register,
1903   NULL,
1904   record_btrace_tailcall_frame_sniffer,
1905   record_btrace_frame_dealloc_cache
1906 };
1907
1908 /* Implement the get_unwinder method.  */
1909
1910 const struct frame_unwind *
1911 record_btrace_target::get_unwinder ()
1912 {
1913   return &record_btrace_frame_unwind;
1914 }
1915
1916 /* Implement the get_tailcall_unwinder method.  */
1917
1918 const struct frame_unwind *
1919 record_btrace_target::get_tailcall_unwinder ()
1920 {
1921   return &record_btrace_tailcall_frame_unwind;
1922 }
1923
1924 /* Return a human-readable string for FLAG.  */
1925
1926 static const char *
1927 btrace_thread_flag_to_str (enum btrace_thread_flag flag)
1928 {
1929   switch (flag)
1930     {
1931     case BTHR_STEP:
1932       return "step";
1933
1934     case BTHR_RSTEP:
1935       return "reverse-step";
1936
1937     case BTHR_CONT:
1938       return "cont";
1939
1940     case BTHR_RCONT:
1941       return "reverse-cont";
1942
1943     case BTHR_STOP:
1944       return "stop";
1945     }
1946
1947   return "<invalid>";
1948 }
1949
1950 /* Indicate that TP should be resumed according to FLAG.  */
1951
1952 static void
1953 record_btrace_resume_thread (struct thread_info *tp,
1954                              enum btrace_thread_flag flag)
1955 {
1956   struct btrace_thread_info *btinfo;
1957
1958   DEBUG ("resuming thread %s (%s): %x (%s)", print_thread_id (tp),
1959          target_pid_to_str (tp->ptid), flag, btrace_thread_flag_to_str (flag));
1960
1961   btinfo = &tp->btrace;
1962
1963   /* Fetch the latest branch trace.  */
1964   btrace_fetch (tp, record_btrace_get_cpu ());
1965
1966   /* A resume request overwrites a preceding resume or stop request.  */
1967   btinfo->flags &= ~(BTHR_MOVE | BTHR_STOP);
1968   btinfo->flags |= flag;
1969 }
1970
1971 /* Get the current frame for TP.  */
1972
1973 static struct frame_info *
1974 get_thread_current_frame (struct thread_info *tp)
1975 {
1976   struct frame_info *frame;
1977   ptid_t old_inferior_ptid;
1978   int executing;
1979
1980   /* Set INFERIOR_PTID, which is implicitly used by get_current_frame.  */
1981   old_inferior_ptid = inferior_ptid;
1982   inferior_ptid = tp->ptid;
1983
1984   /* Clear the executing flag to allow changes to the current frame.
1985      We are not actually running, yet.  We just started a reverse execution
1986      command or a record goto command.
1987      For the latter, EXECUTING is false and this has no effect.
1988      For the former, EXECUTING is true and we're in wait, about to
1989      move the thread.  Since we need to recompute the stack, we temporarily
1990      set EXECUTING to flase.  */
1991   executing = is_executing (inferior_ptid);
1992   set_executing (inferior_ptid, 0);
1993
1994   frame = NULL;
1995   TRY
1996     {
1997       frame = get_current_frame ();
1998     }
1999   CATCH (except, RETURN_MASK_ALL)
2000     {
2001       /* Restore the previous execution state.  */
2002       set_executing (inferior_ptid, executing);
2003
2004       /* Restore the previous inferior_ptid.  */
2005       inferior_ptid = old_inferior_ptid;
2006
2007       throw_exception (except);
2008     }
2009   END_CATCH
2010
2011   /* Restore the previous execution state.  */
2012   set_executing (inferior_ptid, executing);
2013
2014   /* Restore the previous inferior_ptid.  */
2015   inferior_ptid = old_inferior_ptid;
2016
2017   return frame;
2018 }
2019
2020 /* Start replaying a thread.  */
2021
2022 static struct btrace_insn_iterator *
2023 record_btrace_start_replaying (struct thread_info *tp)
2024 {
2025   struct btrace_insn_iterator *replay;
2026   struct btrace_thread_info *btinfo;
2027
2028   btinfo = &tp->btrace;
2029   replay = NULL;
2030
2031   /* We can't start replaying without trace.  */
2032   if (btinfo->functions.empty ())
2033     return NULL;
2034
2035   /* GDB stores the current frame_id when stepping in order to detects steps
2036      into subroutines.
2037      Since frames are computed differently when we're replaying, we need to
2038      recompute those stored frames and fix them up so we can still detect
2039      subroutines after we started replaying.  */
2040   TRY
2041     {
2042       struct frame_info *frame;
2043       struct frame_id frame_id;
2044       int upd_step_frame_id, upd_step_stack_frame_id;
2045
2046       /* The current frame without replaying - computed via normal unwind.  */
2047       frame = get_thread_current_frame (tp);
2048       frame_id = get_frame_id (frame);
2049
2050       /* Check if we need to update any stepping-related frame id's.  */
2051       upd_step_frame_id = frame_id_eq (frame_id,
2052                                        tp->control.step_frame_id);
2053       upd_step_stack_frame_id = frame_id_eq (frame_id,
2054                                              tp->control.step_stack_frame_id);
2055
2056       /* We start replaying at the end of the branch trace.  This corresponds
2057          to the current instruction.  */
2058       replay = XNEW (struct btrace_insn_iterator);
2059       btrace_insn_end (replay, btinfo);
2060
2061       /* Skip gaps at the end of the trace.  */
2062       while (btrace_insn_get (replay) == NULL)
2063         {
2064           unsigned int steps;
2065
2066           steps = btrace_insn_prev (replay, 1);
2067           if (steps == 0)
2068             error (_("No trace."));
2069         }
2070
2071       /* We're not replaying, yet.  */
2072       gdb_assert (btinfo->replay == NULL);
2073       btinfo->replay = replay;
2074
2075       /* Make sure we're not using any stale registers.  */
2076       registers_changed_ptid (tp->ptid);
2077
2078       /* The current frame with replaying - computed via btrace unwind.  */
2079       frame = get_thread_current_frame (tp);
2080       frame_id = get_frame_id (frame);
2081
2082       /* Replace stepping related frames where necessary.  */
2083       if (upd_step_frame_id)
2084         tp->control.step_frame_id = frame_id;
2085       if (upd_step_stack_frame_id)
2086         tp->control.step_stack_frame_id = frame_id;
2087     }
2088   CATCH (except, RETURN_MASK_ALL)
2089     {
2090       xfree (btinfo->replay);
2091       btinfo->replay = NULL;
2092
2093       registers_changed_ptid (tp->ptid);
2094
2095       throw_exception (except);
2096     }
2097   END_CATCH
2098
2099   return replay;
2100 }
2101
2102 /* Stop replaying a thread.  */
2103
2104 static void
2105 record_btrace_stop_replaying (struct thread_info *tp)
2106 {
2107   struct btrace_thread_info *btinfo;
2108
2109   btinfo = &tp->btrace;
2110
2111   xfree (btinfo->replay);
2112   btinfo->replay = NULL;
2113
2114   /* Make sure we're not leaving any stale registers.  */
2115   registers_changed_ptid (tp->ptid);
2116 }
2117
2118 /* Stop replaying TP if it is at the end of its execution history.  */
2119
2120 static void
2121 record_btrace_stop_replaying_at_end (struct thread_info *tp)
2122 {
2123   struct btrace_insn_iterator *replay, end;
2124   struct btrace_thread_info *btinfo;
2125
2126   btinfo = &tp->btrace;
2127   replay = btinfo->replay;
2128
2129   if (replay == NULL)
2130     return;
2131
2132   btrace_insn_end (&end, btinfo);
2133
2134   if (btrace_insn_cmp (replay, &end) == 0)
2135     record_btrace_stop_replaying (tp);
2136 }
2137
2138 /* The resume method of target record-btrace.  */
2139
2140 void
2141 record_btrace_target::resume (ptid_t ptid, int step, enum gdb_signal signal)
2142 {
2143   struct thread_info *tp;
2144   enum btrace_thread_flag flag, cflag;
2145
2146   DEBUG ("resume %s: %s%s", target_pid_to_str (ptid),
2147          ::execution_direction == EXEC_REVERSE ? "reverse-" : "",
2148          step ? "step" : "cont");
2149
2150   /* Store the execution direction of the last resume.
2151
2152      If there is more than one resume call, we have to rely on infrun
2153      to not change the execution direction in-between.  */
2154   record_btrace_resume_exec_dir = ::execution_direction;
2155
2156   /* As long as we're not replaying, just forward the request.
2157
2158      For non-stop targets this means that no thread is replaying.  In order to
2159      make progress, we may need to explicitly move replaying threads to the end
2160      of their execution history.  */
2161   if ((::execution_direction != EXEC_REVERSE)
2162       && !record_is_replaying (minus_one_ptid))
2163     {
2164       this->beneath->resume (ptid, step, signal);
2165       return;
2166     }
2167
2168   /* Compute the btrace thread flag for the requested move.  */
2169   if (::execution_direction == EXEC_REVERSE)
2170     {
2171       flag = step == 0 ? BTHR_RCONT : BTHR_RSTEP;
2172       cflag = BTHR_RCONT;
2173     }
2174   else
2175     {
2176       flag = step == 0 ? BTHR_CONT : BTHR_STEP;
2177       cflag = BTHR_CONT;
2178     }
2179
2180   /* We just indicate the resume intent here.  The actual stepping happens in
2181      record_btrace_wait below.
2182
2183      For all-stop targets, we only step INFERIOR_PTID and continue others.  */
2184   if (!target_is_non_stop_p ())
2185     {
2186       gdb_assert (ptid_match (inferior_ptid, ptid));
2187
2188       ALL_NON_EXITED_THREADS (tp)
2189         if (ptid_match (tp->ptid, ptid))
2190           {
2191             if (ptid_match (tp->ptid, inferior_ptid))
2192               record_btrace_resume_thread (tp, flag);
2193             else
2194               record_btrace_resume_thread (tp, cflag);
2195           }
2196     }
2197   else
2198     {
2199       ALL_NON_EXITED_THREADS (tp)
2200         if (ptid_match (tp->ptid, ptid))
2201           record_btrace_resume_thread (tp, flag);
2202     }
2203
2204   /* Async support.  */
2205   if (target_can_async_p ())
2206     {
2207       target_async (1);
2208       mark_async_event_handler (record_btrace_async_inferior_event_handler);
2209     }
2210 }
2211
2212 /* The commit_resume method of target record-btrace.  */
2213
2214 void
2215 record_btrace_target::commit_resume ()
2216 {
2217   if ((::execution_direction != EXEC_REVERSE)
2218       && !record_is_replaying (minus_one_ptid))
2219     beneath->commit_resume ();
2220 }
2221
2222 /* Cancel resuming TP.  */
2223
2224 static void
2225 record_btrace_cancel_resume (struct thread_info *tp)
2226 {
2227   enum btrace_thread_flag flags;
2228
2229   flags = tp->btrace.flags & (BTHR_MOVE | BTHR_STOP);
2230   if (flags == 0)
2231     return;
2232
2233   DEBUG ("cancel resume thread %s (%s): %x (%s)",
2234          print_thread_id (tp),
2235          target_pid_to_str (tp->ptid), flags,
2236          btrace_thread_flag_to_str (flags));
2237
2238   tp->btrace.flags &= ~(BTHR_MOVE | BTHR_STOP);
2239   record_btrace_stop_replaying_at_end (tp);
2240 }
2241
2242 /* Return a target_waitstatus indicating that we ran out of history.  */
2243
2244 static struct target_waitstatus
2245 btrace_step_no_history (void)
2246 {
2247   struct target_waitstatus status;
2248
2249   status.kind = TARGET_WAITKIND_NO_HISTORY;
2250
2251   return status;
2252 }
2253
2254 /* Return a target_waitstatus indicating that a step finished.  */
2255
2256 static struct target_waitstatus
2257 btrace_step_stopped (void)
2258 {
2259   struct target_waitstatus status;
2260
2261   status.kind = TARGET_WAITKIND_STOPPED;
2262   status.value.sig = GDB_SIGNAL_TRAP;
2263
2264   return status;
2265 }
2266
2267 /* Return a target_waitstatus indicating that a thread was stopped as
2268    requested.  */
2269
2270 static struct target_waitstatus
2271 btrace_step_stopped_on_request (void)
2272 {
2273   struct target_waitstatus status;
2274
2275   status.kind = TARGET_WAITKIND_STOPPED;
2276   status.value.sig = GDB_SIGNAL_0;
2277
2278   return status;
2279 }
2280
2281 /* Return a target_waitstatus indicating a spurious stop.  */
2282
2283 static struct target_waitstatus
2284 btrace_step_spurious (void)
2285 {
2286   struct target_waitstatus status;
2287
2288   status.kind = TARGET_WAITKIND_SPURIOUS;
2289
2290   return status;
2291 }
2292
2293 /* Return a target_waitstatus indicating that the thread was not resumed.  */
2294
2295 static struct target_waitstatus
2296 btrace_step_no_resumed (void)
2297 {
2298   struct target_waitstatus status;
2299
2300   status.kind = TARGET_WAITKIND_NO_RESUMED;
2301
2302   return status;
2303 }
2304
2305 /* Return a target_waitstatus indicating that we should wait again.  */
2306
2307 static struct target_waitstatus
2308 btrace_step_again (void)
2309 {
2310   struct target_waitstatus status;
2311
2312   status.kind = TARGET_WAITKIND_IGNORE;
2313
2314   return status;
2315 }
2316
2317 /* Clear the record histories.  */
2318
2319 static void
2320 record_btrace_clear_histories (struct btrace_thread_info *btinfo)
2321 {
2322   xfree (btinfo->insn_history);
2323   xfree (btinfo->call_history);
2324
2325   btinfo->insn_history = NULL;
2326   btinfo->call_history = NULL;
2327 }
2328
2329 /* Check whether TP's current replay position is at a breakpoint.  */
2330
2331 static int
2332 record_btrace_replay_at_breakpoint (struct thread_info *tp)
2333 {
2334   struct btrace_insn_iterator *replay;
2335   struct btrace_thread_info *btinfo;
2336   const struct btrace_insn *insn;
2337   struct inferior *inf;
2338
2339   btinfo = &tp->btrace;
2340   replay = btinfo->replay;
2341
2342   if (replay == NULL)
2343     return 0;
2344
2345   insn = btrace_insn_get (replay);
2346   if (insn == NULL)
2347     return 0;
2348
2349   inf = find_inferior_ptid (tp->ptid);
2350   if (inf == NULL)
2351     return 0;
2352
2353   return record_check_stopped_by_breakpoint (inf->aspace, insn->pc,
2354                                              &btinfo->stop_reason);
2355 }
2356
2357 /* Step one instruction in forward direction.  */
2358
2359 static struct target_waitstatus
2360 record_btrace_single_step_forward (struct thread_info *tp)
2361 {
2362   struct btrace_insn_iterator *replay, end, start;
2363   struct btrace_thread_info *btinfo;
2364
2365   btinfo = &tp->btrace;
2366   replay = btinfo->replay;
2367
2368   /* We're done if we're not replaying.  */
2369   if (replay == NULL)
2370     return btrace_step_no_history ();
2371
2372   /* Check if we're stepping a breakpoint.  */
2373   if (record_btrace_replay_at_breakpoint (tp))
2374     return btrace_step_stopped ();
2375
2376   /* Skip gaps during replay.  If we end up at a gap (at the end of the trace),
2377      jump back to the instruction at which we started.  */
2378   start = *replay;
2379   do
2380     {
2381       unsigned int steps;
2382
2383       /* We will bail out here if we continue stepping after reaching the end
2384          of the execution history.  */
2385       steps = btrace_insn_next (replay, 1);
2386       if (steps == 0)
2387         {
2388           *replay = start;
2389           return btrace_step_no_history ();
2390         }
2391     }
2392   while (btrace_insn_get (replay) == NULL);
2393
2394   /* Determine the end of the instruction trace.  */
2395   btrace_insn_end (&end, btinfo);
2396
2397   /* The execution trace contains (and ends with) the current instruction.
2398      This instruction has not been executed, yet, so the trace really ends
2399      one instruction earlier.  */
2400   if (btrace_insn_cmp (replay, &end) == 0)
2401     return btrace_step_no_history ();
2402
2403   return btrace_step_spurious ();
2404 }
2405
2406 /* Step one instruction in backward direction.  */
2407
2408 static struct target_waitstatus
2409 record_btrace_single_step_backward (struct thread_info *tp)
2410 {
2411   struct btrace_insn_iterator *replay, start;
2412   struct btrace_thread_info *btinfo;
2413
2414   btinfo = &tp->btrace;
2415   replay = btinfo->replay;
2416
2417   /* Start replaying if we're not already doing so.  */
2418   if (replay == NULL)
2419     replay = record_btrace_start_replaying (tp);
2420
2421   /* If we can't step any further, we reached the end of the history.
2422      Skip gaps during replay.  If we end up at a gap (at the beginning of
2423      the trace), jump back to the instruction at which we started.  */
2424   start = *replay;
2425   do
2426     {
2427       unsigned int steps;
2428
2429       steps = btrace_insn_prev (replay, 1);
2430       if (steps == 0)
2431         {
2432           *replay = start;
2433           return btrace_step_no_history ();
2434         }
2435     }
2436   while (btrace_insn_get (replay) == NULL);
2437
2438   /* Check if we're stepping a breakpoint.
2439
2440      For reverse-stepping, this check is after the step.  There is logic in
2441      infrun.c that handles reverse-stepping separately.  See, for example,
2442      proceed and adjust_pc_after_break.
2443
2444      This code assumes that for reverse-stepping, PC points to the last
2445      de-executed instruction, whereas for forward-stepping PC points to the
2446      next to-be-executed instruction.  */
2447   if (record_btrace_replay_at_breakpoint (tp))
2448     return btrace_step_stopped ();
2449
2450   return btrace_step_spurious ();
2451 }
2452
2453 /* Step a single thread.  */
2454
2455 static struct target_waitstatus
2456 record_btrace_step_thread (struct thread_info *tp)
2457 {
2458   struct btrace_thread_info *btinfo;
2459   struct target_waitstatus status;
2460   enum btrace_thread_flag flags;
2461
2462   btinfo = &tp->btrace;
2463
2464   flags = btinfo->flags & (BTHR_MOVE | BTHR_STOP);
2465   btinfo->flags &= ~(BTHR_MOVE | BTHR_STOP);
2466
2467   DEBUG ("stepping thread %s (%s): %x (%s)", print_thread_id (tp),
2468          target_pid_to_str (tp->ptid), flags,
2469          btrace_thread_flag_to_str (flags));
2470
2471   /* We can't step without an execution history.  */
2472   if ((flags & BTHR_MOVE) != 0 && btrace_is_empty (tp))
2473     return btrace_step_no_history ();
2474
2475   switch (flags)
2476     {
2477     default:
2478       internal_error (__FILE__, __LINE__, _("invalid stepping type."));
2479
2480     case BTHR_STOP:
2481       return btrace_step_stopped_on_request ();
2482
2483     case BTHR_STEP:
2484       status = record_btrace_single_step_forward (tp);
2485       if (status.kind != TARGET_WAITKIND_SPURIOUS)
2486         break;
2487
2488       return btrace_step_stopped ();
2489
2490     case BTHR_RSTEP:
2491       status = record_btrace_single_step_backward (tp);
2492       if (status.kind != TARGET_WAITKIND_SPURIOUS)
2493         break;
2494
2495       return btrace_step_stopped ();
2496
2497     case BTHR_CONT:
2498       status = record_btrace_single_step_forward (tp);
2499       if (status.kind != TARGET_WAITKIND_SPURIOUS)
2500         break;
2501
2502       btinfo->flags |= flags;
2503       return btrace_step_again ();
2504
2505     case BTHR_RCONT:
2506       status = record_btrace_single_step_backward (tp);
2507       if (status.kind != TARGET_WAITKIND_SPURIOUS)
2508         break;
2509
2510       btinfo->flags |= flags;
2511       return btrace_step_again ();
2512     }
2513
2514   /* We keep threads moving at the end of their execution history.  The wait
2515      method will stop the thread for whom the event is reported.  */
2516   if (status.kind == TARGET_WAITKIND_NO_HISTORY)
2517     btinfo->flags |= flags;
2518
2519   return status;
2520 }
2521
2522 /* A vector of threads.  */
2523
2524 typedef struct thread_info * tp_t;
2525 DEF_VEC_P (tp_t);
2526
2527 /* Announce further events if necessary.  */
2528
2529 static void
2530 record_btrace_maybe_mark_async_event
2531   (const std::vector<thread_info *> &moving,
2532    const std::vector<thread_info *> &no_history)
2533 {
2534   bool more_moving = !moving.empty ();
2535   bool more_no_history = !no_history.empty ();;
2536
2537   if (!more_moving && !more_no_history)
2538     return;
2539
2540   if (more_moving)
2541     DEBUG ("movers pending");
2542
2543   if (more_no_history)
2544     DEBUG ("no-history pending");
2545
2546   mark_async_event_handler (record_btrace_async_inferior_event_handler);
2547 }
2548
2549 /* The wait method of target record-btrace.  */
2550
2551 ptid_t
2552 record_btrace_target::wait (ptid_t ptid, struct target_waitstatus *status,
2553                             int options)
2554 {
2555   std::vector<thread_info *> moving;
2556   std::vector<thread_info *> no_history;
2557
2558   DEBUG ("wait %s (0x%x)", target_pid_to_str (ptid), options);
2559
2560   /* As long as we're not replaying, just forward the request.  */
2561   if ((::execution_direction != EXEC_REVERSE)
2562       && !record_is_replaying (minus_one_ptid))
2563     {
2564       return this->beneath->wait (ptid, status, options);
2565     }
2566
2567   /* Keep a work list of moving threads.  */
2568   {
2569     thread_info *tp;
2570
2571     ALL_NON_EXITED_THREADS (tp)
2572       {
2573         if (ptid_match (tp->ptid, ptid)
2574             && ((tp->btrace.flags & (BTHR_MOVE | BTHR_STOP)) != 0))
2575           moving.push_back (tp);
2576       }
2577   }
2578
2579   if (moving.empty ())
2580     {
2581       *status = btrace_step_no_resumed ();
2582
2583       DEBUG ("wait ended by %s: %s", target_pid_to_str (null_ptid),
2584              target_waitstatus_to_string (status).c_str ());
2585
2586       return null_ptid;
2587     }
2588
2589   /* Step moving threads one by one, one step each, until either one thread
2590      reports an event or we run out of threads to step.
2591
2592      When stepping more than one thread, chances are that some threads reach
2593      the end of their execution history earlier than others.  If we reported
2594      this immediately, all-stop on top of non-stop would stop all threads and
2595      resume the same threads next time.  And we would report the same thread
2596      having reached the end of its execution history again.
2597
2598      In the worst case, this would starve the other threads.  But even if other
2599      threads would be allowed to make progress, this would result in far too
2600      many intermediate stops.
2601
2602      We therefore delay the reporting of "no execution history" until we have
2603      nothing else to report.  By this time, all threads should have moved to
2604      either the beginning or the end of their execution history.  There will
2605      be a single user-visible stop.  */
2606   struct thread_info *eventing = NULL;
2607   while ((eventing == NULL) && !moving.empty ())
2608     {
2609       for (unsigned int ix = 0; eventing == NULL && ix < moving.size ();)
2610         {
2611           thread_info *tp = moving[ix];
2612
2613           *status = record_btrace_step_thread (tp);
2614
2615           switch (status->kind)
2616             {
2617             case TARGET_WAITKIND_IGNORE:
2618               ix++;
2619               break;
2620
2621             case TARGET_WAITKIND_NO_HISTORY:
2622               no_history.push_back (ordered_remove (moving, ix));
2623               break;
2624
2625             default:
2626               eventing = unordered_remove (moving, ix);
2627               break;
2628             }
2629         }
2630     }
2631
2632   if (eventing == NULL)
2633     {
2634       /* We started with at least one moving thread.  This thread must have
2635          either stopped or reached the end of its execution history.
2636
2637          In the former case, EVENTING must not be NULL.
2638          In the latter case, NO_HISTORY must not be empty.  */
2639       gdb_assert (!no_history.empty ());
2640
2641       /* We kept threads moving at the end of their execution history.  Stop
2642          EVENTING now that we are going to report its stop.  */
2643       eventing = unordered_remove (no_history, 0);
2644       eventing->btrace.flags &= ~BTHR_MOVE;
2645
2646       *status = btrace_step_no_history ();
2647     }
2648
2649   gdb_assert (eventing != NULL);
2650
2651   /* We kept threads replaying at the end of their execution history.  Stop
2652      replaying EVENTING now that we are going to report its stop.  */
2653   record_btrace_stop_replaying_at_end (eventing);
2654
2655   /* Stop all other threads. */
2656   if (!target_is_non_stop_p ())
2657     {
2658       thread_info *tp;
2659
2660       ALL_NON_EXITED_THREADS (tp)
2661         record_btrace_cancel_resume (tp);
2662     }
2663
2664   /* In async mode, we need to announce further events.  */
2665   if (target_is_async_p ())
2666     record_btrace_maybe_mark_async_event (moving, no_history);
2667
2668   /* Start record histories anew from the current position.  */
2669   record_btrace_clear_histories (&eventing->btrace);
2670
2671   /* We moved the replay position but did not update registers.  */
2672   registers_changed_ptid (eventing->ptid);
2673
2674   DEBUG ("wait ended by thread %s (%s): %s",
2675          print_thread_id (eventing),
2676          target_pid_to_str (eventing->ptid),
2677          target_waitstatus_to_string (status).c_str ());
2678
2679   return eventing->ptid;
2680 }
2681
2682 /* The stop method of target record-btrace.  */
2683
2684 void
2685 record_btrace_target::stop (ptid_t ptid)
2686 {
2687   DEBUG ("stop %s", target_pid_to_str (ptid));
2688
2689   /* As long as we're not replaying, just forward the request.  */
2690   if ((::execution_direction != EXEC_REVERSE)
2691       && !record_is_replaying (minus_one_ptid))
2692     {
2693       this->beneath->stop (ptid);
2694     }
2695   else
2696     {
2697       struct thread_info *tp;
2698
2699       ALL_NON_EXITED_THREADS (tp)
2700        if (ptid_match (tp->ptid, ptid))
2701          {
2702            tp->btrace.flags &= ~BTHR_MOVE;
2703            tp->btrace.flags |= BTHR_STOP;
2704          }
2705     }
2706  }
2707
2708 /* The can_execute_reverse method of target record-btrace.  */
2709
2710 bool
2711 record_btrace_target::can_execute_reverse ()
2712 {
2713   return true;
2714 }
2715
2716 /* The stopped_by_sw_breakpoint method of target record-btrace.  */
2717
2718 bool
2719 record_btrace_target::stopped_by_sw_breakpoint ()
2720 {
2721   if (record_is_replaying (minus_one_ptid))
2722     {
2723       struct thread_info *tp = inferior_thread ();
2724
2725       return tp->btrace.stop_reason == TARGET_STOPPED_BY_SW_BREAKPOINT;
2726     }
2727
2728   return this->beneath->stopped_by_sw_breakpoint ();
2729 }
2730
2731 /* The supports_stopped_by_sw_breakpoint method of target
2732    record-btrace.  */
2733
2734 bool
2735 record_btrace_target::supports_stopped_by_sw_breakpoint ()
2736 {
2737   if (record_is_replaying (minus_one_ptid))
2738     return true;
2739
2740   return this->beneath->supports_stopped_by_sw_breakpoint ();
2741 }
2742
2743 /* The stopped_by_sw_breakpoint method of target record-btrace.  */
2744
2745 bool
2746 record_btrace_target::stopped_by_hw_breakpoint ()
2747 {
2748   if (record_is_replaying (minus_one_ptid))
2749     {
2750       struct thread_info *tp = inferior_thread ();
2751
2752       return tp->btrace.stop_reason == TARGET_STOPPED_BY_HW_BREAKPOINT;
2753     }
2754
2755   return this->beneath->stopped_by_hw_breakpoint ();
2756 }
2757
2758 /* The supports_stopped_by_hw_breakpoint method of target
2759    record-btrace.  */
2760
2761 bool
2762 record_btrace_target::supports_stopped_by_hw_breakpoint ()
2763 {
2764   if (record_is_replaying (minus_one_ptid))
2765     return true;
2766
2767   return this->beneath->supports_stopped_by_hw_breakpoint ();
2768 }
2769
2770 /* The update_thread_list method of target record-btrace.  */
2771
2772 void
2773 record_btrace_target::update_thread_list ()
2774 {
2775   /* We don't add or remove threads during replay.  */
2776   if (record_is_replaying (minus_one_ptid))
2777     return;
2778
2779   /* Forward the request.  */
2780   this->beneath->update_thread_list ();
2781 }
2782
2783 /* The thread_alive method of target record-btrace.  */
2784
2785 bool
2786 record_btrace_target::thread_alive (ptid_t ptid)
2787 {
2788   /* We don't add or remove threads during replay.  */
2789   if (record_is_replaying (minus_one_ptid))
2790     return find_thread_ptid (ptid) != NULL;
2791
2792   /* Forward the request.  */
2793   return this->beneath->thread_alive (ptid);
2794 }
2795
2796 /* Set the replay branch trace instruction iterator.  If IT is NULL, replay
2797    is stopped.  */
2798
2799 static void
2800 record_btrace_set_replay (struct thread_info *tp,
2801                           const struct btrace_insn_iterator *it)
2802 {
2803   struct btrace_thread_info *btinfo;
2804
2805   btinfo = &tp->btrace;
2806
2807   if (it == NULL)
2808     record_btrace_stop_replaying (tp);
2809   else
2810     {
2811       if (btinfo->replay == NULL)
2812         record_btrace_start_replaying (tp);
2813       else if (btrace_insn_cmp (btinfo->replay, it) == 0)
2814         return;
2815
2816       *btinfo->replay = *it;
2817       registers_changed_ptid (tp->ptid);
2818     }
2819
2820   /* Start anew from the new replay position.  */
2821   record_btrace_clear_histories (btinfo);
2822
2823   stop_pc = regcache_read_pc (get_current_regcache ());
2824   print_stack_frame (get_selected_frame (NULL), 1, SRC_AND_LOC, 1);
2825 }
2826
2827 /* The goto_record_begin method of target record-btrace.  */
2828
2829 void
2830 record_btrace_target::goto_record_begin ()
2831 {
2832   struct thread_info *tp;
2833   struct btrace_insn_iterator begin;
2834
2835   tp = require_btrace_thread ();
2836
2837   btrace_insn_begin (&begin, &tp->btrace);
2838
2839   /* Skip gaps at the beginning of the trace.  */
2840   while (btrace_insn_get (&begin) == NULL)
2841     {
2842       unsigned int steps;
2843
2844       steps = btrace_insn_next (&begin, 1);
2845       if (steps == 0)
2846         error (_("No trace."));
2847     }
2848
2849   record_btrace_set_replay (tp, &begin);
2850 }
2851
2852 /* The goto_record_end method of target record-btrace.  */
2853
2854 void
2855 record_btrace_target::goto_record_end ()
2856 {
2857   struct thread_info *tp;
2858
2859   tp = require_btrace_thread ();
2860
2861   record_btrace_set_replay (tp, NULL);
2862 }
2863
2864 /* The goto_record method of target record-btrace.  */
2865
2866 void
2867 record_btrace_target::goto_record (ULONGEST insn)
2868 {
2869   struct thread_info *tp;
2870   struct btrace_insn_iterator it;
2871   unsigned int number;
2872   int found;
2873
2874   number = insn;
2875
2876   /* Check for wrap-arounds.  */
2877   if (number != insn)
2878     error (_("Instruction number out of range."));
2879
2880   tp = require_btrace_thread ();
2881
2882   found = btrace_find_insn_by_number (&it, &tp->btrace, number);
2883
2884   /* Check if the instruction could not be found or is a gap.  */
2885   if (found == 0 || btrace_insn_get (&it) == NULL)
2886     error (_("No such instruction."));
2887
2888   record_btrace_set_replay (tp, &it);
2889 }
2890
2891 /* The record_stop_replaying method of target record-btrace.  */
2892
2893 void
2894 record_btrace_target::record_stop_replaying ()
2895 {
2896   struct thread_info *tp;
2897
2898   ALL_NON_EXITED_THREADS (tp)
2899     record_btrace_stop_replaying (tp);
2900 }
2901
2902 /* The execution_direction target method.  */
2903
2904 enum exec_direction_kind
2905 record_btrace_target::execution_direction ()
2906 {
2907   return record_btrace_resume_exec_dir;
2908 }
2909
2910 /* The prepare_to_generate_core target method.  */
2911
2912 void
2913 record_btrace_target::prepare_to_generate_core ()
2914 {
2915   record_btrace_generating_corefile = 1;
2916 }
2917
2918 /* The done_generating_core target method.  */
2919
2920 void
2921 record_btrace_target::done_generating_core ()
2922 {
2923   record_btrace_generating_corefile = 0;
2924 }
2925
2926 /* Start recording in BTS format.  */
2927
2928 static void
2929 cmd_record_btrace_bts_start (const char *args, int from_tty)
2930 {
2931   if (args != NULL && *args != 0)
2932     error (_("Invalid argument."));
2933
2934   record_btrace_conf.format = BTRACE_FORMAT_BTS;
2935
2936   TRY
2937     {
2938       execute_command ("target record-btrace", from_tty);
2939     }
2940   CATCH (exception, RETURN_MASK_ALL)
2941     {
2942       record_btrace_conf.format = BTRACE_FORMAT_NONE;
2943       throw_exception (exception);
2944     }
2945   END_CATCH
2946 }
2947
2948 /* Start recording in Intel Processor Trace format.  */
2949
2950 static void
2951 cmd_record_btrace_pt_start (const char *args, int from_tty)
2952 {
2953   if (args != NULL && *args != 0)
2954     error (_("Invalid argument."));
2955
2956   record_btrace_conf.format = BTRACE_FORMAT_PT;
2957
2958   TRY
2959     {
2960       execute_command ("target record-btrace", from_tty);
2961     }
2962   CATCH (exception, RETURN_MASK_ALL)
2963     {
2964       record_btrace_conf.format = BTRACE_FORMAT_NONE;
2965       throw_exception (exception);
2966     }
2967   END_CATCH
2968 }
2969
2970 /* Alias for "target record".  */
2971
2972 static void
2973 cmd_record_btrace_start (const char *args, int from_tty)
2974 {
2975   if (args != NULL && *args != 0)
2976     error (_("Invalid argument."));
2977
2978   record_btrace_conf.format = BTRACE_FORMAT_PT;
2979
2980   TRY
2981     {
2982       execute_command ("target record-btrace", from_tty);
2983     }
2984   CATCH (exception, RETURN_MASK_ALL)
2985     {
2986       record_btrace_conf.format = BTRACE_FORMAT_BTS;
2987
2988       TRY
2989         {
2990           execute_command ("target record-btrace", from_tty);
2991         }
2992       CATCH (exception, RETURN_MASK_ALL)
2993         {
2994           record_btrace_conf.format = BTRACE_FORMAT_NONE;
2995           throw_exception (exception);
2996         }
2997       END_CATCH
2998     }
2999   END_CATCH
3000 }
3001
3002 /* The "set record btrace" command.  */
3003
3004 static void
3005 cmd_set_record_btrace (const char *args, int from_tty)
3006 {
3007   printf_unfiltered (_("\"set record btrace\" must be followed "
3008                        "by an appropriate subcommand.\n"));
3009   help_list (set_record_btrace_cmdlist, "set record btrace ",
3010              all_commands, gdb_stdout);
3011 }
3012
3013 /* The "show record btrace" command.  */
3014
3015 static void
3016 cmd_show_record_btrace (const char *args, int from_tty)
3017 {
3018   cmd_show_list (show_record_btrace_cmdlist, from_tty, "");
3019 }
3020
3021 /* The "show record btrace replay-memory-access" command.  */
3022
3023 static void
3024 cmd_show_replay_memory_access (struct ui_file *file, int from_tty,
3025                                struct cmd_list_element *c, const char *value)
3026 {
3027   fprintf_filtered (gdb_stdout, _("Replay memory access is %s.\n"),
3028                     replay_memory_access);
3029 }
3030
3031 /* The "set record btrace cpu none" command.  */
3032
3033 static void
3034 cmd_set_record_btrace_cpu_none (const char *args, int from_tty)
3035 {
3036   if (args != nullptr && *args != 0)
3037     error (_("Trailing junk: '%s'."), args);
3038
3039   record_btrace_cpu_state = CS_NONE;
3040 }
3041
3042 /* The "set record btrace cpu auto" command.  */
3043
3044 static void
3045 cmd_set_record_btrace_cpu_auto (const char *args, int from_tty)
3046 {
3047   if (args != nullptr && *args != 0)
3048     error (_("Trailing junk: '%s'."), args);
3049
3050   record_btrace_cpu_state = CS_AUTO;
3051 }
3052
3053 /* The "set record btrace cpu" command.  */
3054
3055 static void
3056 cmd_set_record_btrace_cpu (const char *args, int from_tty)
3057 {
3058   if (args == nullptr)
3059     args = "";
3060
3061   /* We use a hard-coded vendor string for now.  */
3062   unsigned int family, model, stepping;
3063   int l1, l2, matches = sscanf (args, "intel: %u/%u%n/%u%n", &family,
3064                                 &model, &l1, &stepping, &l2);
3065   if (matches == 3)
3066     {
3067       if (strlen (args) != l2)
3068         error (_("Trailing junk: '%s'."), args + l2);
3069     }
3070   else if (matches == 2)
3071     {
3072       if (strlen (args) != l1)
3073         error (_("Trailing junk: '%s'."), args + l1);
3074
3075       stepping = 0;
3076     }
3077   else
3078     error (_("Bad format.  See \"help set record btrace cpu\"."));
3079
3080   if (USHRT_MAX < family)
3081     error (_("Cpu family too big."));
3082
3083   if (UCHAR_MAX < model)
3084     error (_("Cpu model too big."));
3085
3086   if (UCHAR_MAX < stepping)
3087     error (_("Cpu stepping too big."));
3088
3089   record_btrace_cpu.vendor = CV_INTEL;
3090   record_btrace_cpu.family = family;
3091   record_btrace_cpu.model = model;
3092   record_btrace_cpu.stepping = stepping;
3093
3094   record_btrace_cpu_state = CS_CPU;
3095 }
3096
3097 /* The "show record btrace cpu" command.  */
3098
3099 static void
3100 cmd_show_record_btrace_cpu (const char *args, int from_tty)
3101 {
3102   const char *cpu;
3103
3104   if (args != nullptr && *args != 0)
3105     error (_("Trailing junk: '%s'."), args);
3106
3107   switch (record_btrace_cpu_state)
3108     {
3109     case CS_AUTO:
3110       printf_unfiltered (_("btrace cpu is 'auto'.\n"));
3111       return;
3112
3113     case CS_NONE:
3114       printf_unfiltered (_("btrace cpu is 'none'.\n"));
3115       return;
3116
3117     case CS_CPU:
3118       switch (record_btrace_cpu.vendor)
3119         {
3120         case CV_INTEL:
3121           if (record_btrace_cpu.stepping == 0)
3122             printf_unfiltered (_("btrace cpu is 'intel: %u/%u'.\n"),
3123                                record_btrace_cpu.family,
3124                                record_btrace_cpu.model);
3125           else
3126             printf_unfiltered (_("btrace cpu is 'intel: %u/%u/%u'.\n"),
3127                                record_btrace_cpu.family,
3128                                record_btrace_cpu.model,
3129                                record_btrace_cpu.stepping);
3130           return;
3131         }
3132     }
3133
3134   error (_("Internal error: bad cpu state."));
3135 }
3136
3137 /* The "s record btrace bts" command.  */
3138
3139 static void
3140 cmd_set_record_btrace_bts (const char *args, int from_tty)
3141 {
3142   printf_unfiltered (_("\"set record btrace bts\" must be followed "
3143                        "by an appropriate subcommand.\n"));
3144   help_list (set_record_btrace_bts_cmdlist, "set record btrace bts ",
3145              all_commands, gdb_stdout);
3146 }
3147
3148 /* The "show record btrace bts" command.  */
3149
3150 static void
3151 cmd_show_record_btrace_bts (const char *args, int from_tty)
3152 {
3153   cmd_show_list (show_record_btrace_bts_cmdlist, from_tty, "");
3154 }
3155
3156 /* The "set record btrace pt" command.  */
3157
3158 static void
3159 cmd_set_record_btrace_pt (const char *args, int from_tty)
3160 {
3161   printf_unfiltered (_("\"set record btrace pt\" must be followed "
3162                        "by an appropriate subcommand.\n"));
3163   help_list (set_record_btrace_pt_cmdlist, "set record btrace pt ",
3164              all_commands, gdb_stdout);
3165 }
3166
3167 /* The "show record btrace pt" command.  */
3168
3169 static void
3170 cmd_show_record_btrace_pt (const char *args, int from_tty)
3171 {
3172   cmd_show_list (show_record_btrace_pt_cmdlist, from_tty, "");
3173 }
3174
3175 /* The "record bts buffer-size" show value function.  */
3176
3177 static void
3178 show_record_bts_buffer_size_value (struct ui_file *file, int from_tty,
3179                                    struct cmd_list_element *c,
3180                                    const char *value)
3181 {
3182   fprintf_filtered (file, _("The record/replay bts buffer size is %s.\n"),
3183                     value);
3184 }
3185
3186 /* The "record pt buffer-size" show value function.  */
3187
3188 static void
3189 show_record_pt_buffer_size_value (struct ui_file *file, int from_tty,
3190                                   struct cmd_list_element *c,
3191                                   const char *value)
3192 {
3193   fprintf_filtered (file, _("The record/replay pt buffer size is %s.\n"),
3194                     value);
3195 }
3196
3197 /* Initialize btrace commands.  */
3198
3199 void
3200 _initialize_record_btrace (void)
3201 {
3202   add_prefix_cmd ("btrace", class_obscure, cmd_record_btrace_start,
3203                   _("Start branch trace recording."), &record_btrace_cmdlist,
3204                   "record btrace ", 0, &record_cmdlist);
3205   add_alias_cmd ("b", "btrace", class_obscure, 1, &record_cmdlist);
3206
3207   add_cmd ("bts", class_obscure, cmd_record_btrace_bts_start,
3208            _("\
3209 Start branch trace recording in Branch Trace Store (BTS) format.\n\n\
3210 The processor stores a from/to record for each branch into a cyclic buffer.\n\
3211 This format may not be available on all processors."),
3212            &record_btrace_cmdlist);
3213   add_alias_cmd ("bts", "btrace bts", class_obscure, 1, &record_cmdlist);
3214
3215   add_cmd ("pt", class_obscure, cmd_record_btrace_pt_start,
3216            _("\
3217 Start branch trace recording in Intel Processor Trace format.\n\n\
3218 This format may not be available on all processors."),
3219            &record_btrace_cmdlist);
3220   add_alias_cmd ("pt", "btrace pt", class_obscure, 1, &record_cmdlist);
3221
3222   add_prefix_cmd ("btrace", class_support, cmd_set_record_btrace,
3223                   _("Set record options"), &set_record_btrace_cmdlist,
3224                   "set record btrace ", 0, &set_record_cmdlist);
3225
3226   add_prefix_cmd ("btrace", class_support, cmd_show_record_btrace,
3227                   _("Show record options"), &show_record_btrace_cmdlist,
3228                   "show record btrace ", 0, &show_record_cmdlist);
3229
3230   add_setshow_enum_cmd ("replay-memory-access", no_class,
3231                         replay_memory_access_types, &replay_memory_access, _("\
3232 Set what memory accesses are allowed during replay."), _("\
3233 Show what memory accesses are allowed during replay."),
3234                            _("Default is READ-ONLY.\n\n\
3235 The btrace record target does not trace data.\n\
3236 The memory therefore corresponds to the live target and not \
3237 to the current replay position.\n\n\
3238 When READ-ONLY, allow accesses to read-only memory during replay.\n\
3239 When READ-WRITE, allow accesses to read-only and read-write memory during \
3240 replay."),
3241                            NULL, cmd_show_replay_memory_access,
3242                            &set_record_btrace_cmdlist,
3243                            &show_record_btrace_cmdlist);
3244
3245   add_prefix_cmd ("cpu", class_support, cmd_set_record_btrace_cpu,
3246                   _("\
3247 Set the cpu to be used for trace decode.\n\n\
3248 The format is \"VENDOR:IDENTIFIER\" or \"none\" or \"auto\" (default).\n\
3249 For vendor \"intel\" the format is \"FAMILY/MODEL[/STEPPING]\".\n\n\
3250 When decoding branch trace, enable errata workarounds for the specified cpu.\n\
3251 The default is \"auto\", which uses the cpu on which the trace was recorded.\n\
3252 When GDB does not support that cpu, this option can be used to enable\n\
3253 workarounds for a similar cpu that GDB supports.\n\n\
3254 When set to \"none\", errata workarounds are disabled."),
3255                   &set_record_btrace_cpu_cmdlist,
3256                   _("set record btrace cpu "), 1,
3257                   &set_record_btrace_cmdlist);
3258
3259   add_cmd ("auto", class_support, cmd_set_record_btrace_cpu_auto, _("\
3260 Automatically determine the cpu to be used for trace decode."),
3261            &set_record_btrace_cpu_cmdlist);
3262
3263   add_cmd ("none", class_support, cmd_set_record_btrace_cpu_none, _("\
3264 Do not enable errata workarounds for trace decode."),
3265            &set_record_btrace_cpu_cmdlist);
3266
3267   add_cmd ("cpu", class_support, cmd_show_record_btrace_cpu, _("\
3268 Show the cpu to be used for trace decode."),
3269            &show_record_btrace_cmdlist);
3270
3271   add_prefix_cmd ("bts", class_support, cmd_set_record_btrace_bts,
3272                   _("Set record btrace bts options"),
3273                   &set_record_btrace_bts_cmdlist,
3274                   "set record btrace bts ", 0, &set_record_btrace_cmdlist);
3275
3276   add_prefix_cmd ("bts", class_support, cmd_show_record_btrace_bts,
3277                   _("Show record btrace bts options"),
3278                   &show_record_btrace_bts_cmdlist,
3279                   "show record btrace bts ", 0, &show_record_btrace_cmdlist);
3280
3281   add_setshow_uinteger_cmd ("buffer-size", no_class,
3282                             &record_btrace_conf.bts.size,
3283                             _("Set the record/replay bts buffer size."),
3284                             _("Show the record/replay bts buffer size."), _("\
3285 When starting recording request a trace buffer of this size.  \
3286 The actual buffer size may differ from the requested size.  \
3287 Use \"info record\" to see the actual buffer size.\n\n\
3288 Bigger buffers allow longer recording but also take more time to process \
3289 the recorded execution trace.\n\n\
3290 The trace buffer size may not be changed while recording."), NULL,
3291                             show_record_bts_buffer_size_value,
3292                             &set_record_btrace_bts_cmdlist,
3293                             &show_record_btrace_bts_cmdlist);
3294
3295   add_prefix_cmd ("pt", class_support, cmd_set_record_btrace_pt,
3296                   _("Set record btrace pt options"),
3297                   &set_record_btrace_pt_cmdlist,
3298                   "set record btrace pt ", 0, &set_record_btrace_cmdlist);
3299
3300   add_prefix_cmd ("pt", class_support, cmd_show_record_btrace_pt,
3301                   _("Show record btrace pt options"),
3302                   &show_record_btrace_pt_cmdlist,
3303                   "show record btrace pt ", 0, &show_record_btrace_cmdlist);
3304
3305   add_setshow_uinteger_cmd ("buffer-size", no_class,
3306                             &record_btrace_conf.pt.size,
3307                             _("Set the record/replay pt buffer size."),
3308                             _("Show the record/replay pt buffer size."), _("\
3309 Bigger buffers allow longer recording but also take more time to process \
3310 the recorded execution.\n\
3311 The actual buffer size may differ from the requested size.  Use \"info record\" \
3312 to see the actual buffer size."), NULL, show_record_pt_buffer_size_value,
3313                             &set_record_btrace_pt_cmdlist,
3314                             &show_record_btrace_pt_cmdlist);
3315
3316   add_target (record_btrace_target_info, record_btrace_target_open);
3317
3318   bfcache = htab_create_alloc (50, bfcache_hash, bfcache_eq, NULL,
3319                                xcalloc, xfree);
3320
3321   record_btrace_conf.bts.size = 64 * 1024;
3322   record_btrace_conf.pt.size = 16 * 1024;
3323 }